[go: up one dir, main page]

JP2006061632A - Emotion data supplying apparatus, psychology analyzer, and method for psychological analysis of telephone user - Google Patents

Emotion data supplying apparatus, psychology analyzer, and method for psychological analysis of telephone user Download PDF

Info

Publication number
JP2006061632A
JP2006061632A JP2004251069A JP2004251069A JP2006061632A JP 2006061632 A JP2006061632 A JP 2006061632A JP 2004251069 A JP2004251069 A JP 2004251069A JP 2004251069 A JP2004251069 A JP 2004251069A JP 2006061632 A JP2006061632 A JP 2006061632A
Authority
JP
Japan
Prior art keywords
user
emotion
psychological
information
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004251069A
Other languages
Japanese (ja)
Inventor
Kiyoshi Ishizaki
淑 石▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ISHISAKI KK
Original Assignee
ISHISAKI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ISHISAKI KK filed Critical ISHISAKI KK
Priority to JP2004251069A priority Critical patent/JP2006061632A/en
Publication of JP2006061632A publication Critical patent/JP2006061632A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an emotion data supplying apparatus which allows numerical evaluating the emotion and character of an individual to estimate its health, emotion, intelligence, psychological state, desire, and human relation, and taking the suitable response for the individual; a psychology analyzer, and a method for psychological analysis of a telephone user. <P>SOLUTION: The emotion data supplying apparatus comprises an operator terminal 3 for inputting an operator's answer information to a user's question information, and a psychology analyzer 1 which receives the user's question information from a user terminal 2 through a first circuit 4a, receives the operator's answer information from an operator terminal 3 through a second circuit 4b, and quantifies the psychological states of the user and the operator to analyze. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ユーザの感情や心理状態を数値化した解析データを出力する感情データ提供装置、心理解析装置、および電話ユーザ心理解析方法に関する。   The present invention relates to an emotion data providing apparatus, a psychological analysis apparatus, and a telephone user psychological analysis method that output analysis data obtained by quantifying a user's emotion and psychological state.

例えば、従来のイメージ評価システムは、名称等の言語表現の音声上イメージを評価する上で、発音最小単位などの音相基を「明暗(陽・陰)」「強弱(高けい性・低けい性)」といった指標で数値的に評価するが、これには相当に大掛かりな調査が必要であり、言語中の感情語を取出して「明暗」「強弱」に分類し、発音最小単位などの音相基がどこで多く使用されているかを調べて統計的手法に基づいてその傾向を数値的に表現していた。   For example, in the conventional image evaluation system, when evaluating the speech image of a language expression such as a name, the sound phase group such as the minimum pronunciation unit is set to “brightness (positive / negative)”, “strong / weak” ) ”, But it requires a significant survey. It takes emotion words from the language and classifies them into“ bright ”and“ strong ”and sounds such as the smallest pronunciation unit. We investigated where many of them were used and expressed their tendency numerically based on statistical methods.

このイメージ評価システムは、永年にわたる日本語における感情語の分類・評価に基づいて発音最小単位などの音相基がもっている「明暗」の傾向である±B値(Brightness(輝性))、「強弱」の傾向である±H値(Hardness)を求めて整理していた(特許文献1参照。)。   This image evaluation system is based on the classification and evaluation of emotional words in Japanese for many years, and has a ± B value (Brightness), which has a tendency of “brightness and darkness” with a sound base such as a minimum pronunciation unit, “ The ± H value (Hardness), which is a “strength” tendency, was obtained and organized (see Patent Document 1).

しかしながら、従来のイメージ評価システムは、感情語の分類・評価に基づく音相分析で新商品のネーミング分析、子供やペットの名称診断、名前による性格診断占い、ゲームキャラクタのパラメータ設定、メールの文章から言葉を切出して送信者の気分を判断し、現在の性格や感情からイメージ評価を実行していたが、より精度の高い個人の感情と性格を数値的に判定し、ユーザー毎に嗜好推論できる評価システムが長年切望されていた。   However, the conventional image evaluation system is based on emotion analysis based on the classification and evaluation of emotion words, naming analysis of new products, name diagnosis of children and pets, personality diagnosis by name, game character parameter setting, and mail text The words were extracted to determine the sender's mood, and image evaluation was performed based on the current personality and emotions. However, this evaluation can be used to infer preference for each user by numerically determining individual emotions and personalities with higher accuracy. The system has been longing for.

また、ユーザとの会話(又は通信)を通じて、ユーザの感情と性格を判定し、ユーザの発言内容に即したメッセージを発信させるという評価システムも待ち望まれている。
特開2002−204153号公報(第0041段落、表1参照)
There is also a need for an evaluation system that determines a user's emotion and personality through conversation (or communication) with the user and sends a message in accordance with the content of the user's remarks.
JP 2002-204153 A (see paragraph 0041, Table 1)

本発明は、個人毎に異なる感情と性格を数値的に評価して、その人の健康、感情、知性、精神状態、欲求、人間関係などを推論し、個別的な対応がとれる感情データ提供装置、心理解析装置、および電話ユーザ心理解析方法を提供する。   The present invention numerically evaluates emotions and personalities that differ from person to person, infers the person's health, emotions, intelligence, mental state, desire, human relations, etc. , A psychological analysis device, and a telephone user psychological analysis method.

本発明の一態様は、例えば、ユーザの問い合わせ情報に対するオペレータの回答情報を入力するオペレータ端末と、第1の回線を通してユーザ端末からユーザの問い合わせ情報を受信し、第2の回線を通してオペレータ端末からオペレータの回答情報を受信し、ユーザ及びオペレータの心理状態を数値化して解析する心理解析装置と、を備える感情データ提供装置であることを要旨とする。   According to an aspect of the present invention, for example, an operator terminal that inputs operator response information for user inquiry information, a user inquiry information from a user terminal through a first line, and an operator terminal from the operator terminal through a second line. And a psychological analysis device that receives the response information and digitizes and analyzes the psychological states of the user and the operator.

本発明の一態様は、例えば、電話回線を通して通話する電話ユーザの心理状態を数値化して解析する手段と、電話ユーザの電話番号がアドレス帳に登録されているグループユーザの端末へ解析の結果を送信する心理解析送信手段と、を備える心理解析装置であることを要旨とする。   One aspect of the present invention is, for example, a means for digitizing and analyzing a psychological state of a telephone user who makes a call through a telephone line, and a result of the analysis to a terminal of a group user whose telephone number is registered in an address book. The gist of the present invention is a psychological analysis device including a psychological analysis transmitting means for transmitting.

本発明の一態様は、例えば、視覚、聴覚、臭覚、触覚、及び味覚を含む五感の情報によるユーザの心理状態を数値化して解析し、ユーザ情報管理モジュールに記憶したユーザ履歴情報に基づきユーザが心理的に喜怒哀楽を含む感情数値を検知し、マッチングする解決情報を出力し、落ち込んでいる数値を検知した場合は、文字又は絵若しくは音による励ましメッセージを出力すると共に、ユーザが心理的に高揚している場合は文字又は絵又は前記五感情報若しくは音による夢想起メッセージを出力する心理解析装置を備える携帯電話であることを要旨とする。   In one aspect of the present invention, for example, the user's psychological state based on information on the five senses including vision, hearing, smell, touch, and taste is quantified and analyzed, and the user is based on the user history information stored in the user information management module. Psychologically, emotional numerical values including emotions are detected, matching solution information is output, and when numerical values that are depressed are detected, an encouragement message is output by letters, pictures, or sounds, and the user psychologically If it is uplifted, the gist is that it is a mobile phone equipped with a psychological analysis device that outputs a text or picture or the dream sense message by the five senses information or sound.

本発明の一態様は、例えば、電話ユーザの音声データに含まれる第1〜第3の共鳴周波数帯を数値化して解析した感情解析データをディスプレイへ出力する携帯電話であることを要旨とする。   One aspect of the present invention is, for example, a mobile phone that outputs emotion analysis data obtained by digitizing and analyzing first to third resonance frequency bands included in voice data of a telephone user to a display.

本発明の一態様は、例えば、電話用サーバが、電話ユーザの携帯電話から携帯電話交換機を経由する発呼に自動応答し音声データを記憶装置に記憶し、記憶装置から音声データを読出して通信回線を通してアプリケーションサーバへ転送し、アプリケーションサーバが感情解析エンジンに蓄積した感情解析データに基づき、音声データを分析及び比較し、合致する感情解析データを携帯電話交換機を通して携帯電話へ送信する電話ユーザ心理解析方法であることを要旨とする。   In one embodiment of the present invention, for example, a telephone server automatically responds to a call from a telephone user's mobile phone via a mobile phone switch, stores voice data in a storage device, and reads voice data from the storage device for communication. Phone user psychology analysis that transfers to the application server through the line, analyzes and compares the voice data based on the emotion analysis data accumulated in the emotion analysis engine by the application server, and sends the matching emotion analysis data to the mobile phone through the mobile phone switch The gist is the method.

本発明の一態様は、例えば、電話ユーザの音声を携帯電話に入力するマイク音声入力ステップと、マイク音声入力ステップで入力した音声をメモリに保存する保存ステップと、マイク音声入力で混入する雑音強度を監視し、音声が感情判定用データとして有効か否かを判定する有効判定ステップと、判定ステップで有効判定された音声を通信回線を通して電子メールの添付ファイルとしてサーバへ送信するメール送信ステップと、サーバが音声のピッチ、スピード、タイミングを含むパラメータを抽出し、感情を有する解析エンジンに予め蓄積した感情解析データに基づき、音声を分析及び比較し、合致する感情解析データを通信回線を通して携帯電話へ送信するステップと、携帯電話が感情解析データをディスプレイにグラフィック又はテキスト表示させる表示ステップと、携帯電話の中で音声のピッチ、スピード、タイミングを含むパラメータを抽出し、感情解析エンジンに予め蓄積した感情解析データに基づき、音声や五感(視角、聴覚、臭覚、及び味覚)を含む五感情報を分析及び比較し合致する感情解析データをディスプレイに表示する手段を組み込むステップと、を含む電話ユーザ心理解析方法であることを要旨とする。   One aspect of the present invention includes, for example, a microphone voice input step for inputting a voice of a telephone user to a mobile phone, a storage step for storing the voice input in the microphone voice input step in a memory, and a noise intensity mixed by the microphone voice input. An effective determination step for determining whether or not the voice is valid as emotion determination data, and a mail transmission step for transmitting the voice determined to be valid in the determination step to the server as an email attachment through a communication line; The server extracts parameters including the pitch, speed, and timing of the voice, analyzes and compares the voice based on the emotion analysis data stored in advance in the emotional analysis engine, and sends the matching emotion analysis data to the mobile phone through the communication line. Sending, and the mobile phone displays the emotion analysis data on the display graphic or text. Display step, and parameters including pitch, speed and timing of voice in mobile phone, and based on emotion analysis data stored in advance in emotion analysis engine, voice and five senses (viewing angle, hearing, smell, and The present invention is summarized as a telephone user psychological analysis method including a step of incorporating means for analyzing and comparing five senses information including taste) and displaying matching emotion analysis data on a display.

このように構成すると、ユーザが使用する単語や言い回し、興味のある物品、好きな店舗、日々の行動パターン、時間の過ごし方などを生体理論に基づき分析し、各ユーザを色に区分けして、人の体質から感性の方向性を予測することができ、身体と密接に結びついている人間の心を数値的に評価することができる。   When configured in this way, the words and phrases used by users, articles of interest, favorite stores, daily behavior patterns, how to spend time, etc. are analyzed based on biological theory, and each user is divided into colors, The direction of sensibility can be predicted from the human constitution, and the human mind closely related to the body can be evaluated numerically.

本発明によれば、個人毎に異なる感情と性格を数値的に評価して、その人の健康、感情、知性、精神状態、欲求、人間関係などを推論し、個別的な対応がとれる感情データ提供装置、心理解析装置、および電話ユーザの職業又は性格の何れか一方の心理解析方法を提供することができる。   According to the present invention, emotional data that can be individually dealt with by numerically evaluating different emotions and personalities for each individual, inferring the person's health, emotions, intelligence, mental state, desires, human relationships, etc. It is possible to provide a providing device, a psychological analysis device, and a psychological analysis method for any one of the occupation or character of the telephone user.

以下の実施の形態における感情解析装置及び心理解析装置は、人体カラーの数値的評価システム(以下、単に「評価システム」と略記する。)を用いることができる。例えば、評価システムは、音声情報、文章情報、オーラチェック情報などを電気信号に変換する入力部を有する。   The emotion analysis apparatus and psychological analysis apparatus in the following embodiments can use a human body color numerical evaluation system (hereinafter simply referred to as “evaluation system”). For example, the evaluation system includes an input unit that converts voice information, text information, aura check information, and the like into electrical signals.

本実施の形態に用いられる人体カラーは、例えば、人体と密接に結びついているベースカラーとしてのスタティクカラーと、何等かの事象(イベント)に応答して次の感情に移行する段階で発生するダイナミックカラーを含む、脳科学上の生体理論に基づくマインドカラーである。   The human body color used in the present embodiment is generated, for example, at a stage where a static color as a base color closely connected to the human body and a transition to the next emotion in response to some event (event). It is a mind color based on the biological theory in the brain science including the dynamic color.

入力部は、人体のエネルギー状態を示す各種情報を評価システムで演算処理できる電気信号に変換する手段であれば、キーボードや、マウスや、音声入力装置や、画像入力装置や、通信回線や、人体電流測定装置や、人体静電気測定装置や、赤外線測定装置などの手段を用いても構わない。   If the input unit is a means for converting various information indicating the energy state of the human body into electrical signals that can be processed by the evaluation system, the keyboard, mouse, voice input device, image input device, communication line, human body, etc. Means such as a current measuring device, a human body static electricity measuring device, and an infrared measuring device may be used.

色辞書は、入力部から電気信号を受信し、生体理論又は音相理論の何れか一方、若しくは生体理論及び音相理論の双方に基づき複数のカラーに対応させて数値化し、色相演算部へ複数の色情報を送信する手段を用いることができる。   The color dictionary receives an electrical signal from the input unit, digitizes it corresponding to a plurality of colors based on either the biological theory or the sound theory, or both the biological theory and the sound theory, and sends it to the hue calculation unit. Means for transmitting the color information can be used.

色相演算部は、複数の色情報12を相互に加算して、この色情報に対応する数値に基づく色相演算結果を演算出力する。例えば、黄色の二進数「101002」とオレンジ色の二進数「100301」とを加算して、2色の色情報に対応する数値としての十進数「2」で除算して色相演算結果を出力する手段を用いることができる。   The hue calculation unit adds a plurality of pieces of color information 12 to each other, and calculates and outputs a hue calculation result based on a numerical value corresponding to the color information. For example, a yellow binary number “101002” and an orange binary number “100301” are added and divided by a decimal number “2” as a numerical value corresponding to the color information of two colors, and a hue calculation result is output. Means can be used.

色相演算部に接続された出力部は、色相演算結果に基づいて、人体のスタティクカラーとダイナミックカラーに対応する色相系情報を出力する。この色相系情報は、論理演算処理手段により人体の健康、感情、心理、知性、精神状態、欲求のなどの人体パラメータや、その他人間関係のなどを推論させることができる複数の色情報を対象とする。   The output unit connected to the hue calculation unit outputs hue system information corresponding to the static color and dynamic color of the human body based on the hue calculation result. This hue information is intended for multiple color information that can be inferred by human body parameters such as human health, emotions, psychology, intelligence, mental state, desire, and other human relationships, etc. by logical operation processing means. To do.

評価システムは、例えば、言葉の表現と人体エネルギーからその人物の感情、心理、性格を数値的に判定することができ、個々人ごとに嗜好を推論して希望するであろう言葉、サービス、環境、商品などを提供して対応することができる。   For example, the evaluation system can numerically judge the person's emotion, psychology, and personality from the expression of words and human energy, and inferring preferences for each person, the words, services, environments, We can respond by providing products.

ここで、生体理論とは、人体の体質から完成の方向性を予測する手段の構成要件の1つである。人間の心理、感情は、身体と密接に結びついているので、例えば、怒りっぽい人は、何等かの事象に対し怒りの感情を刺激するホルモンが最も素早く分泌される体質であるというマインドカラーを体系化した理論である。   Here, the biological theory is one of the constituent requirements of means for predicting the direction of completion from the constitution of the human body. Human psychology and emotions are closely linked to the body, so for example, an angry person has a mind color that the hormone that stimulates anger emotions for some event is the quickest secreted constitution. It is a systematic theory.

また、怒りっぽい人の体質は、自然科学的に肝臓細胞の活性度が高く、お酒には強いが肝臓の障害を抱え易いことが生体理論で立証されている。同様に、肝臓は怒り、腎臓は恐れ、肺は悲しみ、脾臓は憂い、心臓は喜びを誘発する少なくとも5つの臓器を5つのカラーに対応させる生体理論の色辞書を構成することもできる。   In addition, it has been proved by biological theory that the constitution of an angry person has a high activity of liver cells in natural science and is liable to alcohol, but easily suffers from liver damage. Similarly, it is possible to construct a biological theory color dictionary in which at least five organs that induce joy, the liver is angry, the kidneys are afraid, the lungs are sad, the spleen is depressed, and the heart induces pleasure.

言い換えると、恐れる人は腎臓の活性度が高く、悲しむ人は肺の活性度が高く、憂いの人は脾臓の活性度が高く、喜ぶ人は心臓の活性度が高く、これら感情を刺激するホルモンが最も素早く分泌される体質であることも生体理論で立証されている。   In other words, fearful people have high kidney activity, sad people have high lung activity, sad people have high spleen activity, rejoicing people have high heart activity, hormones that stimulate these emotions It is also proved by biological theory that is the constitution that is secreted most quickly.

このようなホルモンを含む体内バランスは、例えば、掌や足裏のツボ温度、帯電する静電気、電流などを測定装置を用いて推測することができ、ツボを刺激して体内バランスを調整できることも生体理論で立証されている。   For example, the balance of the body containing hormones can be estimated by using a measuring device such as the temperature of the acupuncture points on the palms and soles, the static electricity to be charged, and the current, and the body balance can be adjusted by stimulating the points. Proven in theory.

評価システムは、人体の感情や行動から現れる体内エネルギー状態を判定して生体理論に基づき人体のスタティクカラーとダイナミックカラーを解析することができる。例えば、携帯電話のユーザが電子メールで頻繁に使用する単語や言い回しを入力してユーザのスタティクカラーとダイナミックカラーを解析することができる。   The evaluation system can analyze the static color and dynamic color of the human body based on the biological theory by determining the internal energy state that appears from the emotions and actions of the human body. For example, it is possible to analyze a user's static color and dynamic color by inputting a word or phrase frequently used by an e-mail by a mobile phone user.

また、インターネット上のウエブページの検索傾向に基づいて、ユーザが興味をもつ品物やサービスや好みの店舗などの種類を特定し、ユーザのスタティクカラーとダイナミックカラーを解析することができる。   In addition, based on the search tendency of web pages on the Internet, it is possible to identify the types of goods and services that the user is interested in, the type of store, etc., and analyze the user's static color and dynamic color.

さらに、ユーザの日々の行動パターンや、一日の時間の過ごし方を特定し、ユーザのスタティクカラーとダイナミックカラーを解析することもでき、素早い行動やゆったりとした行動、品物、サービスの選択傾向からユーザ独自の性格を2つのマインドカラーにより推測定義することができる。   In addition, the user's daily behavior pattern and how to spend the day's time can be identified, and the user's static color and dynamic color can be analyzed. Therefore, the user's unique personality can be speculated and defined by two mind colors.

人間は、脳が事象を認識し次の感情に移行する段階で、怒り、悲しみ、憂い、喜び、の何れかが先に来るか、といった個体別の傾向をもっているので、評価システム1により体内エネルギー状態を生体理論で解析し色別に表現して人体の感情や体質を推測することができる。   Since humans have individual trends such as whether anger, sadness, melancholy, or joy comes first when the brain recognizes an event and moves to the next emotion, the evaluation system 1 uses the internal energy. The state can be analyzed by biological theory and expressed in different colors to estimate human emotions and constitutions.

マインドカラー白の人は、すべてのバランスがニュートラルなので、せせこましい怒りにかられたり、妬みや憂いに悩まされたり、恐れにおびえるここともなく、平常心を保ち易い。欲する食べ物や情報も、出来る限り刺激の少ないもの、素材のしっかりしたものを望むという性質である。   The mind-colored white person is neutral in all balances, so it is easy to maintain normality without being angry, angry or worried, or intimidated. The food and information that you want is also the nature of wanting something with as little stimulation as possible and a solid material.

マインドカラー青がかかっている人は、冷静で慈悲深く、教育心に溢れている場合が多い。それは悲しみと母性を刺激するホルモンをだし易い体質に偏っているためである。   People with a mind-colored blue are often calm, benevolent and educated. This is because the hormone that stimulates sorrow and maternity is biased toward an easy constitution.

マインドカラー赤の人は、開拓精神と闘争心を持っている。これは、怒りと推進の感情を刺激するホルモンに依存しているからである。   Mind-colored red people have a pioneering spirit and a fighting spirit. This is because it relies on hormones that stimulate emotions of anger and propulsion.

上述したマインドカラーの人達は、自分の体質に合った食べ物や情報を欲しており、自分の体質が行き過ぎたときには、辛くても反対側の色に属する食べ物や情報を受け入れるように行動する場合が多い。   The mind-colored people mentioned above want food and information that suits their constitution, and when their constitution goes too far, they may act to accept food and information belonging to the opposite color even if it is painful. Many.

このような行動は、脳科学の分野でも、「心は、脳の中にある」というように、脳学者の主説となっている。このように人の性格を例えば12種類のカラーに分別し、それぞれの人物の性格に合った対応を人工知能などのシステムへ学習させることもできる。   This kind of behavior has become the main theory of brainologists in the field of brain science, as "the heart is in the brain". In this way, the personality of a person can be classified into, for example, 12 types of colors, and a system such as artificial intelligence can be made to learn the correspondence that matches the personality of each person.

数値的感性評価システム(以下、単に「感性評価システム」と略記する。)は、顧客製品のプラットホームに個別対応する意味ネットワークと特化プログラムとを融合させ、感性推論部、データベース、人工知能対話エンジンを備えるシステムを対象とする。   The numerical sensibility evaluation system (hereinafter simply referred to as “Kansei evaluation system”) is a fusion of a semantic network and a specialized program that individually correspond to the platform of customer products, and a sensibility inference unit, database, and artificial intelligence dialogue engine. Is intended for systems comprising

感性評価システムは、対話入力部からテキストによる文章を入力し、人工知能対話エンジンを介して入力した文章の言葉を意味分析部で意味分析する。意味分析部から意味分析した言葉を感情推論部により感情解析を実行するシステムを対象とする。   The sensibility evaluation system inputs a text sentence from the dialog input unit, and performs a semantic analysis on the words of the text input via the artificial intelligence dialog engine. It is intended for a system that performs emotion analysis on the words that have been semantically analyzed by the semantic analysis unit.

また、感性評価システムは、生体理論に基づく色辞書と、音相理論に基づく音相辞書と、感性推論演算処理部とを備え、色辞書又は音相辞書に基づいて言葉の感性若しくは感情並びに心理状態を解析するシステムを対象とする。   The Kansei evaluation system also includes a color dictionary based on biological theory, a tone dictionary based on tone theory, and a Kansei reasoning processing unit, and based on the color dictionary or tone dictionary, the sensitivity or emotion of words and psychology Intended for systems that analyze conditions.

感性推論演算処理部は、上述した怒り、悲しみ、憂い、喜びのような感情を表現する色情報としての動的な心理状態の解析結果を出力する。例えば、嬉しい色情報や悲しい色情報をデータベースに出力する手段を対象とする。   The sensibility reasoning calculation processing unit outputs an analysis result of a dynamic psychological state as color information expressing emotions such as anger, sadness, melancholy, and joy described above. For example, a means for outputting happy color information and sad color information to a database is targeted.

データベースは、例えば、約30万の言葉や定型文を記憶する1.4メガバイト程度のハードディスクドライブで構成できるが、30万の言葉を記憶できる手段であれば他の記憶装置を用いても構わない。   For example, the database can be configured with a hard disk drive of about 1.4 megabytes that stores about 300,000 words and fixed phrases, but other storage devices may be used as long as they can store 300,000 words. .

データベースは、動的な心理状態の解析結果に基づいて抽出した返信文章を人工知能対話エンジンを介して、対話出力部へ出力する。返信文章はテキストでも音声でも対応することができるが、本実施例ではテキストを用いた対話システムを対象とする。   The database outputs the reply sentence extracted based on the analysis result of the dynamic psychological state to the dialogue output unit via the artificial intelligence dialogue engine. The reply sentence can be handled by text or voice, but this embodiment is intended for an interactive system using text.

テキストによる人工知能対話エンジンは、会話をしながら個人情報を収集し、会話に反映する、学習型対話形式の人工知能システムである。例えば、電子メールをテキストマイニング(形態素解析)処理を実行して、個々の言葉を音相辞書で音相解析し、文章から情緒を解析し、対話で対応することができる。   The text-based artificial intelligence dialogue engine is a learning-type dialogue-type artificial intelligence system that collects personal information while reflecting and reflects it in the conversation. For example, it is possible to execute text mining (morpheme analysis) processing on an e-mail, analyze the timbre of individual words with a lexicon, analyze emotions from sentences, and respond by dialogue.

ここで、音相辞書は、所定の言語表現を構成する音声表現をその基本的な構成要素の一つである子音と母音の一方又は双方の組合わせによって表現される発音最小単位に分解し、言語表現を統計的手法によって分析することで得られる発音最小単位の有する1つまたは複数のイメージを音相理論に基づき数値化するイメージ評価に用いる辞書を用いることができる。   Here, the phonetic dictionary decomposes the speech expression that constitutes a predetermined language expression into the minimum pronunciation units expressed by one or both of consonants and vowels that are one of its basic components, It is possible to use a dictionary used for image evaluation in which one or a plurality of images having a minimum pronunciation unit obtained by analyzing a linguistic expression by a statistical method is quantified based on a tone theory.

また、ユーザ自身の日々の行動や、人工知能対話エンジンからの質問への返答、アクセスしているウェブの傾向などを収集し、生体理論を利用する色辞書によりユーザの性格を分類し、会話の対応を変化させるシステム(例えば、マインドカラー分析システム)を提供することもできる。   It also collects the user's own daily actions, answers to questions from the artificial intelligence dialogue engine, the tendency of the web being accessed, etc., classifies the user's personality with a color dictionary that uses biological theory, It is also possible to provide a system for changing the correspondence (for example, a mind color analysis system).

さらに、音相解析とマインドカラ分析を系統立てて、基本意味ネットワークを構築することもでき、各種サービスや製品を提供する顧客のプラットホームへ個別対応する人体カラーの数値評価システムを応用する製品を提供することができる。   In addition, we can systematize sound analysis and mindkara analysis to build a basic semantic network, and provide products that apply the human body color numerical evaluation system individually to the customer's platform that provides various services and products can do.

例えば、人体カラーの数値評価システムを携帯電話、携帯情報端末(PDA)、デジタル家電などに搭載し、これら製品を使用するユーザの感情を汲み取ることで的確又は個別対応の会話を提供し、多様なユーザ感情を満足させることができる。   For example, the human body color numerical evaluation system is installed in mobile phones, personal digital assistants (PDAs), digital home appliances, etc., and by providing the user's feelings using these products, accurate or individualized conversations can be provided. User emotions can be satisfied.

人体カラーの数値評価システムを実装した製品のターゲットユーザ層に合致する特化意味ネットワークをコンピュータサーバに構築することもでき、また製品のプラットホームに合わせた会話プログラムのカスタマイズを実施することもできる。要は、各プラットホームの企画に合致する特化プログラムを容易に提供することができる。   A specialized semantic network that matches the target user group of a product that implements a human body color numerical evaluation system can be constructed on a computer server, and a conversation program can be customized to suit the product platform. In short, it is possible to easily provide specialized programs that match the planning of each platform.

本実施例の生体理論を用いた人工知能対話を例示すると、「戦ってかつはたやすく勝ちを守るは難し」と入力された場合、文章から言葉を自動的に切出す。例えば、単語辞書を用いて文章から言葉を抽出し、各言葉に色を決定することができる。   When the artificial intelligence dialogue using the biological theory of the present embodiment is illustrated, when “battle and it is easy to protect the victory” is input, a word is automatically cut out from the sentence. For example, words can be extracted from sentences using a word dictionary, and the color of each word can be determined.

入力された文章は、単語毎に括弧で括った色に該当する。例えば、「戦って(赤)かつ(赤)はたやすく(白)勝ち(赤白)を守る(緑)は難し(藍)」と対応付けされ、各色を数値演算してスタティクカラーとダイナミックカラーを決定することができる。   The input sentence corresponds to the color enclosed in parentheses for each word. For example, `` Battle (red) and (red) is easy (white) and wins (red and white) protects (green) is difficult (indigo) ''. The color can be determined.

同様に、「小事にかかわって大事を忘れるなという文章を入力すると、「小事(青)にかかわって(緑)大事(藍)を忘れるな(白)」と各言葉に色が決定される。   Similarly, if you enter a sentence that says “Do not forget important matters, do n’t forget important matters (blue)”, “Don't forget important matters (green), do n’t forget important matters (indigo)” (white), the color will be determined for each word.

また、生体理論を用いた人工知能対話では、人工知能の出力部から「今あなたは○○○な服がラツキです。」と表示させて、ユーザの体内エネルギー状態に合致した色又は色を想起させる柄の服をすすめる事ができる。   Also, in artificial intelligence dialogues using biological theory, the output part of artificial intelligence displays “Now, you ’re wearing clothes,” and recalls a color or color that matches the user's internal energy state. You can recommend clothes with the pattern you want.

この場合、生体理論は、人体のスタティクカラーに基づき基本的な体質に合致する「○○○」部の色を決定し対応語を選択している。なお、「○○○」部を除く文章は定型文であり出力辞書に記憶されている。   In this case, the biological theory determines the color of the “XXX” part that matches the basic constitution based on the static color of the human body and selects the corresponding word. Sentences excluding the “XXX” part are standard sentences and are stored in the output dictionary.

さらに、ユーザから「今夜は(○○○な気分だから)○○○したいね。」という言葉が入力された場合は、生体理論を機能させて「今夜」から時間帯の色を解析し、「○○○」から行動の色を解析し、「したいね」から欲求の色を決定し、スタティクカラーとダイナミックカラーとを演算処理してから現時点のユーザの色を決定することができる。   In addition, if the user inputs the word “I want to do XXX this evening (because I feel like XXX)”, the biological theory is activated and the color of the time zone is analyzed from “Tonight”. The color of the action can be analyzed from “XX”, the color of desire can be determined from “I want to do”, the static color and the dynamic color can be calculated, and the current user color can be determined.

勿論、定型文を辞書へ追加するほど、人工知能対話のバリエーションが増加し、ユーザの欲求をさらに満足させることができる。   Of course, as the fixed sentence is added to the dictionary, the variation of the artificial intelligence dialogue increases, and the user's desire can be further satisfied.

人体カラーの数値評価システムを実装した製品の特化意味ネットワークは、マーケット別、ターゲットユーザ別、サービスモデル別、プラットホーム別に、意味ネットワークをカスタマイズしてコンピュータサーバに構築し、特化意味ネットワークの情報をコンピュータサーバ上のサービスモデルで解析する。   Specialized semantic networks for products that implement a human body color numerical evaluation system are built on computer servers by customizing semantic networks by market, by target user, by service model, and by platform. Analyze with service model on computer server.

サービスモデルは、ナビゲーションモデルと、エンターテイメントモデルと、セルフミラーリングモデルをコンピュータサーバ上に備え、ナビゲーションモデルが、情報の検索機能やユーザと情報のマッチング機能を発揮する。   The service model includes a navigation model, an entertainment model, and a self-mirroring model on a computer server, and the navigation model exhibits an information search function and a user-information matching function.

エンターテイメントモデルは、アミューズメント製品でゲームへの応用例としてバーチャルペットの性格や、キャラクターパラメータ(例えば、攻撃的か防御的かを定める)や、育成キャラクタや、話し相手などを仮想することができる。   The entertainment model can virtualize the personality of a virtual pet, character parameters (for example, whether to be aggressive or defensive), a breeding character, a talking partner, etc., as an application example to an amusement product.

セルフミラーリングモデルは、今まで気づかなかった自分(ユーザ)の性格、感情、嗜好が確認することができ、新たに発見した自分自身の性格、感情、嗜好に合致する育成キャラクタや、話し相手や、秘書などを推測することもできる。   The self-mirroring model can confirm the personality, feelings, and preferences of herself (users) that she had not noticed before, and her newly discovered personality, emotions, and preferences that matched her personality, emotions, and preferences, talking partner, and secretary You can also guess.

本発明の実施の形態では、ナビゲーションモデルと、エンターテイメントモデルと、セルフミラーリングモデルの解析結果が重畳する育成キャラクタ、話し相手、秘書の各情報を手がかりにユーザ嗜好の品物やサービスを推測し、プラットホームへフィードバックすることができる。   In the embodiment of the present invention, the user-preferred goods and services are estimated based on the information of the breeding character, the conversation partner, and the secretary on which the analysis results of the navigation model, the entertainment model, and the self-mirroring model are superimposed, and fed back to the platform. can do.

プラットホームは、各種製品を含み、パーソナルコンピュータ、携帯情報端末(PDA)、携帯電話、携帯ゲーム機、カーナビゲーションシステム、次世代情報端末、及び次世代家電製品が該当する。本実施例によりユーザの性格、感情、嗜好が確認することができるので、例えば、次世代家電製品ネットワーク用のオペレーションシステムの基本思想を提案(又は出力)することができる。   The platform includes various products, and includes personal computers, personal digital assistants (PDAs), mobile phones, portable game machines, car navigation systems, next generation information terminals, and next generation home appliances. Since the user's personality, emotion, and preference can be confirmed according to the present embodiment, for example, the basic concept of an operation system for a next-generation home appliance network can be proposed (or output).

サービスモデルは、コンピュータサーバの編集部の機能により、テキストや画像情報の加工作業により提供情報をサービスモデルのコンピュータサーバへ発信する。   The service model transmits provided information to the computer server of the service model by processing text and image information by the function of the editing unit of the computer server.

サービスモデルは、ユーザの嗜好を色辞書を通して汲み取りながら、人体カラーの評価システム付きの製品を改良し、マーケットに対してあらゆるデジタル環境へ提供する手段を対象とする。   The service model is a means for improving a product with a human body color evaluation system while drawing the user's preference through a color dictionary and providing it to any digital environment for the market.

カラーチャートから色情報を決定するフローでは、人体カラーの数値評価システムに用いる色辞書が1番から127番までのカラーコードを備えるカラーチャートの中から色情報を出力するように構成している。   In the flow for determining the color information from the color chart, the color dictionary used in the human body color numerical evaluation system is configured to output the color information from among the color charts having the 1st to 127th color codes.

カラーチャートは、コンピュータテーブルの中心にカラーコード64番の白色を配置し、テーブルの後方にカラーコード101番の赤色を配置し、テーブルの前方にカラーコード10番の青色を配置し、テーブルの前方と中心の間にカラーコード58番の緑色を配置する手段を対象とする。   The color chart has a white color code 64 at the center of the computer table, a red color code 101 at the back of the table, a blue color code 10 at the front of the table, and the front of the table. And a means for arranging a green color code 58 between the center and the center.

青色のカラーコード10番の6辺に隣接する2番、3番、9番、11番、18番、19番を含む青グループには、青グループに属する8色のカラーコードが配置され、赤色のカラーコード101番の6辺に隣接する90番、91番、100番、102番、110番、111番を含む赤グループには、赤グループに属する9色のカラーコードが配置されている。   In the blue group including 2nd, 3rd, 9th, 11th, 18th and 19th adjacent to 6 sides of the blue color code 10, 8 color codes belonging to the blue group are arranged and red In the red group including the 90th, 91st, 100th, 102nd, 110th, and 111th adjacent to the six sides of the color code 101, nine color codes belonging to the red group are arranged.

同様に、緑色のカラーコード58番の3辺に隣接する46番、59番、71番を含む緑グループには、緑グループに属する10色のカラーコードが配置され、白色のカラーコード64番の6辺に隣接する白系統のカラーコードも8色から12色の範囲で配置されている。   Similarly, 10 color codes belonging to the green group are arranged in the green group including 46, 59, and 71 adjacent to the three sides of the green color code 58 and the white color code 64. White color codes adjacent to the six sides are also arranged in the range of 8 to 12 colors.

また、カラーチャートは、赤色から紫色まで識別できるカラーコードを有し、人体の動作と物、人体と性質から言葉の色を特定することができる。例えば、「言う」という言葉と、「与える」という言葉から黄色の色情報を出力するように構成する。なお、音相辞書でも同一の色情報を出力する場合もある。   In addition, the color chart has a color code that can be identified from red to purple, and can specify the color of words based on the movement and object of the human body and the human body and nature. For example, yellow color information is output from the words “say” and “giving”. Note that the same color information may be output even in the sound dictionary.

カラーチャートは、人体の動作と物や人との関係から色を特定することもできる。例えば、物や人に始動を吹き込むような赤色で動作や人を励ます激しい色を出力し、創造性を惹起するオレンジ色で動作を継続、忍耐の色を出力し、快楽を与える放射させる黄色で人に言う(伝達)ような色を出力するように構成することができる。   The color chart can also specify the color from the relationship between the movement of the human body and the object or person. For example, a person who is a yellow person who emits irritating colors, outputs a vigorous color that encourages people and encourages people and things, and continues to work with an orange color that provokes creativity, outputs a patience color, and gives pleasure. It can be configured to output a color as described in (transmission).

同様に、物や人とのバランスから、人に重点させるような緑色で人に合う、集うような色を出力し、人に奉仕する、守るような青色で人を介護、優しい色を出力することができる。   Similarly, from a balance with things and people, output a color that suits and gathers in a green color that emphasizes the person, care for the person in a blue color that serves and protects the person, and outputs a gentle color be able to.

さらに、カラーチャートは、人間の口や耳などの感触にかかわる動作を刺激する色情報を出力することもできる。例えば、人から一方的でない関係が生じる場合に第三者の発言を聞くような緑色を出力し、発言が一方的ではないが黄色ほど第三者に影響を及ぼさない青色を出力し、人への影響が強い黄色で言うという動作を促す色を出力する。   Furthermore, the color chart can also output color information that stimulates movements related to the touch of the human mouth and ears. For example, when a non-universal relationship arises from a person, a green color is heard to hear a third party's remarks, and a blue color that is less unilateral but does not affect the third person as much as yellow is output. Outputs a color that encourages the action of saying yellow with strong influence.

色辞書処理は、カラーチャートの中から最終的に8から12色のグループに言葉を分類する分類処理と、ユーザの嗜好(色情報)を反映して言葉辞書を更新する言葉更新処理と、人工知能対話エンジンに色情報を渡す色情報転送処理と、人工知能対話エンジンから対話を出力する対話出力処理をコンピュータ上で実行し、メインルーチンへ復帰するシステムを対象とする。   Color dictionary processing includes classification processing for finally classifying words into groups of 8 to 12 colors from the color chart, word update processing for updating the word dictionary to reflect user preferences (color information), and artificial processing A system that executes color information transfer processing for passing color information to the intelligent dialogue engine and dialogue output processing for outputting dialogue from the artificial intelligence dialogue engine on a computer and returns to the main routine is targeted.

文章中の言葉と言葉との対応関係は、テキスト中に「あからさま」という言葉と「介護する」という言葉が含まれている場合に、色辞書から赤色と青色を抽出し、ユーザの興奮状態、肉体的、競争的、指揮者、勝利者、物事を成し遂げる勇気、意志力、性的、活気に満ちている、事業家などのカテゴリのパラメータを調整することができる。 Correspondence between words in the sentence is determined by extracting red and blue colors from the color dictionary when the text contains the words “overhead” and “care”. You can adjust the parameters of categories such as physical, competitive, conductor, winner, courage to accomplish things, willpower, sexuality, vibrant, and entrepreneurs.

色辞書は、色番号のカラーコードとテキスト文章の言葉とのコードマッチング処理を実行し、赤色に属する単語や定型文を出力することができ、第1の色情報の赤色と第2の色情報の青色基づき、色相演算結果部へ緑色の色情報を出力する。   The color dictionary executes code matching processing between the color code of the color number and the words of the text sentence, and can output a word or a fixed sentence belonging to red, and the red color of the first color information and the second color information Based on the blue color, green color information is output to the hue calculation result part.

色対応関係は、第1の色情報が赤色の場合、第2の色情報が赤では赤を、黄色ではオレンジ色、緑色では黄色、青色では緑色、藍色では藍色、紫色では紫色を出力する。   When the first color information is red, the second color information is red for red, yellow for orange, green for yellow, blue for green, indigo for blue, indigo for purple, and purple for purple To do.

同様に、第1の色情報のオレンジ色と第2の色情報の黄色に基づき、オレンジ色の色情報を出力し、緑色では黄色、青色では緑色、藍色では藍色、紫色では赤紫色を出力する。   Similarly, based on the orange color of the first color information and the yellow color of the second color information, the orange color information is output. The green color is yellow, the blue color is green, the indigo color is indigo color, and the purple color is magenta. Output.

同様に、第1の色情報の黄色と第2の色情報の黄色に基づき、黄色の色情報を出力し、緑色では黄色、青色では深緑色、藍色では青色、紫色では赤紫色を出力する。   Similarly, yellow color information is output based on yellow of the first color information and yellow of the second color information, and yellow is output in green, dark green in blue, blue in indigo, and red purple in purple. .

同様に、第1の色情報の緑色と第2の色情報の緑色に基づき、緑色、青色では深緑色、藍色では藍色、紫色では青紫色を出力する。   Similarly, on the basis of the green color of the first color information and the green color of the second color information, the green and blue colors are dark green, the indigo color is indigo color, and the purple color is bluish purple.

同様に、第1の色情報の青色と第2の色情報の青色に基づき、青色、藍色では藍色、紫色では青紫色を出力し、第1の色情報の藍色と第2の色情報の紫色に基づき、紫色を出力し、第1の色情報の紫色と第2の色情報の紫色に基づき、紫色を出力する。   Similarly, on the basis of the blue color of the first color information and the blue color of the second color information, blue, indigo color is indigo, and purple is bluish purple, and the first color information is indigo color and second color. Purple color is output based on the purple color of the information, and purple color is output based on the purple color of the first color information and the purple color of the second color information.

また、ネガティブな人間の衝動や行動が自分とその周辺に悪影響を及ぼす言葉は、色辞書の黒からグレー色に該当し、苦しい(グレー)、殺す(黒)、欲(グレー)、忘れる(グレー)、放漫(グレー)などが存在し、人間の煩悩はグレーに該当する心理状態として処理する。   In addition, words that negative human impulses and actions negatively affect you and its surroundings fall from black to gray in the color dictionary and are painful (gray), kill (black), greedy (gray), forget (gray) ), Nuisance (gray), etc., and human trouble is treated as a psychological state corresponding to gray.

いろと音に関し、視角、聴覚、臭覚、触覚及び味覚を含む五感の情報によるユーザ心理状態を例えば、音声であれば、周波数帯を色の波長に割り振り、数値化して感情解析をする装置を例えば、黄色い声と分類されたら陽気だが、周波数が陽気過ぎる場合は気分が高揚し過ぎて興奮状態であると解析でき、この様な解決方法を提供できる装置をにも適用できる。   For example, a device that performs emotion analysis by assigning a frequency band to a wavelength of color and quantifying it, for example, if it is speech, the user psychological state based on five senses information including visual angle, auditory sense, smell, touch and taste If it is classified as a yellow voice, it is cheerful, but if the frequency is too cheerful, it can be analyzed that the mood is too high and excited, and it can be applied to a device that can provide such a solution.

一方、ポジティブな人間の行動のスムーズさや、自然の美しさを示す言葉は、たやすい、素早い、夜明け、光、魅力、神などは白色を示す傾向がある。また、朝(白色)から深夜3時(紫色)まで、色分類は変動し、何時一番働くかにより、色分けが連動する。   On the other hand, words that indicate the smoothness of positive human behavior and the beauty of nature tend to be easy, quick, dawn, light, charm, and god are white. Also, the color classification varies from morning (white) to 3:00 (midnight) at night, and the color classification is linked depending on when it works most.

もし、ユーザがデザイナーである場合は、深夜から明け方までの活動が紫白の色情報が色辞書から出力される場合がある。例えば、色辞書は、言葉から「戦って」を赤色、「赤はた易く」を白色、「勝ち」を赤白、「守」を緑、「緑」を難しい藍色に色分けする。   If the user is a designer, purple / white color information for activities from midnight to dawn may be output from the color dictionary. For example, the color dictionary color-codes “battle” in red, “red is easy” in white, “win” in red and white, “defense” in green, and “green” in difficult indigo.

さらに、小さな事を青色、青色にかかわって緑色を大事の色としての藍色、藍色を忘れるなという白色、諺を色に分類して色言葉セラピを構成することもできる。   It is also possible to construct a color word therapy by classifying small things into blue, blue and indigo with green as an important color, white not to forget indigo, and buds into colors.

以下の実施の形態では、現時点のダイナミックカラーに対応して他の要素を参照することができる。例えば、曜日に関連して月曜日が白色、火曜日が赤色、水曜日が紫色、木曜日が水色、金曜日が緑色、土曜日が白色、日曜日が黄色の色情報を色辞書から出力することができる。   In the following embodiments, other elements can be referred to corresponding to the current dynamic color. For example, color information relating to the day of the week can be output from the color dictionary, Monday is white, Tuesday is red, Wednesday is purple, Thursday is light blue, Friday is green, Saturday is white, and Sunday is yellow.

なお、意味の薄い漢字や意味からイメージが捕らえ難い言葉は、音相表から複数の色イメージを抽出し色を決定することもできるが、R色コードが238、G色コードが232、B色コードが117の複数の色コードから黄色を決定することもできる。   For words that are difficult to capture from meaningless kanji and meaning, it is possible to extract multiple color images from the sound table and determine the color, but the R color code is 238, G color code is 232, B color It is also possible to determine yellow from a plurality of color codes whose code is 117.

また、季節に適用した言葉も参照することもできる。例えば、春はパステルカラーとしての白色混じりの色情報を出力し、夏は青色でクール感覚を色情報を出力し、秋は暖色の色情報を出力し、冬は白色若しくは暖色の色情報を出力するように色辞書を構成することができ、コンピュータ上で実行する人体カラーの数値評価システムは、入力部から「激しい」言葉又は行動を入力処理し、次ページのカラーチャートを基本にカラーチャート番号を決定する。   You can also refer to words applied to the season. For example, in the spring, color information with a mixture of white as a pastel color is output, in summer, the color information is output with a cool sensation, in the autumn, warm color information is output, in winter, white or warm color information is output The human body color numerical evaluation system that can be configured on the computer and that runs on the computer inputs “violent” words or actions from the input unit, and the color chart number based on the color chart on the next page To decide.

また、カラーチャート番号で指定する色をRGB情報のパラメータに分解して色辞書へ入力する。色辞書はRGB情報に基づき色情報を言葉辞書へ出力する。RGB情報に基づき言葉辞書をグループ化し、言葉辞書に対応する人体の身体面、感情面、職業などのパターンを推定処理することができる。   The color specified by the color chart number is decomposed into RGB information parameters and input to the color dictionary. The color dictionary outputs color information to the word dictionary based on the RGB information. A word dictionary can be grouped on the basis of RGB information, and patterns of the human body, emotion, and occupation corresponding to the word dictionary can be estimated.

言葉辞書からユーザの選ぶ色、ユーザの使う色又は色の組合せでユーザの基本カラー(スタティクカラー)を元に解析処理をする。RGB言葉辞書のパターンに対応させたコメントをコメント辞書から取出し定型パターンの要素テキストのブランクへ挿入処理をする。   Analysis is performed based on the user's basic color (static color) using the color selected by the user from the word dictionary, the color used by the user, or a combination of colors. A comment corresponding to the pattern of the RGB word dictionary is extracted from the comment dictionary and inserted into the blank of the element text of the fixed pattern.

さらに、人体カラーの数値評価システムは、出力部を通してコメント付きの要素テキストを出力する。コメント付き要素テキストは、テキスト表示、ボイス表示、ミュージック表示、及びキャラクタ表示などの色を主張する言葉を返答し、言葉の性格から色を特定し、特定された色に対応する色系統のコメントを返答するという評価システムを提供することができる。   Further, the human body color numerical evaluation system outputs an element text with a comment through an output unit. Element text with comments responds to words that claim color, such as text display, voice display, music display, and character display, specifies the color from the character of the word, and comments in the color system corresponding to the specified color An evaluation system for responding can be provided.

言葉評価システムは、例えば、言葉がキーボード入力を通して言葉入力処理され、色辞書により言葉に色付処理をする。   In the word evaluation system, for example, words are input through a keyboard input, and the words are colored by a color dictionary.

色付処理で選択した色情報を言葉辞書へ送信し、予め言葉辞書に登録した各色情報に対応する文章を色付処理へ返信する。例えば、色情報に対応する機嫌がよい文章や魅力的な文章を色付処理へ返信する。   The color information selected in the coloring process is transmitted to the word dictionary, and a sentence corresponding to each color information registered in the word dictionary in advance is returned to the coloring process. For example, a pleasant or attractive sentence corresponding to the color information is returned to the coloring process.

また、言葉辞書は、色付け処理から送信された色情報を数値演算部に転送する。数値演算部は、例えば、黄色の色情報(101002)にオレンジ色の色情報(100301)を加算し、色情報の数(2個)で除算し回答の色情報をデータベースで構成する出力辞書へ出力する。   Further, the word dictionary transfers the color information transmitted from the coloring process to the numerical calculation unit. For example, the numerical value calculation unit adds the orange color information (100301) to the yellow color information (101002), divides it by the number of color information (two), and outputs the color information of the answer to the output dictionary configured in the database. Output.

色付け処理から移行した文章色付つけ処理は、文章に含まれる重要ワード(言葉)に重み付けを施す。処理は、対応語選択処理に移行し、この重み付けされた文章に対応する文書の色情報を出力辞書へ転送する。   In the sentence coloring process shifted from the coloring process, the important words (words) included in the sentence are weighted. The processing shifts to the corresponding word selection processing, and the color information of the document corresponding to the weighted sentence is transferred to the output dictionary.

文章パターン単語埋め込み処理は、出力辞書に接続され、重み付けされた色の文章と、数値演算された言葉の色情報に基づいて、定型文章パターンのブランク領域に色情報に対応する言葉を埋め込み、完成した文章をテキスト又は音声などで表示する表示処理を実行する。   Sentence pattern word embedding processing is connected to the output dictionary, and based on weighted color sentences and numerically calculated word color information, words corresponding to color information are embedded in the blank area of the fixed sentence pattern and completed A display process for displaying the sentence as text or voice is executed.

言葉評価システムは、言葉を生体理論を用いた色辞書で色分類し、人体の体内エネルギー状態を判定し、この体内エネルギー状態に対応(気が利く/励ます/落ち着かせる)する対応語を文章化して表示処理を遂行する。すなわち、体内エネルギー状態に対応する感情や心理状態を数値化して解析結果を出力するシステムを対象とする。   The word evaluation system classifies words using a color dictionary that uses biological theory, determines the body energy state of the human body, and documents corresponding words that correspond to the body energy state (attentive / encourage / calm). Display processing. That is, it is intended for a system that digitizes emotions and psychological states corresponding to body energy states and outputs analysis results.

コンピュータは、人体の体内エネルギー状態を色辞書で色別に整理し、ユーザの動作を動きのベクトルにより捉えることができる。例えば、白から赤までの色は、始動、活性に現れる状態を示し、オレンジ色は、持続に現れる状態をしめす。   The computer can organize the energy state of the human body according to color using a color dictionary, and can capture the user's actions from motion vectors. For example, a color from white to red indicates a state that appears in start-up and activity, and an orange color indicates a state that appears continuously.

同様に、黄色は、やわらかい、喜びや発散や与えに現れる状態を示し、緑色は、満足や他のものとの関係のバランスに現れる状態を示し、青色は、保守や停滞、学ぶ、守るやさしさの状態を示し、藍色は、教え、施す、整然な状態を示し、紫色は、固い、老人、及ぶ、活動が終わる状態を示す。   Similarly, yellow indicates a soft state that appears in joy, divergence, or giving, green indicates a state that appears in satisfaction or a balance of relationships with other things, and blue indicates a state of maintenance, stagnation, learning, or gentleness to protect. Indicates the state, indigo indicates an orderly state of teaching, applying, and purple indicates a hard, aged, and end of activity.

また、複数の言葉を含む文章では、例えば、言い(黄)含める(緑)が緑よりの黄色を示し、言い(黄)始める(白赤)がパステルグリーンを示し、言い(黄)争う(赤)がオレンジ色を示し、言い(黄)合う(緑)が黄緑を示し、言い(黄)放つ(黄色)が黄色を示し、言い(黄色)及ぶ(紫)が紫色を示す。   Also, in sentences containing multiple words, say (yellow) include (green) indicates yellow over green, say (yellow) start (white red) indicates pastel green, and say (yellow) contend (red) ) Indicates orange, saying (yellow) matches (green) indicates yellowish green, saying (yellow) releasing (yellow) indicates yellow, saying (yellow) and (purple) indicates purple.

同様に、言い(黄)終える(紫)が紫色を示し、デートという言葉は、わくわく(黄色)、人との関係(緑)を想起させ、黄緑を示し、恋と言う言葉は、愛の始動を意味し、喜びの白、赤、黄からパープルピンクを示す。   Similarly, the word (yellow) finishes (purple) indicates purple, the word dating is exciting (yellow), reminiscent of the relationship (green) with people, yellowish green, and the word love is love. It means starting, and white, red, yellow from joy to purple pink.

さらに、漢字の辺や作りの構成から色を決定することもできる。例えば、「食へん」は食欲を想起させ、オレンジ色を示す。「木へん」は植えるを想起させ、緑などを示し、人体カラーの数値評価システムに用いるオーラ可視化システムは、入力部からインターフェースを通して電気信号を受信し画像処理した映像を表示するディスプレイを備え、表示しているオーラの色情報をインターフェースから分岐させて人体カラーの数値評価システムの色情報入力部に転送させるシステムを対象とする。   In addition, the color can be determined from the side of the kanji and the composition of the creation. For example, “food food” recalls appetite and shows orange. “Tree hen” reminds of planting, shows green, etc. The aura visualization system used for the human body color numerical evaluation system is equipped with a display that receives the electrical signal from the input section through the interface and displays the image processed image. It is intended for a system that branches the color information of the aura that is being used from the interface and transfers it to the color information input unit of the human body color numerical evaluation system.

上述したオーラの色情報は、インターフェースから分岐させて受信するように構成したが、本発明の実施の形態では、この構成に限定されることはなく、例えば、入力部を人体カラーの数値評価システムに直接接続し、電気信号に変換させるシステムをも対象とする。   The aura color information described above is configured to be received after being branched from the interface. However, in the embodiment of the present invention, the configuration is not limited to this configuration. It is also intended for systems that are directly connected to and converted into electrical signals.

オーラ可視化システムは、入力部の表面に人物の手を載せて人物の生命データを測定することができる。人体のオーラチャクラ分析は以下の如く処理される。   The aura visualization system can measure a person's life data by placing the person's hand on the surface of the input unit. Human body aura chakra analysis is processed as follows.

オーラ可視化システムは、生体自己制御センサーによって人物の生命データを測定することができる。このデータは、特定の感情や気力の状態をリアルタイムで分析する。   The aura visualization system can measure the life data of a person using a living body self-control sensor. This data analyzes the state of specific emotions and energy in real time.

このオーラチャクラフォトおよびレポートは、ユーザに正確なバイオデータを多彩で視覚的なグラフ形式で表現することができる。このバイオデータは教育やエンターテイメントに利用するように構成することもでき、人体の体内エネルギー状態の客観的な判断資料に用いることもできる。   This aura chakra photo and report can express accurate bio data to the user in various visual graph formats. This biodata can be configured to be used for education and entertainment, and can also be used as an objective judgment material for the in-vivo energy state of the human body.

人物の手は、小指を電極と略縦方向に並ぶ2つの電極へ、薬指を電極と略縦方向に並ぶ3つの電極へ、中指を電極と略縦方向に並ぶ3つの電極へ、人差し指を電極と略縦方向に並ぶ3つの電極へ、親指を入力部の右側面に設けられた電極と略縦方向に並ぶ2つの電極へ接触させて、体内の五臓六腑の状態を示す信号をインターフェースへ送信する。   The person's hand has two fingers arranged in the vertical direction with the little finger, the three fingers arranged in the vertical direction with the ring finger, the middle finger in the three electrodes arranged in the vertical direction with the electrode, and the index finger in the electrode A signal indicating the state of the internal organs of the internal organs is transmitted to the interface by bringing the thumb into contact with the electrodes provided on the right side of the input unit and the two electrodes arranged in the vertical direction to the three electrodes arranged in the vertical direction. To do.

ディスプレイに表示されているオーラカラーは、人体の心理状態、感情状態、性格、特徴および特性を反映させることができる。   The aura color displayed on the display can reflect the psychological state, emotional state, personality, characteristics and characteristics of the human body.

濃い赤色は、物埋的、勤勉、力、現実的、活気がある、落着きがある、強さ、スタミナの活性度を示す。   Dark red indicates physical, hard work, power, realistic, lively, calm, strength, stamina activity.

赤色は、刺激、物理的、精力的、競争心の強さ、勝利的、自制心、性的な力、企業家の活性度を示し、オレンジ色は、生産的、物理的そして創造的な表現、冒険者、ビジネス、楽しみの活性度を示す。   Red indicates stimulation, physical, energetic, competitiveness, victory, self-control, sexual power, entrepreneurial activity, orange indicates productive, physical and creative expression, Shows activity of adventurers, business and fun.

濃い黄色は、分析的、知競人、志向性の詳細、論理的、構造を持つ、科学的の活性度を示す。黄色は、遊び好き、明るい、おおらか、創造的、知的、愉快、好奇心の強い、活発的の活性度を示す。緑色は、社交的、自然、気楽、調和、教師、話好き、理解が速いことの活性度を示す。   Dark yellow indicates scientific activity with analytical, intellectual, intentional detail, logical, and structured. Yellow indicates playful, cheerful, broad, creative, intellectual, pleasant, curious, and active. Green indicates the activity of social, nature, comfort, harmony, teacher, fondness and quick understanding.

獲い緑色は、理解が速い、ゴール指向である、杜交的、官能的、話好き、まとめ役の活性度を示す。青色は親切、敏感、愛情に満ちている、手助けする、忠実、平和、サービス心、養育の活性度を示す。   Catch green indicates fast understanding, goal-oriented, humorous, sensual, talk-loving, and the activity of the organizer. Blue color is kind, sensitive, loving, helping, faithful, peaceful, service minded, upbringing.

藍色は、明瞭、平静、深い感情のこもった、愛情に満ちている、忠実、精神的価値観、芸術的の活性度を示す。すみれ色は、直感的、芸術的、官能的、理論派、先進的、夢想的、カリスマ的、革新的の活性度を示す。   The indigo color is clear, calm, deeply emotional, loving, faithful, spiritual values, and artistic activity. Violet colors indicate intuitive, artistic, sensual, theoretical, advanced, dreamy, charismatic and innovative activities.

薄紫色は、想健的、神秘的、幻想的、スフト、敏感、時々ボーットしているの活性度を示す。白色は、並外れている、彩質転換、想健的、平穏、より高い次元、霊感の強いことの活性度を示す。   Light purple indicates activity of mediocre, mysterious, fantastic, sufted, sensitive, sometimes voting. White indicates extraordinary, transchromic, mediocre, peaceful, higher dimension, inspiring activity.

ディスプレイのオーラ全体像を拡大表示した映像では、上述したオーラ可視化システムが人物の手から五臓六腑のエネルギー状態をカラー表示したが、オーラ全体像では不図示の撮像装置を用いて人物の上半身から放射されるオーラをカラー表示し、オーラの強さや人物のカラーを決定している。このオーラの大きさは人物とオーラ境界との距離で判断することができる。   In the enlarged image of the entire aura image on the display, the aura visualization system described above displayed the energy status of the six viscera and six limbs from the person's hand in color, but the entire aura image radiates from the upper body of the person using an imaging device not shown. The aura is displayed in color, and the strength of the aura and the color of the person are determined. The size of the aura can be determined by the distance between the person and the aura boundary.

オーラ全体像のオーラは、ディスプレイに表示されているオーラカラースペクトルのレベルゲージの矢印が示すオレンジ色であるスペクトルバーには下から白、青、緑、黄、オレンジ、赤の6色を順番にカラー表示している。   The aura of the entire aura image is displayed in the order of 6 colors of white, blue, green, yellow, orange, red from the bottom in the spectrum bar which is orange indicated by the arrow of the level gauge of the aura color spectrum displayed on the display. Color display.

また、スペクトルバーは、上述した6色は勿論、各色間の中間色も表示し、人物の状態を表示している。人物は事象に対応して感情を変化させているので、オーラカラースペクトルのレベルゲージも感情の変化に応動して上下に移動する。   In addition, the spectrum bar displays not only the above-described six colors but also intermediate colors between the colors, and displays the state of the person. Since the person changes the emotion in response to the event, the level gauge of the aura color spectrum moves up and down in response to the change in the emotion.

リアルタイムモニタは、棒グラフで表示し、現在の色がオーラカラースペクトルに対応させてオレンジに変化している。棒グラフの高さは、オーラ境界やオーラパワーに比例して上下に変化する。図示した棒グラフはレベル「80」を少し超えた高さである。   The real-time monitor displays a bar graph, and the current color changes to orange corresponding to the aura color spectrum. The height of the bar graph changes up and down in proportion to the aura boundary and the aura power. The illustrated bar graph has a height slightly exceeding level “80”.

ディスプレイは、上段に位置する7個の棒グラフへ人物の少なくとも5臓器に対応するオーラパワーを色と大きさで表示している。上述した6色のオーラカラーの活性度を視覚的に表現している。   The display displays the aura power corresponding to at least 5 organs of a person in color and size on the seven bar graphs located in the upper stage. The activity of the six aura colors described above is visually represented.

左端の棒グラフは赤をレベル「100」で表示し刺激の活性度が高く、右隣の棒グラフは赤をレベル「100」より低く表示し刺激の活性度が低い、さらに右隣の棒グラフは黄をレベル「100」で表示し遊び好きの活性度が高い、さらに右隣の棒グラフは緑をレベル「100」で表示し社交的の活性度が高いことを表示している。   The leftmost bar graph displays red at level “100” and the stimulus activity is high, the right bar graph displays red below the level “100” and the stimulus activity is low, and the right bar graph displays yellow. The level “100” indicates that the activity level of playfulness is high, and the bar graph adjacent to the right indicates that the level of “100” is green, indicating that the social activity level is high.

同様に、棒グラフの右隣の棒グラフは青をレベル「100」で表示し親切の活性度が高い、さらに右隣の棒グラフは青をレベル「100」で表示し親切、敏感の活性度が高い、さらに右隣の棒グラフも青をレベル「100」で表示し親切、敏感の活性度が高い、さらに右隣の棒グラフは青をレベル「100」より低く表示し親切、敏感の活性度が少し低いことを各々表示している。   Similarly, the bar graph to the right of the bar graph displays blue at level “100” and has a high level of kindness, and the bar graph to the right displays blue at level “100” and has a high level of kindness and sensitivity. In addition, the bar graph on the right also displays blue at level “100”, and the activity of kindness and sensitivity is high, and the bar graph on the right side displays blue below level “100”, and the activity of kindness and sensitivity is slightly low. Is displayed.

次に、図面を参照して、本発明の第1〜第13の実施の形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。   Next, first to thirteenth embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

また、以下に示す第1〜第13の実施の形態は、この発明の技術的思想を具体化するための装置や方法を例示するものであって、この発明の技術的思想は、構成部品の材質、形状、構造、配置等を下記のものに特定するものでない。この発明の技術的思想は、特許請求の範囲において、種々の変更を加えることができる。   Further, the following first to thirteenth embodiments exemplify apparatuses and methods for embodying the technical idea of the present invention, and the technical idea of the present invention is the component parts. The material, shape, structure, arrangement, etc. are not specified below. The technical idea of the present invention can be variously modified within the scope of the claims.

(第1の実施の形態)
本発明の第1の実施の形態に係る感情データ提供装置は、図1に示すように、ユーザの問い合わせ情報に対するオペレータの回答情報を入力するオペレータ端末3と、第1の回線4aを通してユーザ端末2からユーザの問い合わせ情報を受信し、第2の回線4bを通してオペレータ端末3からオペレータの回答情報を受信し、ユーザ及びオペレータの心理状態を数値化して解析する心理解析装置1と、を備える。
(First embodiment)
As shown in FIG. 1, the emotion data providing apparatus according to the first embodiment of the present invention includes an operator terminal 3 for inputting operator answer information for user inquiry information, and a user terminal 2 through a first line 4a. A psychological analysis device 1 for receiving user inquiry information from the operator, receiving operator reply information from the operator terminal 3 through the second line 4b, and digitizing and analyzing the psychological state of the user and the operator.

第1の回線4aは、ユーザーデータ5を心理解析装置1へ伝送する。伝送されるユーザデータは、時間軸に並んだ数値データとして例示しているが、本発明はアナログ回線もデジタル回線も対応することができ、コーディングされた数値をグラフ7で表示することができる。   The first line 4 a transmits user data 5 to the psychological analysis device 1. The user data to be transmitted is exemplified as numerical data arranged on the time axis. However, the present invention can correspond to both an analog line and a digital line, and the coded numerical value can be displayed on the graph 7.

第2の回線4bは、オペレータデータ6を心理解析装置1へ伝送する。伝送されるオペレータデータは、時間軸に並んだ数値データとして例示しているが、本発明はアナログ回線もデジタル回線も対応することができ、コーディングされた数値をグラフ8で表示することができる。   The second line 4 b transmits the operator data 6 to the psychological analysis device 1. The transmitted operator data is exemplified as numerical data arranged on the time axis. However, the present invention can correspond to both an analog line and a digital line, and the coded numerical value can be displayed in the graph 8.

心理解析装置1は、心理マーク9を生成しオペレータ端末3へ表示させることができる。心理マーク9は、1番のひょうきんマーク、2番のさわやかマーク、3番の平静マーク、4番の構えているマーク、5番の激怒マークを含むニコタマ君シリーズの中から心理解析結果に基づき選択される。   The psychological analysis device 1 can generate a psychological mark 9 and display it on the operator terminal 3. Psychological mark 9 is selected based on psychological analysis results from Nikotama-kun series including No. 1 Hyokin mark, No. 2 refreshing mark, No. 3 serenity mark, No. 4 holding mark, No. 5 rage mark Is done.

すなわち、心理解析装置1が生成する感情解析データは、電話ユーザ及びオペレータの喜び、怒り、悲しみ、落胆、及び興奮を含む感情を図形表示させることができる。   That is, the emotion analysis data generated by the psychological analysis device 1 can graphically display emotions including joy, anger, sadness, discouragement, and excitement of the telephone user and the operator.

オペレータデータ6又はグラフ8は、オペレータのメンタルケア10に使用することもできるが、本発明はメンタルケアに限定するものではない。   The operator data 6 or the graph 8 can also be used for the operator's mental care 10, but the present invention is not limited to mental care.

心理解析装置1の原理は、声紋コンピュータによる心理解析に基づいて実施することができる。図示した心理解析装置1は、ワークステーション、パーソナルコンピュータを用いることもでき、オペレータ端末3に心理解析エンジンを搭載しても良い。   The principle of the psychological analysis device 1 can be implemented based on psychological analysis by a voiceprint computer. The illustrated psychological analysis apparatus 1 can use a workstation or a personal computer, and the operator terminal 3 may be equipped with a psychological analysis engine.

声紋コンピュータは、声に隠された情報を拾うために、例えば、フセイン元イラク大統領の声紋データを解析する。そして、ディスプレイ上へ縦軸に周波数、横軸に時間、色は青いほど、その周波数がもつ音が強く、黄色ほど周波数が弱いことを示すグラフを表示させる。   The voiceprint computer analyzes, for example, voiceprint data of former Iraqi President Hussein in order to pick up information hidden in the voice. Then, a graph is displayed on the display indicating that the frequency is plotted on the vertical axis, the time is plotted on the horizontal axis, the color is blue, the sound that the frequency has is stronger, and the frequency is weaker as yellow.

声紋コンピュータは、2003年3月20日にフセイン元イラク大統領の演説における「アメリカ」という台詞内の「アメリ」を声紋分折したグラフをディスプレイに出力する。又、2003年7月17日にテレビ局が放送した音声のみの声明の中にあった「アメリキアン」の「アメリ」を分析したグラフもディスプレイに出力する。
声紋データの中には10か所の一致点がある。他にも「イラク」、「ジハード」などの単語の一部で声紋の一致がある。
The voiceprint computer outputs, on a display on March 20, 2003, a graph in which “Amelie” in the line “America” in the speech by former President Iraqi Hussein is divided into voiceprints. In addition, a graph analyzing “Amelie” of “Americanian” in a voice-only statement broadcast by a television station on July 17, 2003 is also output on the display.
There are 10 matching points in the voiceprint data. There are also voiceprint matches for some of the words such as “Iraq” and “Jihad”.

2003年3月20日に開戦したイラク戦争は、同年5月2日、ブッシュ大統領(アメリカ)によって戦闘終結が宣言された。しかし、8月13日現在、アメリカ軍が至上の目的としているフセイン元イラク大統鎮の身柄の確保は達成されていない。   The Iraq War, which opened on March 20, 2003, was declared the end of the battle by President Bush (USA) on May 2, 2003. However, as of August 13, securing of the personality of former Hussein President of Iraq, which was the ultimate goal of the US military, has not been achieved.

フセイン元大統領は逃亡生活をつづけながら、さまざまな声明を発表しているとみられている。フセイン元大紡領には、多くの影武者がいるとされている。必然的に、発表される声明もフセイン元大統領本人によるものか、誰かがまねたものなのかが問題となる。   Former President Hussein is believed to have issued various statements while continuing his fugitive life. It is said that there are many shadow warriors in Hussein Yudai Taishu. Inevitably, the question will be whether the statement to be announced is by the former president of Hussein or someone has imitated it.

2003年7月17日、カタールのあるテレビ局がフセイン元大統領のメッセージを放送した。これは映像なしの音声だけのものである。この「声」ははたして本人のものなのか。声紋の研究で知られる民間の研究機関、日本音響研究所は、ただちにこの声を解析し、この声が3月20日(イラク戦争閉戦初日)のフセイン元大統領の声と同一であるとの判断をくだした。   On July 17, 2003, a Qatar television station broadcast the message of former President Hussein. This is only for audio without video. Is this “voice” really his / her own? The Japan Acoustical Research Institute, a private research institution known for voiceprint research, immediately analyzed this voice and said that this voice was the same as the voice of former President Hussein on March 20 (the first day of the Iraq War). I made a decision.

日本音響研究所では、二つの声紋が同一であるか否かを判定するために、周波数の一致など通常30〜40項目のチェックを行う。その中で、16項目で一致をみた場合、それは同一人物の声であるとの判断がくだされる。   In order to determine whether or not two voiceprints are the same, Japan Acoustics Laboratory normally checks 30 to 40 items such as frequency matching. Among them, if there is a match in 16 items, it is judged that it is the voice of the same person.

一卵性双生児(成入)の2人の声をくらべても、一致項目は8〜9項目。まったくの他人の声であれば、一致する項目は多くても2〜3項目である。「声紋にはその入独自の個性がでます。ですから、声紋はまねできるものではありません」と同研究所所長の鈴木松美博士は主張している。   Even if the voices of two identical twins (adults) are compared, the matching items are 8-9 items. If it is a voice of another person, there are at most two to three matching items. “Voiceprints have their own unique character, so voiceprints cannot be imitated,” says Dr. Matsumi Suzuki, director of the institute.

声紋をつくる「三つの箱」そもそも「声紋」とは何か。せまい意味では声を周波数解祈してグラフにまとめたものをいうが、広い意味では声の特徴をさまざまな角度から分析し、そのデータを集めたものをいう。日本音響研究所であつかう「声紋」という言葉は、声の特徴をさまざまな角度から分析するものである。   “Three boxes” for creating voiceprints What is “voiceprint” in the first place? In a narrow sense, it is a graph that summarizes the voice of the voice, and in a broad sense, it is a collection of data obtained by analyzing the characteristics of the voice from various angles. The term “voiceprint” used by the Japan Acoustical Research Institute analyzes voice characteristics from various angles.

発声は、まず肺が空気を押しだすことからはじまる。その空気は声帯を振動させる。声帯の振動によってつくられるのは、何の変哲もない「ブー」というような「音」の振動波である。この振動波には、「ア」「イ」「ウ」というような音の区別はない。   Vocalization begins with the lungs pushing air. The air vibrates the vocal cords. What is created by the vibration of the vocal cords is a vibration sound of “sound” such as “boo”, which is not unusual. This vibration wave has no distinction between sounds such as “A”, “I”, and “U”.

この振動波が、声帯から口に至るまでの「三つの箱」に響くことで振動が強くなり共鳴し、「声」となる。「三つの箱」とは、「嘔頭」、「口腔」、及び「鼻腔」から構成されている。咽頭は声帯から口腔、鼻腔にいたる連路であり、口腔は口の中の空間、鼻腔は鼻の中の空聞である。   This vibration wave resonates with the “three boxes” from the vocal cords to the mouth, strengthening the vibration and resonating to form a “voice”. The “three boxes” are composed of a “vomit”, “oral cavity”, and “nasal cavity”. The pharynx is a connection from the vocal cords to the oral cavity and nasal cavity, the oral cavity is the space in the mouth, and the nasal cavity is the air in the nose.

言葉をつくるためには「三つの箱」の中で、口腔が重要なは働きをする。それは舌によって空聞の容積を変化させることができるからである。容積が変化すれば、音の響き方(例えば、共鳴のしかた)も変化する。ちなみに、声帯を振動させない言葉もあ言葉もあり、無声音という。英語の発音記号でいう「p」、「t」、「k」などが無声音に該当する。   The oral cavity plays an important role in the “three boxes” to make words. This is because the volume of the air can be changed by the tongue. If the volume changes, the way the sound resonates (for example, how to resonate) also changes. By the way, there are words that do not vibrate the vocal cords, and that is called unvoiced sound. “P”, “t”, “k”, etc. in English phonetic symbols correspond to unvoiced sounds.

これに対して、声帯を振動させる言葉を有声音という。その代表格が日本語の「ア」、「イ」、「ウ」、「工」、「オ」などの母音である。   On the other hand, words that vibrate the vocal cords are called voiced sounds. Its representatives are Japanese vowels such as “A”, “I”, “U”, “Engineer”, “O”.

3つの周波数の組み合わせが声を生むのであって、普通人間の口から発声された声の周波数には、3つの「フォルマント(共鳴周波数帯)」と称される帯が存在する。それは、共鳴によって音のエネルーが強まった帯であり、周波数の低い方から「第1フォルマント」、「第2フォルマント」、「第3フォルマント」と定義することができる。   A combination of three frequencies produces a voice, and there are three bands called “formants (resonance frequency bands)” in the frequency of a voice uttered from a normal human mouth. It is a band in which the energy of the sound is strengthened by resonance, and can be defined as “first formant”, “second formant”, and “third formant” from the lowest frequency.

各フォルマントには、音声によって一定の幅が存在する。例えば、「ア」とい音声の場合、第1フォルマントが600〜800Hz、第2フォルマントが1000〜1400Hz、第3フォルマントが2700〜3100Hzである。   Each formant has a certain width depending on the voice. For example, in the case of the voice “A”, the first formant is 600 to 800 Hz, the second formant is 1000 to 1400 Hz, and the third formant is 2700 to 3100 Hz.

研究所が受ける分析依頼の中には、「これは何を話しているのか」という録音テープが持ちこまれることもがある。多くは雑音などで、音声が聞き取り難いテープである。音声の解析には、フォルマントを使い、フォルマントの位置を分祈して、例えば第1フォルマントが700Hz、第2フォルマントが1100Hz、第3フォルマントが2900Hzに存在した場合、「ア」と話していると解析される。   Some of the analysis requests received by the institute may include a recording tape that says "What is this talking about?" Many tapes are difficult to hear because of noise. For voice analysis, use formants and pray the position of the formants. For example, if the first formant is 700 Hz, the second formant is 1100 Hz, and the third formant is 2900 Hz, then you say “A” Analyzed.

逆に人間の声を使わずに、コンピューターを使てこの三つの周波数をもつ振動波を合成してみると、やはり「ア」という音が聞こえたと解析される。   On the other hand, when using a computer to synthesize vibration waves with these three frequencies without using human voice, it is analyzed that the sound “a” was heard.

クローン人間でも異なる声紋である。声をつくるフォルマントには、音毎に決まった幅があり、その中でどの値をとるかは人によって相違する。同じ「ア」という発音でも、Aという人の第1フォルマントは600Hz、Bという人の第1フォルマントは800Hzというように人によって周波数値は異なる。「ア」という音だけでも、第1、第2、第3フォルマントの組み合わせパターンは無数に存在する。   Even cloned humans have different voiceprints. The formants that make up the voice have a range that is fixed for each sound, and the value that is taken depends on the person. Even with the same pronunciation “A”, the frequency value differs depending on the person, such that the first formant of the person A is 600 Hz and the first formant of the person B is 800 Hz. There are innumerable combination patterns of the first, second, and third formants even with the sound “a” alone.

この差異を生む原因が、咽頭、口腔、鼻腔の「三つの箱」を構成するパーツの個人差かた生じている。口の容積、くちびるの厚さ、鼻の大きさなど、さまざまな要素がかかわってくる。鈴木博士は「声を出すパーツは変えることのできないその人の個性です。これが声紋のもととなります」と主張している。   The cause of this difference arises from individual differences in the parts that make up the “three boxes” of the pharynx, oral cavity, and nasal cavity. Various factors are involved, such as mouth volume, lip thickness, and nose size. Dr. Suzuki argues that "the part that produces the voice is the person's personality that cannot be changed. This is the basis of the voiceprint."

さらには、声紋には話し手独自の「くせ」も関係する。抑揚などのくせは、人それぞれが育ってきた環境によってつくられる。例えば、(サイエンス・フイクションSF)などに登場するクローン人問は咽頭口腔、鼻腔のすべてのパーツの大きさや形が一致しているものだが、それでも育った環境が完全に一致しない限り、話し方のくせがことなり、同一の声紋は得られないと鈴木博士は主張している。   In addition, the voiceprint is also related to the speaker's own “kuse”. A habit such as intonation is created by the environment in which each person grew up. For example, the clone humanities appearing in (Science Fiction SF), etc., have the same size and shape of all parts of the pharyngeal oral cavity and nasal cavity. However, Dr. Suzuki insists that the same voiceprint cannot be obtained.

このように、いくら姿形が似ていても、声が似ているようでも、声紋分析を行えば、本人の声か他人の声かは声紋コンピュータで判明するのである。   In this way, no matter how much the figure is similar or the voice is similar, if the voice print analysis is performed, the voice of the person or the voice of the other person can be determined by the voice print computer.

日本では、裁判における証拠としても声紋が採用されている。声紋の証拠価値は指紋の次に高く、筆跡よりも上位である。声紋のみで有罪又は無罪が決定するケースもある。海外の事件では。1983年にフィリピンで起きたアキノ元上院議員暗殺事件の声紋鑑定を同研究所が行い、当時のフィリピン軍事政権の発表を覆した例がある。その結果フィリピン国内では軍事政権への不信感が高まり、後の民主化へと発展した。   In Japan, voiceprints are also used as evidence in trials. The evidence value of the voiceprint is the second highest after the fingerprint and higher than the handwriting. In some cases, guilt or innocence is determined only by a voiceprint. In overseas cases. There is an example in which the Institute conducted a voiceprint appraisal of the assassination case of former Senator Aquino in the Philippines in 1983, overturning the announcement of the Philippine military administration at that time. As a result, distrust in the military administration increased in the Philippines, and it later developed into democratization.

図2は、同一人物(20代女性)の声紋データである。縦軸は波形(振幅)、横軸は時間をあらわしている。声は一連のの波形の繰り返しで表現されている。20代のときは、1週期目と2周期目で同一の波形をとっている。   FIG. 2 is voiceprint data of the same person (20's female). The vertical axis represents the waveform (amplitude), and the horizontal axis represents time. Voice is represented by a series of repeated waveforms. In the twenties, the same waveform is taken in the first week and the second cycle.

図3は、同一人物(3O代女性)の声紋データである。同じ発声であっても1週期目と2週期目で波形を保てないポイント(図中の実線で囲ったボックス)が出現する点で20代女性の声紋データ(図2参照)と相違する。   FIG. 3 shows voiceprint data of the same person (a 30th generation female). It differs from female voice print data (see FIG. 2) of women in their twenties in that a point (a box surrounded by a solid line in the figure) where the waveform cannot be maintained in the first week and the second week appears even in the same utterance.

図4は、同一人物(4O代女性)の声紋データである。同じ発声であっても1週期目と2週期目で波形を保てないポイント(図中の実線で囲ったボックス)が出現する点で20代の時の女性の声紋データと相違する。特に、波形が保てない傾向は40代のデータで強い。   FIG. 4 shows voiceprint data of the same person (40th generation female). Even if the utterance is the same, it differs from female voiceprint data in the twenties in that a point (a box surrounded by a solid line in the figure) that cannot maintain a waveform appears in the first and second week periods. In particular, the tendency that the waveform cannot be maintained is strong in the 40's data.

声紋コンピュータでは、5センチきざみで身長を推定することができる。声紋にはさまざまな惰報が含まれる。声を聞いただけでは掴むことのできない情報も、声紋として分析することで多くのことがわかる。   The voiceprint computer can estimate the height in steps of 5 cm. The voiceprint includes various intelligence. Information that cannot be grasped only by listening to the voice can be understood by analyzing it as a voiceprint.

声紋から読みとることのできる情報の一つとして発声者の身長が該当する。一搬に、身長の高い人は声が低く、身長の低い人は声が高い傾向がある。「ファントの法則」と称され、身長と声の高さ(声帯の振動数〕は反比例の関係にある。   One of the information that can be read from the voiceprint is the height of the speaker. On the other hand, tall people tend to have low voices and short people tend to have high voices. Called “Phant's Law”, height and voice pitch (frequency of vocal cords) are inversely related.

身長の高い人は、体の各パーツも大きくなる。したがって、声帯も大きくなる。肺から送られる空気圧が同じでも、身長の高い人は身長の低い人ほど声帯が速く振動しない。これが低音に繋がっている。これは太鼓と同じ原理である。太鼓も大きい太鼓は低い音が出て、小さい太鼓は高い音が出る。   If you are tall, each part of your body will be bigger. Therefore, the vocal cords are also increased. Even if the air pressure sent from the lungs is the same, the taller person does not vibrate faster than the shorter person. This is connected to the bass. This is the same principle as taiko. Large drums produce low sounds, and small drums produce high sounds.

過去の多くの人の声紋データと比較することで、声さえあれば身長を推定することができる。その精度は、現在の技術をもってすれば、5センチメートルきざみで可能である。なお、身体の胸囲や胴囲などは身長ほど声の高低に影響を与えない。   By comparing with voice print data of many people in the past, height can be estimated as long as there is a voice. The accuracy is possible in steps of 5 centimeters with current technology. In addition, the chest circumference and waist circumference of the body do not affect the pitch of the voice as much as the height.

声紋コンピュータは、5歳きざみでの年齢特定をする技術をも射程内に収めることができる。年齢も声紋からある程度推定できる。人間の声は、25歳を過ぎると「劣化」が始まる。例えば「アー」と長く伸ばして発音した場合、若い人の波形は、揺れが少ない、ところが歳をとるほどこの揺れは大きくなる傾向にある。   The voiceprint computer can also include the technology for specifying the age in increments of 5 years. Age can also be estimated to some extent from the voiceprint. Human voice begins to deteriorate after age 25. For example, if you pronounce the word “A” for a long time, the waveform of the young person has less fluctuation, but this fluctuation tends to increase with age.

揺れは大きくなる原因は、筋肉の衰えにある。「アー」と一定の揺れで声を発するためには、肺から一定の圧カで空気を口腔へ送りつづけ、声帯の筋肉を一定に張り、口の形を一定に維持しなければならない。人間は歳をとるとその「一定」が困難となる。   The cause of the trembling is the muscle weakness. In order to utter a voice with a constant shaking “A”, air must be sent from the lungs to the oral cavity with a constant pressure, the vocal cord muscles must be kept constant, and the mouth shape must be maintained constant. As humans get older, their “fixedness” becomes difficult.

特に、声帯を引張る筋肉は弱くて不安定なので、一定に保つにはそれだけ大きなエネルギ、が必要とされる。結果として、高齢になるほど波形に揺れがあらわれてくる。数年前に「現在の分祈技術では、だいたい10代単位で年齢を特定することが可能です。将釆的には、5歳きざみぐらいでなんとか特定できるようにしたいですね」と鈴木博士は主張していた。   In particular, the muscles that pull the vocal cords are weak and unstable, so that much energy is needed to keep them constant. As a result, the waveform appears to oscillate as you get older. Several years ago, “With the current split prayer technology, it is possible to specify the age in teenage units. In general, I would like to be able to specify the age in steps of 5 years old,” Dr. Suzuki said. Insisted.

さらに、高齢者の声はかすれることが多い。咽頭内の粘膜が咽頭内に凹凸ができるからである。肺から送られた空気がこの凹凸を通るとき、いくつかの渦ができる。この渦がかすれこ声の原因となる。   In addition, the voices of the elderly are often blurred. This is because the mucous membrane in the pharynx is uneven in the pharynx. When the air sent from the lungs passes through this irregularity, several vortices are formed. This vortex causes a faint voice.

逆に、こういった揺れをつくる成分を除けば、声紋コンピューター上で高齢者が若いときの声を再現することもできる。言紋は体調判断もできる。発声者の体調も声紋にあらわれる情報の一つである。   On the other hand, except for the components that create such shaking, it is possible to reproduce the voice of an elderly person on a voiceprint computer. The words can also be determined by physical condition. The physical condition of the speaker is one of the information that appears in the voiceprint.

先ず、咽頭に炎症が起きた場合、高齢者と同じ現象が起きる。つまり、炎症によって粘膜に凹凸が生じ、渦が発生して、かすれた声となる。また、体調が悪いと腹筋にカが入らなし、腹筋を使った発声には多くのエネルギーを使うため、体調を崩すとと腹筋に使うエネルギーの余裕がなくなる。その結果、腹筋を使わずに発声した場合、その声を周波数分析すると2000〜3000Hzの周波数成分が極端に弱くなる。   First, when inflammation occurs in the pharynx, the same phenomenon as in the elderly occurs. In other words, unevenness occurs in the mucous membrane due to inflammation, and a vortex is generated, resulting in a faint voice. In addition, when the body is in poor condition, the abdominal muscles do not get moistened, and a large amount of energy is used for voicing using the abdominal muscles. As a result, when the voice is uttered without using the abdominal muscles, the frequency component of 2000 to 3000 Hz becomes extremely weak when the voice is subjected to frequency analysis.

同研究所が分析した声の中で、体調の変化を表す声紋の好例として、国際テロ組織アルカイダの指導者ビンラディン氏の声データがある。   Among the voices analyzed by the institute, a good example of a voiceprint representing changes in physical condition is voice data of Bin Laden, the leader of al-Qaeda, an international terrorist organization.

2001年9月11日のアメリカ同時多発テロ以来アメリカ軍などによる捜索が続けられているビンラディン氏の声明を声紋分析すると、2000〜3000Hzの周波数成分が弱いものがある。このことから、逃亡生活を続けていくうちにビンラディン氏は体調を崩していたのではないか、と同研究所は分折する。   When Bin Laden's statement, which has been searched by the US military since the September 11, 2001 terrorist attacks in the United States, is analyzed by voiceprints, there is a weak frequency component of 2000-3000 Hz. For this reason, the institute breaks down that Mr. Bin Laden was in a state of health while continuing his escape life.

声紋分析は、同じ音声を探すことか始まる。声紋はどのように分折されるのか、それはケース・バイ・ケースである。同研究所にある人物の音声が入ったテープの声紋鑑定依頼が来た場合、過去に録音された同じ人物の声とくらべ、その中から同じ単語を抽出することから始める。特に日本語ではない場合、同じ単語を探す処理に時聞がかかる。同じ単語がなければ、声紋鑑定の精度は格段に低下する場合がある。   Voiceprint analysis begins with searching for the same voice. How the voiceprint is broken up is case-by-case. When a voice print appraisal request is received for a tape containing the voice of a person from the same laboratory, the same word is extracted from the voice of the same person recorded in the past. Especially when it is not in Japanese, it takes time to find the same word. Without the same word, the accuracy of voiceprint evaluation may be significantly reduced.

そこで、個人のくせに着目して、同じ音声を探す。例えば、自己紹介をするときに、「えー、わたくしは」と名のる人の「えー」という癖を抽出する。声紋分析に必要な時問は1〜2秒もあれば十分であり、単語を抽出したら、ノイズの除去を行う。また、声紋コンピュータは、録音した機器によって周波数の特性が異なっている。電話、放送波、録音テープでの直接録音、それぞれに固有の周波数特性がある。さまざまな補正処理をして、分析を実行する。   Therefore, paying attention to individual habits, search for the same voice. For example, when you introduce yourself, you extract the habit of “Eh” from a person named “Eh, I am I.” The time required for voiceprint analysis is sufficient if it is 1 to 2 seconds. Once the word is extracted, noise is removed. Also, the voiceprint computer has different frequency characteristics depending on the recorded equipment. There are frequency characteristics unique to each of telephone, broadcast waves, and direct recording on a recording tape. Perform various corrections and perform analysis.

声紋コンピュータは、ビンラディン氏の体調不良を示唆する声紋データとして、2001年10月8日に放送された音声データと、2001年12月14日に取得した音声データを記憶している。縦軸に周波数、横軸に時間をとり、波形の色は青いほどその周波数をもつ音が強く、青色ほどその周波数をもつ音が弱いことを示している。   The voiceprint computer stores voice data broadcast on October 8, 2001 and voice data acquired on December 14, 2001 as voiceprint data suggesting Mr. Bin Laden's poor physical condition. The frequency is plotted on the vertical axis and time is plotted on the horizontal axis. The bluer the waveform color, the stronger the sound with that frequency and the bluer the weaker the sound with that frequency.

ほかの角度からの分析によって、両方ともビンラディン氏本人の声紋データであることは確認できるが、2001年12月14日に取得した音声データを解析すると2000Hz〜3000Hz付近の周波数が極端に弱い。体調を崩し、腹筋を使わずに発声すると2000Hz〜3000Hz付近の周波数が弱くなるからである。   Although it can be confirmed that both are voice print data of Mr. Bin Laden by analysis from other angles, when the voice data acquired on December 14, 2001 is analyzed, the frequency around 2000 Hz to 3000 Hz is extremely weak. This is because the frequency in the vicinity of 2000 Hz to 3000 Hz is weakened when the user feels sick and speaks without using the abdominal muscles.

鈴木博士が製作した初期の音声合成装置は、木製で中は空洞の構造であり、上の二つの丸い穴は鼻の穴を、その下の四角い穴は口をそれぞれ模している。箱の下から振動波を送り、両脇の拍子木を串し入れすることで言葉をつくりだすことができる。   The early speech synthesizer produced by Dr. Suzuki is wooden and has a hollow structure, with the upper two round holes imitating the nostrils and the lower square hole imitating the mouth. Words can be created by sending vibration waves from the bottom of the box and skewing the beat trees on both sides.

声紋コンピュータでは、音声合成によってつくられた声のデータをディスプレイ上に波形として表示する。例えば、モナリザの声紋データ(縦軸は周波数、横軸は時間)を表示する。これは、ダビンチ作の絵画「モナリザ」からモナリザの頭骨を復元し、(私はモナリザと呼ばれているエリザベッタです)「SonoElizabetta Monnalisa」と発音させた音声データである。   A voiceprint computer displays voice data generated by voice synthesis as a waveform on a display. For example, monalisa voiceprint data (the vertical axis is frequency and the horizontal axis is time) is displayed. This is audio data that was restored from the Mona Lisa's skull from the painting “Mona Lisa” by Da Vinci and pronounced “Sono Elizabetta Monnalisa” (I am Elizabetta, who is called Mona Lisa).

又、声紋コンピュータは、トサカをもった白亜紀の恐竜パラサウロロフスの声紋データをも出力することができる。バラサウロロフスの場合は骨格によって2種類の声を合成する。低い声が雄の鳴き声、高い声が雌の鳴き声と考えられているが、現在、彼ら達は地球に生息していないので、確認することができない。   The voiceprint computer can also output voiceprint data of the Cretaceous dinosaur Parasaurolophus with Tosaka. In the case of Balasaurolophus, two types of voices are synthesized according to the skeleton. A low voice is considered a male call and a high voice is considered a female call, but now they are not living on the earth and cannot be confirmed.

一方で「現場で録音されるテープには、バックノイズ(雑音)にも多くの情報が入っています」と鈴木博士は主張している。声紋コンピュータは、室内で録音されたテープの場合、バックノイズを分析し、反響音から床の材質や空調設備の有無や、録音した背景に絵画があることも判定することができる。声紋分析で同じ部屋の中に在室している人数まで把握できる。   On the other hand, Dr. Suzuki argues, “The tape recorded on site contains a lot of information in the back noise”. In the case of a tape recorded indoors, the voiceprint computer analyzes the back noise and can determine from the reverberant sound whether there is a floor material, the presence or absence of air-conditioning equipment, and a picture in the recorded background. The voiceprint analysis can understand the number of people in the same room.

声紋コンピュータは、分析に必要な時聞もさまざまで、早いものでは数時聞で分析結果を出力する。又、音声合成技術で宮沢賢治の声を復元することができる。現在、カーナビゲーションシステムや駅のアナウンスなどの主流は、録音合成技術によるものである。   The voiceprint computer also has various times for analysis, and outputs the results at several times in the earliest. In addition, Kenji Miyazawa's voice can be restored using speech synthesis technology. Currently, the mainstream of car navigation systems and station announcements is based on recording and synthesis technology.

これは、実際に人間の声を録音し、録音音声を繋ぎ合せて、台詞をつくる技術である。例えば、カーナビゲーションシステムなどでは全国の交差点名などをあらかじめ録音し、組み合わせることで台詞をつくっている。これはDVD−ROMやハードデイスクなどの大容量記録媒体の発達により可能になった技術である。しかし、前提条件として人間による声の録音が必要であるし、録音していない言棄はつくることができない。   This is a technology that actually records human voices and connects the recorded voices to create dialogue. For example, in car navigation systems, etc., names of intersections across the country are recorded in advance and combined to create dialogue. This is a technology made possible by the development of large-capacity recording media such as DVD-ROMs and hard disks. However, it is necessary to record a human voice as a precondition, and it is impossible to make an abandonment that has not been recorded.

咽頭、口腔、鼻腔の「三つの箱」を再現し、声帯の振動数と同じ振動波をつくり、録音音声にたよらない人工的な声をつくることができる。この点に着目した技術が、同研究所が開発した「声道シミュレーション」と称される音声合成技術である。   By reproducing the “three boxes” of the pharynx, oral cavity, and nasal cavity, it is possible to create a vibration wave that is the same as the frequency of the vocal cords and create an artificial voice that does not depend on the recorded voice. A technology that focuses on this point is a speech synthesis technology called “voice vocal tract simulation” developed by the institute.

音声合成技術の原理は、単純である。声の通り道、つまり「声道」を構成する咽頭、口腔、鼻腔を模型で作成し、声帯を振動させたときと同じ周波数をもった振動波を咽頭の奥から送りこめばよい。   The principle of speech synthesis technology is simple. The path of the voice, that is, the pharynx, oral cavity, and nasal cavity that make up the “vocal tract” can be created as a model, and vibration waves having the same frequency as when the vocal cords are vibrated are sent from the back of the pharynx.

あとは、口腔の容積を変化させれば、声をつくることができる。もちろん、この場合、本人の話し方の「くせ」を入れることはできないが、いわゆる「ロボットが話しているような抑揚のない声」は音声合成理論を元にしてつくられる。   After that, you can make a voice by changing the volume of the oral cavity. Of course, in this case, it is not possible to include the “quick” of the person's way of speaking, but the so-called “voice without inflection as the robot is speaking” is created based on the speech synthesis theory.

同研究所では、この音声合成技術を検証するために、当初、木の模型で声道を再現した。その結果、みごとに音声を再現できる。「木の模型でさえ、声をつくることができる。実は、声というのはたいしたメカニズムでつくられているわけではないな、とこのときに思いました。それならば、木の替わりに電気回路でこれをつくればもっと巧に声を合成できるのではないか、と考えまた」と鈴木博士は当時を振り返る。   The laboratory originally reproduced the vocal tract with a wooden model to verify this speech synthesis technology. As a result, it is possible to reproduce the sound. "Even a model of a tree can make a voice. Actually, I thought that a voice wasn't made by a great mechanism. I think that if I make this, I can synthesize voice better, ”recalls Dr. Suzuki.

電気回路で声を再現する際に必要なのは、「三つの箱」の骨格データである。骨格データさえあれ現存しない偉人や有名人の声も復元できる。過去の偉人や有名人の声を再現する場合は、まず銅像や写真から骨格データを算出する。   What is needed to reproduce a voice with an electric circuit is the skeleton data of “three boxes”. Even the skeleton data can restore the voices of greats and celebrities that do not exist. To reproduce the voices of past greats and celebrities, first calculate skeleton data from bronze statues and photographs.

その骨格データをもとに、「三つの箱」を再現し、声紋コンピーターで合成すると良い。司研究所が再現した音声には、近年のものでは、映画俳優の石原裕次郎(1934〜1987)、詩人・童話作家の宮沢賢治(1896〜1933)などがあり、両者の声はそれぞれの家族も認める仕上がりである。他にも、レオナルド・ダ・ビンチ(1452〜1519)の絵画「モナリザ」から骨格を推測し、「モナリザ」のモデルといわれる女性の声を復元している。   Based on the skeleton data, “three boxes” should be reproduced and synthesized with a voiceprint computer. The voices reproduced by Tsukasa Research Institute include recent movie actor Yujiro Ishihara (1934-1987) and poet / fairy tale writer Kenji Miyazawa (1896-1933). It is a finish that we recognize. In addition, the skeleton is inferred from the painting “Mona Lisa” by Leonardo da Vinci (1452-1519), and the voice of a woman who is said to be a model of “Mona Lisa” is restored.

声紋コンピュータは、恐竜の声のスタンダードをつくることができる。同研究所は、恐竜研究者フィリップ・カーリー士(カナダ、ロイヤルティレル博物館)やマーティイン・ロックレイ博士(アメリカ、コロラド大学)、松川正樹博士(東京学芸大学)などと協カして恐竜の声の再現をしている。   Voiceprint computers can create a standard for dinosaur voices. The institute collaborated with dinosaur researchers Philip Curly (Royal Tyrell Museum, Canada), Dr. Martyn Lockley (University of Colorado, USA), Dr. Masaki Matsukawa (Tokyo Gakugei University), etc. Is reproduced.

現在、映画なで耳にする恐竜の声のスタンダードは、同研究所の研究が、もとになっている。
対象が恐竜の場合、頭骨の化石をCTスキャンで分析するところから始まる。CTスキャンを行うことにより、頭骨における空洞の容積が算出できる。つまり、「三つの箱」のデータが手に入るのである。
Currently, the standard of dinosaur voices we hear in movies is based on research by the Institute.
If the subject is a dinosaur, it begins by analyzing the skull fossils with a CT scan. By performing a CT scan, the volume of the cavity in the skull can be calculated. In other words, you can get the data of “three boxes”.

鈴木博士は、恐竜研究者の指摘を参考に、恐竜は声帯をもっていなかったと仮定した。恐竜は声帯にかわるものとして咽頭の粘膜を振動させていたとの仮説をもとに、振動波を作りだし、声紋コンピューター上で恐竜の声を再現する。   Dr. Suzuki assumed that the dinosaur had no vocal cords, referring to a dinosaur researcher's point. Based on the hypothesis that the dinosaur was vibrating the pharyngeal mucosa as an alternative to the vocal cords, it creates a vibration wave and reproduces the voice of the dinosaur on a voiceprint computer.

同研究所が再現したのは、ティラノサウルス・レックスやステゴサウルス、パラサウロロフスなどの声である。とくにパラサウロロフスについて、鈴木博士は次のように語る。「恐竜研究者は以前から、特徴的なトサカをもったパラサウロロフスはホルンのような声であったのではないか、と仮説していました。この研究所で合成した声も、やはりホルンのような声となりました。恐竜研究者と音響研究者の見解が一致したわけです」。   The institute reproduced the voices of Tyrannosaurus Rex, Stegosaurus and Parasaurolophus. Dr. Suzuki talks about Parasaurolophus in particular. "Dinosaur researchers have long hypothesized that Parasaurolophus with its characteristic scorpion was a horn-like voice. The voice synthesized at this institute was also like a horn. The opinions of the dinosaur researchers and the acoustic researchers agreed. "

声紋コンピュータは、音声認識技術の開発が次の課題である。同研究所では、音声以外にも音にまつわるあらゆる研究を行っている。近年では、JASRAC(日本音楽著作権協会)の依頼を受け、国際的な電子透かしの開発プロジェクトにたずさわり、透かし技術の審査を行った。電子透かしとは、音楽などのデジタルコンテンッのデータにコピーを防止する信号などを埋めこむ技術のことである。   For voiceprint computers, the development of speech recognition technology is the next issue. The Institute conducts all kinds of research related to sound in addition to speech. In recent years, at the request of JASRAC (Japan Music Copyright Association), he participated in an international digital watermark development project and examined watermark technology. Digital watermarking is a technology that embeds a signal that prevents copying in digital content data such as music.

鈴木博士に音響研究の今後の課題をうかがった。「今、1番望まれているのは、音声認識技術の開発です。コンピューターが人問と同じように、前後の文脈を判断しながら、的確に言葉を認識することのできる技術です。現在、観光案内などの限定された分野では使われていますが、汎用化はまだまだです」という回答である。   We asked Dr. Suzuki about future issues in acoustic research. “Now, the most desirable is the development of speech recognition technology. It is a technology that allows computers to recognize words accurately while judging the context before and after, just like human questions. It is used in limited fields such as tourist information, but it is not yet universalized. "

声紋分析にはじまった同研究所の活動は、機械に口をもたせた音声合成技術へとつながった。新たに音声認識技術が完成すれば、機械は耳をもつことになるだろう。そうすれば、人間と話すような感覚で機械と対話ができる日がくるかもしれない。「音」への挑戦をつづける同研究所の今後の研究が期待されている。   The Institute's activities, which began with voiceprint analysis, led to speech synthesis technology that gave machines a mouth. If new speech recognition technology is completed, the machine will have ears. Then, there may come a day when you can interact with the machine as if you were talking to a human. Future research of the Institute is expected to continue the challenge of “sound”.

日本本音響研究所所長の鈴木松美博士は、「子供みたいな好奇心をいつまでも失わないことが大切です」と研究にのぞむ姿勢を語っている。   Dr. Matsumi Suzuki, director of the Japan Acoustical Research Institute, says, “It is important not to lose curiosity like a child forever”.

以下の実施の形態に用いるキャラクタ型会話システムは、コンピュータを用いてキャラクタ性のある会話をユーザと交わすシステムであって、例えば、人型ロボット、動物などペット型ロボット、その他任意の形態のロボットを対象とする。   The character-type conversation system used in the following embodiments is a system for exchanging character-like conversations with a user using a computer. For example, a humanoid robot, a pet-type robot such as an animal, and any other form of robot set to target.

図5に示すように、本発明の第1の実施の形態に係る感情データ提供装置として例示するキャラクタ型会話システムは、多数の語彙を収めた意味ネットワークデータベース94と、自由文を生成するSDDモジュール97と、特定トピックを中心に会話を展開する定型トピックモジュール91と、SDDモジュール97と定型トピックモジュール91との間の談話的結束性を維持・管理しつつ、会話の連続展開を可能にする第1及び第2の連接モジュール93、99と、ユーザ情報管理モジュール89およびキャラクタ管理モジュール90とを備える。   As shown in FIG. 5, the character-type conversation system exemplified as the emotion data providing apparatus according to the first embodiment of the present invention includes a semantic network database 94 containing a large number of vocabularies and an SDD module for generating free sentences. 97, a fixed topic module 91 that develops a conversation centering on a specific topic, and a conversation topic coherency between the SDD module 97 and the fixed topic module 91 is maintained and managed, and the conversation can be continuously expanded. The first and second connection modules 93 and 99, the user information management module 89, and the character management module 90 are provided.

キャラクタ型会話システムは、第1の継続チェック部92、第2の継続チェック部98、関連語・リンク語チェック部95、SDD関数チェック部96を有するキャラクタ型会話システムにより感情データを提供する。   The character-type conversation system provides emotion data by a character-type conversation system having a first continuation check unit 92, a second continuation check unit 98, a related word / link word check unit 95, and an SDD function check unit 96.

意味ネットワークデータベース94には、約5000語の語彙が発音・文法情報とともに登録され、名詞テーブルおよび述語テーブルを備えている。名詞テーブルに設けられるフィールドカテゴリには、ターゲット名詞、リンク名詞、上位概念、下位概念、連想語彙、述語、品詞情報、属性情報、等が含まれる。また、述語テーブルに設けられるフィールドカテゴリには、ターゲット述語、述語名詞、反義述語、リンク名詞、品詞情報、属性情報、等が含まれる。   In the semantic network database 94, vocabulary of about 5000 words is registered together with pronunciation / grammar information, and includes a noun table and a predicate table. Field categories provided in the noun table include target nouns, link nouns, superordinate concepts, subordinate concepts, associative vocabulary, predicates, part of speech information, attribute information, and the like. The field category provided in the predicate table includes a target predicate, a predicate noun, an antonym predicate, a link noun, part of speech information, attribute information, and the like.

この意味ネットワークデータベース94は、複数のモジュールを実行するうえできわめて重要な役割を果たす。すなわち、話題の展開・復帰・発展および結束性のある文の生成を実現するには、特定の統語制約を課す必要があるが、意味ネットワークデータベース94自体が語彙間におけるある程度の結束性を保持しているため、このキャラクタ型会話システムの目的を実現するには最適の知識管理データベースである。   This semantic network database 94 plays an extremely important role in executing a plurality of modules. That is, in order to realize topic development / return / development and generation of coherent sentences, it is necessary to impose specific syntactic constraints, but the semantic network database 94 itself maintains a certain degree of cohesion between vocabularies. Therefore, it is an optimal knowledge management database for realizing the purpose of this character type conversation system.

SDD(Speaker Driven Discourse)モジュール97は、このキャラクタ型会話システムが自律性を確保するため、自発的にさまざまな話題を提供するとともに、ユーザの対応に応じて自由文を生成する機能を実現するものであり、そのため、人間の行う談話活動の発展パターン情報が記憶され、談話内における状況に応じて最適なパターンを選択し、そのパターンをもとに会話展開を行う機能を有している。   The SDD (Speaker Driven Discourse) module 97 realizes the function of generating free sentences according to the user's response as well as providing various topics spontaneously in order to ensure the autonomy of the character type conversation system. Therefore, the development pattern information of the discourse activity performed by humans is stored, and an optimum pattern is selected according to the situation in the discourse, and the conversation development is performed based on the pattern.

すなわち、SDDモジュール97は、日本語の談話文法における各特徴を最大限に活用し、最小限の談話制約条件をもって自律的談話機能を実現している。日本語の談話文法では、既知情報を省略し、文中に表出させないという特徴的な制約がある。つまり、トピックと聞き手が一旦定まったら、聞き手の名称やトピックを表出させる必要はない。例えば、A:昨日は(君は)(君の)会社へ行った?
B:(僕は)(僕の会社へ)行ったよ。
A:(君の仕事は)疲れた?
B:まあまあ。
A:残業は(したのかい)?
B:ない。
That is, the SDD module 97 maximizes each feature in the Japanese discourse grammar and realizes an autonomous discourse function with a minimum discourse constraint. In Japanese discourse grammar, there is a characteristic restriction that the known information is omitted and cannot be expressed in the sentence. In other words, once the topic and the listener are determined, it is not necessary to express the listener's name and topic. For example, A: Did you go to (your) company yesterday?
B: (I) went to (my company).
A: Are you tired?
B: Okay.
A: Did you work overtime?
B: No.

上述した会話から日本語談話文法では、一度「誰についての話題なのか」が決定すると、その後その人間を英語のように代名詞で明記する必要がない。また、トピックが一度決定すれば(例えば「会社」)、その他の情報(例えば「残業」)は可能な限りそのトピックフレーム(知識の枠組み)に照らして関係・真偽判断が行われる。   In the Japanese discourse grammar from the above-mentioned conversation, once “who is the topic” is determined, it is not necessary to specify the person as a pronoun like English. In addition, once a topic is determined (for example, “company”), other information (for example, “overtime”) is determined in relation to the topic frame (knowledge framework) as much as possible.

そのため、Aが「残業は?」と尋ねた時点で、Bは「自分が自分の会社で残業をしたかどうかをきいているはずだ」という判断の基に発話を行う。つまり、日本語には、トピックと参加者が決定し、一定の共有知識が成立した時点で、単語に現れない欠損情報部分は、それぞれの参加者が補って理解するというメカニズムが存在している。   Therefore, when A asks "What is overtime?", B makes an utterance based on the judgment that "I should have asked if I worked overtime at my company." In other words, there is a mechanism in Japanese where topics and participants are decided, and when certain shared knowledge is established, missing information parts that do not appear in words are supplemented and understood by each participant. .

SDDモジュール97は、基本的にこのメカニズムを応用して会話展開を行うものであり、談話進行プロセスのうち、新トピックと新参加者の認定が行われる新規展開部分と、既出情報に基づいて会話を継続させる部分とに分析し、新規展開と既出情報展開のそれぞれのプロセスで必要とされる条件をシステム(ロボット)に守らせることで、「近似値的」な自然な会話を実現する。つまり、各プロセスで最低必要とされる談話条件さえ守られていれば、あとはユーザが無意識に欠落情報や関係情報を補って理解しようとするというメカニズムを応用しているのである。   The SDD module 97 basically applies this mechanism to perform conversation development. In the discourse progress process, a new development part in which a new topic and a new participant are recognized and a conversation based on the existing information. To make the system (robot) comply with the conditions required for each process of new development and existing information development, to realize "approximate" natural conversation. In other words, as long as the minimum required discourse conditions are observed in each process, a mechanism is applied in which the user unconsciously supplements and understands missing information and related information.

ところで、人間の談話は、必ずしも一定の動性(スピード)を保ちながら推移するわけではなく、特定トピックをめぐるやりとりにおいては、むしろ動性は下がり、情報領域が狭まって情報深度が深まる傾向がある。すなわち、文生成の動性と情報深度とは反比例の関係にある。   By the way, human discourse does not always change while maintaining a certain level of mobility (speed), but in the exchange of specific topics, the mobility is rather lowered, and the information area tends to narrow and the information depth increases. . That is, the sentence generation dynamics and the information depth are inversely related.

このうち動性をSDDモジュール97によって確保する一方で、情報深度を確保するために設けられているのが定型トピックモジュール91である。そのため、定型トピックモジュール91は、複数の(40を超す)個別トピックに対してさまざまな情報深度が設定され、各深度において複数の反応文が用意されている。そして、SDDモジュール97と定型トピックモジュール91とを組み合わせることで、相反する談話動性と情報深度とを同時に確保することを実現している。   Among them, the fixed topic module 91 is provided to secure the information depth while ensuring the mobility by the SDD module 97. Therefore, the fixed topic module 91 has various information depths set for a plurality of individual topics (over 40), and a plurality of response sentences are prepared at each depth. Then, by combining the SDD module 97 and the standard topic module 91, it is possible to simultaneously secure conflicting discourse mobility and information depth.

第1及び第2の連接モジュール93、99では、会話の連続展開を可能にするため維持・管理する談話結束性は、領域の狭い順に、第一に同一文内における統語・意味論的結束性、第二にユーザ発話文とロボット応答文における結束性、第三に談話内におけるトピックと発話される各文の間の結束性、第四に既知ユーザ情報とロボットの現場発話との間の結束性、の4つのレベルに分類できる。   In the first and second connection modules 93 and 99, the discourse cohesiveness maintained and managed in order to enable continuous development of conversations is syntactic / semantic cohesiveness in the same sentence in the order of narrowing the area. Second, cohesiveness between user utterances and robot response sentences, third, cohesion between topics and spoken sentences in discourse, and fourth, cohesion between known user information and robot on-site utterances It can be classified into four levels of sex.

このうち、第一に同一文内における統語・意味論的結束性については、ロボットが自由生成する文形式が対象となる。このキャラクタ型会話システムでは、日本語構文の分析に基づき、SDDモジュール97に主述構文を中心とした文生成を行わせることで、統語的結束性を確保した。   Of these, the syntactic / semantic cohesiveness within the same sentence is primarily the sentence format that the robot generates freely. In this character type conversation system, syntactic cohesion is ensured by causing the SDD module 97 to generate a sentence centered on the main predicate syntax based on the analysis of the Japanese syntax.

これにより、意味ネットワークデータベース94上で結束性を保持しながら格納されている語彙同士を、その意味論的結束性を破壊することなく文に反映することができるようにしている。また、[+人間]という素性を主語名詞に要求する述語については、[+人間]のフラグをデータベース内に設けて、主述における共起関係の絞り込みを行なっている。   As a result, vocabularies stored on the semantic network database 94 while maintaining cohesiveness can be reflected in the sentence without destroying their semantic cohesiveness. Further, for a predicate that requires the subject noun to have a feature of [+ human], a flag of [+ human] is provided in the database to narrow down co-occurrence relationships in the main description.

また、第二にユーザ発話文とロボット応答文における結束性については、ヘッジ管理によって実現している。すなわち、「ヘッジ」とは、実質的内容を伴った発話をする前にいわば「つなぎ」や「まくら言葉」として発話される行為で、談話結束性の維持に大きな役割を果たすものである。   Secondly, the cohesiveness in the user utterance sentence and the robot response sentence is realized by hedge management. In other words, “hedging” is an action that is spoken as “connecting” or “pillow” before speaking with substantial content, and plays a major role in maintaining discourse cohesion.

すなわち、ユーザの応答文の直後に、ロボットを発話させるのではなく、ユーザの命題に対する態度を確認・共感・反論するフレーズを入れてから、その後に発話文を連続させることで、文同士の段差を埋め、結束性を確保する。   That is, instead of making the robot speak immediately after the user's response sentence, put a phrase that confirms, empathizes, or refutes the attitude to the user's proposition, and then continues the utterance sentence, so that the level difference between sentences To ensure unity.

そのため、このキャラクタ型会話システムでは、SDDモジュール97内部、定型トピックモジュール91内部、第1及び第2の連接モジュール93、99内部、およびこれら相互間において、ユーザの反応に応じて適切な反応を返すヘッジ管理を行なっている。   Therefore, in this character type conversation system, an appropriate response is returned according to the user's response in the SDD module 97, in the fixed topic module 91, in the first and second connection modules 93 and 99, and between them. Hedge management.

また、第三に談話内におけるトピックと発話される各文の間の結束性については、トピック管理という概念によって実現している。すなわち、このキャラクタ型会話システムでは、先行するトピックがある場合、それを追い越す新情報語彙の出現に制限をかけるようになっている。   Third, the cohesiveness between the topic in the discourse and each sentence uttered is realized by the concept of topic management. That is, in this character type conversation system, when there is a preceding topic, the appearance of a new information vocabulary that overtakes it is limited.

さらに、第四に既知ユーザ情報とロボットの現場発話との間の結束性については、ユーザが以前に発話した内容、発話態度、情報をログとして記憶・維持するユーザ情報学習機能と、ロボットが発話した情報を記憶・維持する生成文管理ログ機能とをもたせることで実現している。すなわち、このキャラクタ型会話システムでは、ユーザ情報管理モジュール89がユーザ情報学習機能を有し、また、キャラクタ管理モジュール90が生成文管理ログ機能を有していて、それにより、過去の会話によってユーザとロボットとの間に成立した知識が、後出の会話に反映されるようになっている。   Fourth, regarding the cohesiveness between known user information and on-site utterances of the robot, the user information learning function that stores and maintains the content, utterance attitude, and information that the user has spoken before as a log, and the robot utters This is realized by providing a generated sentence management log function for storing and maintaining the information. That is, in this character type conversation system, the user information management module 89 has a user information learning function, and the character management module 90 has a generated sentence management log function. Knowledge established with the robot is reflected in later conversations.

また、このキャラクタ型会話システムは、キャラクタの形成を行う2種類の機能を有していて、1つは、キーワードによってキックされる特定キャラクタの動的表出により行われ、もう1つは、蓄積されたユーザ反応の静的データに基づく特定キャラクタの表出により行われる。   This character-type conversation system has two types of functions for character formation, one is performed by dynamic expression of a specific character kicked by a keyword, and the other is stored. It is performed by expressing a specific character based on the static data of the user response.

特定キャラクタの動的表出は、ユーザが特定の言葉を発話するとそれがキーワードとなり、そのユーザ発話のタイプに対応するキャラクタがロボット発話内に実現される。例えば「ギャグ連発」や「ののしり返し」などが挙げられる。   The dynamic expression of a specific character becomes a keyword when the user utters a specific word, and a character corresponding to the type of the user utterance is realized in the robot utterance. For example, “gag fire” and “return of nose” can be mentioned.

特定キャラクタの表出は、ユーザ情報学習機能によって管理された知識が一定条件を満たした場合に、特定のキャラクタが一定の頻度をもって各所に表出される機能である。これは主にキャラクタモード管理機能によって行われる。   The expression of a specific character is a function in which a specific character is expressed at a certain frequency when the knowledge managed by the user information learning function satisfies a certain condition. This is mainly performed by the character mode management function.

例えば、「オヤジ的語群」に該当する単語をユーザが多用すると、ロボットも高い頻度で「オヤジモード」に入りやすくなるものである。   For example, if a user frequently uses a word corresponding to the “father word group”, the robot easily enters the “father mode” at a high frequency.

一方、タイムコントロール機能によっても、動的なキャラクタの表出が行われる。例えば、起床時間などユーザが設定したタイムスケジュールを無視された場合には、特定の感情的色彩を伴った発話が選択される。   On the other hand, a dynamic character is also expressed by the time control function. For example, when a time schedule set by the user such as a wake-up time is ignored, an utterance with a specific emotional color is selected.

これらのキャラクタ性は、ロボットの顔面部分のディスプレイ上に表示される表情と同期がとられることで、ユーザに与える印象を強くする効果がある。キャラクタ型会話システムを、人型、ペット型など任意の形態のロボットとして構成する場合、ロボットの表情をユーザに表すためのLCD装置、および、ロボットの感情をユーザに表すためのLED装置を使用することが好ましい。   These character characteristics are effective in strengthening the impression given to the user by being synchronized with the facial expression displayed on the display of the robot face. When the character-type conversation system is configured as a robot of an arbitrary form such as a human-type or a pet-type, an LCD device for expressing the facial expression of the robot to the user and an LED device for expressing the emotion of the robot to the user are used. It is preferable.

図5、図7及び図8を参照して、第1の実施の形態に係る感情データ提供装置として例示するロボット会話システムの動作を説明する。ロボット会話システムでは、第1発話ステップにおいて、まず、SDDモジュール97が、用意されている確認型文リスト、報告型文リスト、疑問型文リスト、発展型文リスト、転換型文リスト、状況設定型文リスト、の中から、第一に疑問型文リストを選択し、さらに文型「$ユーザ名$ニトッテN1(名詞)ッテドウイウモノカナ」を選択するように制御されている(ステップSR1)。   The operation of the robot conversation system exemplified as the emotion data providing apparatus according to the first embodiment will be described with reference to FIGS. In the robot conversation system, in the first utterance step, first, the SDD module 97 is prepared with a confirmation type sentence list, a report type sentence list, a question type sentence list, an evolution type sentence list, a conversion type sentence list, and a situation setting type. From the sentence list, first, the question type sentence list is selected, and the sentence type “$ user name $ Nittotte N1 (noun) tteudouimonokana” is further selected (step SR1). .

つぎに、SDDモジュール97が、ユーザ情報管理モジュール89から「鈴木」を引用して、「鈴木」を文型のユーザ名に埋め込み(ステップSR2)、また、意味ネットワークデータベース94から「酒」を引用して、「酒」を文型のN1(名詞)に埋め込み(ステップSR3)、それにより、「鈴木にとって酒ってどういうものかな?」という文を生成(ステップSR4)してロボットに発話させる。   Next, the SDD module 97 quotes “Suzuki” from the user information management module 89, embeds “Suzuki” in the sentence-type user name (step SR2), and quotes “Sake” from the semantic network database 94. Then, “sake” is embedded in the sentence pattern N1 (noun) (step SR3), thereby generating a sentence “What is sake for Suzuki?” (Step SR4) and causing the robot to speak.

このとき、SDDモジュール97は、要求情報タイプテーブルを参照(ステップSR5)することで、発話文が、Wh情報を埋める情報を要求するタイプの文であることを認識する。   At this time, the SDD module 97 refers to the request information type table (step SR5), thereby recognizing that the uttered sentence is a type of sentence requesting information for filling the Wh information.

SDDモジュール97は、第1発話に対し、ユーザが、例えば、「知らないなあ」と応じる(ステップSU1)と、上述した要求情報タイプ認識に基づいて、第2の連接モジュール99が、Wh情報ヒット語リストテーブルを参照し(ステップSR11)、ユーザ応答ヒット語をチェックし(ステップSR12)、ユーザ反応解釈テーブルを参照して(ステップSR13)、ユーザの第1発話「知らないなあ」は「理解不能」メッセージであるとして解釈する。そして、対応ヘッジをチェックし(ステップSR14)、第1ヘッジ発話として、例えば、「じゃあさ」というヘッジ出力をロボットに発話させる。   When the user responds, for example, “I don't know” to the first utterance (step SU1), the SDD module 97 determines that the second connection module 99 hits the Wh information based on the above-described request information type recognition. Refer to the word list table (step SR11), check the user response hit word (step SR12), refer to the user reaction interpretation table (step SR13), and the user's first utterance "I don't know" is "Unintelligible" As a message. Then, the corresponding hedge is checked (step SR14), and as the first hedge utterance, for example, the robot outputs the hedge output “Jasa”.

引き続き、SDDモジュール97が、第2ステップ接続テーブルを参照し(ステップSR21)、文型「V1(動詞)(ナ)ノッテ|V2(動詞)コトナノカナァ」を選択し、意味ネットワークデータベース94から、「酒」と意味的結束性を有する「飲む」、「楽しい」を引用して、V1、V2(動詞)にそれぞれ埋め込み(ステップSR22)、「飲むのって楽しいことなのかなぁ?」という文を生成(ステップSR23)してロボットに発話させる。   Subsequently, the SDD module 97 refers to the second step connection table (step SR21), selects the sentence type “V1 (verb) (na) notte | V2 (verb) kotonano cana”, and “sake” from the semantic network database 94. The words “drink” and “fun” having semantic cohesiveness are quoted and embedded in V1 and V2 (verbs) respectively (step SR22), and a sentence “Is drinking fun?” Is generated ( In step SR23), the robot speaks.

SDDモジュール97は、第2発話に対し、ユーザが、例えば、「ううん、まあ楽しいよ」と応じる(ステップSU11)場合は、継続チェック部が、関連語や関連トピックが定型トピックモジュール91に存在するか否かをチェックし(ステップSR31)、存在する場合は処理を継続フローへ分岐する。   The SDD module 97 responds to the second utterance, for example, when the user responds “Yeah, it's fun” (step SU11), the continuation check unit has related words and related topics in the standard topic module 91. (Step SR31), and if it exists, the process branches to a continuous flow.

一方、関連語や関連トピックが定型トピックモジュール91に存在しない場合は、意味ネットワークデータベース94を参照して(ステップSR32)、関連語や関連トピックが定型トピックモジュール91またはSDDモジュール97に存在するか否かをチェックする。   On the other hand, if the related word or related topic does not exist in the fixed topic module 91, the semantic network database 94 is referred to (step SR32), and whether or not the related word or related topic exists in the fixed topic module 91 or the SDD module 97. To check.

そして、関連語・リンク語チェック部95が、関連語リンクチェックを行い(ステップSR33)、関連語が存在する場合は、定型トピックモジュール91かSDDモジュール97の何れか一方へ処理を分岐させる。その際、関連語・リンク語チェック部95が第2発話ステップにおける発話文型と分岐先との整合性によって、第1又は第2の連接モジュール93、99をバイパスするか否かを決定する(ステップSR34)。   Then, the related word / link word check unit 95 performs a related word link check (step SR33), and if a related word exists, the process branches to either the fixed topic module 91 or the SDD module 97. At that time, the related word / link word check unit 95 determines whether or not to bypass the first or second connection module 93, 99 according to the consistency between the utterance sentence pattern and the branch destination in the second utterance step (step). SR34).

引き続き、SDD関数チェック部96がSDD関数チェックを行い(ステップSR35)、関連語や関連トピックが存在する場合は、定型トピックモジュール91かSDDモジュール97の何れか一方に処理を分岐させる(ステップSR36)。一方、関連語や関連トピックが存在しない場合は、ランダムに新しい話題をスタートさせる(ステップSR37)。   Subsequently, the SDD function check unit 96 performs an SDD function check (step SR35), and if there is a related word or related topic, the process branches to either the fixed topic module 91 or the SDD module 97 (step SR36). . On the other hand, if there is no related word or related topic, a new topic is randomly started (step SR37).

図9は、SDDモジュール97における第1及び第2の連接モジュール93、99の内容を示すテーブル、図10は、SDDモジュール97におけるヘッジ連接を示すテーブルであり、図中の符号Cは中立、Nは消極、Pは積極を意味する。   FIG. 9 is a table showing the contents of the first and second connection modules 93 and 99 in the SDD module 97, and FIG. 10 is a table showing the hedge connection in the SDD module 97. In FIG. Means negative, P means positive.

図10に示すように、パターン1〜パターン6は、確認型文リストや状況設定型文リストに対応する。すなわち、ロボットの第1発話が確認型文の場合はパターン1を見て、ロボットの第2発話になりうる文型パターン(数字だけを示す)を選択する。   As shown in FIG. 10, patterns 1 to 6 correspond to a confirmation type sentence list and a situation setting type sentence list. That is, when the first utterance of the robot is a confirmation-type sentence, the pattern 1 (see only numbers) that can become the second utterance of the robot is selected by looking at the pattern 1.

同様に、ロボットの第1発話が報告型文の場合はパターン2を見て、また、ロボットの第1発話が疑問型文の場合はパターン3を見て、また、ロボットの第1発話が発展型文の場合はパターン4を見て、また、ロボットの第1発話が転換型文の場合はパターン5を見て、さらに、ロボットの第1発話が状況設定型文の場合はパターン6を見て、ロボットの第2発話になりうる文型パターン(数字だけを示す)をそれぞれ選択する。   Similarly, if the first utterance of the robot is a report-type sentence, the pattern 2 is seen. If the first utterance of the robot is a question-type sentence, the pattern 3 is seen. Further, the first utterance of the robot is developed. See pattern 4 for a type sentence, see pattern 5 if the first utterance of the robot is a conversion type sentence, and see pattern 6 if the first utterance of the robot is a situation setting type sentence. Then, each sentence pattern (only numbers are shown) that can be the second utterance of the robot is selected.

第1の実施の形態に応用するキャラクタ型会話システムは、キャラクタ型会話ロボット、すなわち、音声認識、ワードスポット機能、人工知能、文章自動生成機能、単音認識、記憶機能を搭載した、言葉を覚えて自由なおしゃべりができるコミュニケーションロボット又はコミュニケーションアプリケーション手段として実施でき、コミュニケーションアプリケーション手段を搭載した情報家電(例えば、インターネット冷蔵庫やインターネット録画機)やインテリア等の多目的用途のコミュニケーションアプリケーションとなる。   The character-type conversation system applied to the first embodiment is a character-type conversation robot, that is, speech recognition, word spot function, artificial intelligence, automatic sentence generation function, single-tone recognition, memory function, remember words It can be implemented as a communication robot or communication application means capable of chatting freely, and becomes a multipurpose communication application such as an information home appliance (for example, an Internet refrigerator or an Internet recorder) equipped with the communication application means or an interior.

例えば、ユーザがコミュニケーションロボットに対して「今日はいい天気だね。」と話しかけると、音声認識のワードスポット機能により、「今日」「いい」「天気」というキーとなる単語を認識する。その情報から、人工知能が関連語を探し出し、文章自動生成機能を使って返事を返す。   For example, when the user talks to the communication robot, “Today is good weather,” the words “Today”, “Good” and “Weather” are recognized by the word spot function of voice recognition. From that information, artificial intelligence searches related words and returns a reply using the automatic sentence generation function.

又、コミュニケーションアプリケーションを搭載したコミュニケーションロボットは、「昨日は雨だったよね。」「天気がいいと気分もいいね。」など、違和感のない会話の流れが完成する。ワードスポット機能は、1つの単語だけでなく、2つ以上の単語を認識単語として、人工知能が直前の会話からも関連語を拾い上げてくるため、同じ組み合わせで単語を認識しても、毎回違う返事を期待することができる。   In addition, a communication robot equipped with a communication application completes a flow of conversation with a sense of incongruity, such as “It was raining yesterday.” The word spot function uses not only one word but also two or more words as recognition words, and artificial intelligence picks up related words from the previous conversation. You can expect a reply.

さらに、各ユーザの固有の情報を語りかけることで、きちんと記憶してその後の会話に反映していくことができ、ユーザと生きた会話を実現することが可能である。例えば、人間と同様に記憶という能力をもち、記憶されたことを会話に反映させていくため、1年後になって、「去年はこんなことを話していたよ。」などと言い出すこともありうる。   Furthermore, by speaking to each user's unique information, it is possible to store it properly and reflect it in the subsequent conversation, and to realize a live conversation with the user. For example, in order to reflect the memorized memory in the conversation like a human being, it may be said that “I was talking about this last year” in a year later.

コミュニケーションロボットは、記憶するのは言葉だけでなく、スケジュールを教え込むこともできるため、1日の流れ、1週間の流れ、または1年の流れで適切な会話をすることができる。例えば、「朝だよ、起きて。」とか、「今日はゴミを出す日だよ。」とか、「ハピーバースデー(ユーザ名)」と歌ってサービスを提供する。   Since the communication robot can memorize not only words but also a schedule, it can have an appropriate conversation in a daily flow, a weekly flow, or a yearly flow. For example, the service is provided by singing “It's morning, get up”, “Today is the day to throw out trash”, or “Happy Birthday (user name)”.

また、1文字に対し2コマ以上のリップシンクロをすることで、会話の内容、言葉に合わせて豊かに変化しながら話し相手をしてくれる。   In addition, by lip-synchronizing more than two frames for each character, the conversation partner can be changed while changing abundantly according to the content and language of the conversation.

第1の実施の形態では、感情データ提供装置としてのコミュニケーションロボットは、ロムカセットによる拡張性や、シリアルポートを利用したパソコンや携帯電話との接続により、さらに進化することが当業者において十分理解できるであろう。   In the first embodiment, those skilled in the art can fully understand that the communication robot as the emotion data providing device further evolves due to the expandability by the ROM cassette and the connection with the personal computer or mobile phone using the serial port. Will.

さらに、感情データ提供装置としての人型ロボット、動物などペット型ロボット、その他任意の形態のロボットの他、例えば、パソコンや携帯情報端末をキャラクタ型会話システムとして対象とすることができ、さらには、携帯端末の応用例として2者以上の話者が会話している状況で、コミュニケーションアプリケーションによる心理を把握して介入させる例示としては、「ガミガミ上司」に怒られ電話を切った場合に、携帯端末が、さも人格を持ったように「頑張った」と喋ったり、喧嘩をしている二人の仲裁に入ることができ、恋人ビジネスの応援に介入することもできる。   Furthermore, in addition to humanoid robots as emotion data providing devices, pet-type robots such as animals, and other arbitrary robots, for example, personal computers and portable information terminals can be targeted as character-type conversation systems, As an example of an application example of a mobile terminal where two or more speakers are conversing and grasping the psychology of the communication application and intervening, the mobile terminal is angry by the “Gamigami boss” and hangs up. However, as if he had a personality, he was able to enter into the arbitration between two fighters, or to intervene in support of the lover business.

(第2の実施の形態)
本発明の第2の実施の形態に用いるキャラクタ型会話システムは、定型トピックモジュール91に予め決められた契機に応じて所定の広告シナリオを実行する広告シナリオサブモジュールが設けられている。
(Second Embodiment)
The character-type conversation system used in the second embodiment of the present invention is provided with an advertisement scenario sub-module that executes a predetermined advertisement scenario according to a predetermined trigger in the fixed topic module 91.

本発明の第2の実施の形態に係る感情データ提供装置として例示する広告シナリオサブモジュールは、図6に示すように、広告シナリオデータベース156と、ユーザ返事解釈テーブル157と、広告出現頻度パターンテーブル155と、広告実行トリガ発生部151と、広告シナリオ処理部150とを備えている。   As shown in FIG. 6, the advertisement scenario submodule exemplified as the emotion data providing apparatus according to the second embodiment of the present invention includes an advertisement scenario database 156, a user response interpretation table 157, and an advertisement appearance frequency pattern table 155. And an advertisement execution trigger generation unit 151 and an advertisement scenario processing unit 150.

広告実行トリガ発生部151は、システム起動から所定時間経過後の話題転換時にこれを契機として広告実行トリガを発生する第1トリガ発生部152と、起床プロセスなど所定のプロセス発生時にこれを契機として広告実行トリガを発生する第2トリガ発生部153と、広告出現頻度パターンテーブル155を参照してその広告出現頻度パターンに基づく広告出現状況を契機として広告実行トリガを発生する第3トリガ発生部154とを備えている。   The advertisement execution trigger generation unit 151 includes a first trigger generation unit 152 that generates an advertisement execution trigger at the time of a topic change after a predetermined time has elapsed since the system startup, and an advertisement when a predetermined process such as a wake-up process occurs. A second trigger generation unit 153 that generates an execution trigger, and a third trigger generation unit 154 that generates an advertisement execution trigger based on an advertisement appearance status based on the advertisement appearance frequency pattern with reference to the advertisement appearance frequency pattern table 155 I have.

広告シナリオ処理部150は、第1トリガ発生部152、第2トリガ発生部153または第3トリガ発生部154から広告実行トリガが発生するのに応じて、広告シナリオデータベース156に保存した広告シナリオを実行する。この広告シナリオは、所定の広告トピックの発話を含むロボットの発話と、ユーザの返事との一連のやりとりをシナリオ化したものであり、ユーザの返事によって会話の進行がどのように変化しても、自然な会話の流れの中でロボットが所定の広告トピックを含むメッセージを発話できるシステムを対象としている。   The advertisement scenario processing unit 150 executes the advertisement scenario stored in the advertisement scenario database 156 in response to an advertisement execution trigger generated from the first trigger generation unit 152, the second trigger generation unit 153, or the third trigger generation unit 154. To do. This advertising scenario is a scenario of a series of interactions between a robot's utterance including the utterance of a predetermined advertising topic and a user's reply, no matter how the conversation progresses due to the user's reply, It is intended for a system in which a robot can speak a message including a predetermined advertisement topic in a natural conversation flow.

また、広告シナリオサブモジュールは、広告シナリオの実行の際にユーザの属性を参照するためのユーザ属性データベース158を備え、広告シナリオ処理部150が、広告シナリオの実行にともなうユーザの返事をユーザ返事解釈テーブル157と照合することで、所定の広告トピックに関するユーザの感情や心理状態を解析し取得することで、ユーザ情報をユーザ属性データベース158に保存する。   The advertisement scenario sub-module includes a user attribute database 158 for referring to user attributes when executing the advertisement scenario, and the advertisement scenario processing unit 150 interprets the user's reply accompanying the execution of the advertisement scenario. The user information is stored in the user attribute database 158 by analyzing and acquiring the user's emotion and psychological state regarding the predetermined advertisement topic by collating with the table 157.

そして、広告シナリオサブモジュールは、広告シナリオの実行を通じて取得したユーザの情報(広告トピックに関するユーザの感情や心理状態、好み、嗜好、趣味など)はもとより、広告シナリオの実行を通じることなく事前に取得したユーザ情報を、ユーザ属性情報として、広告シナリオの実行に反映させることができる。   The advertisement scenario sub-module acquires in advance without executing the advertisement scenario, based on the user information acquired through the execution of the advertisement scenario (such as the user's emotion and psychological state regarding the advertisement topic, preferences, preferences, hobbies, etc.). The user information can be reflected in the execution of the advertisement scenario as user attribute information.

さらに、広告シナリオサブモジュールは、意味ネットワークデータベース94の名詞テーブルまたは述語テーブルに保存されている単語の中に、広告シナリオの実行に不適当な語彙が含まれている場合、広告シナリオの設定時に、意味ネットワークデータベース94の中の不適当な語彙の削除・修正を行う感情データ提供装置を提供する。
図6及び図11を参照して、本発明の第2の実施の形態に係る感情データ提供装置として例示する広告シナリオサブモジュールの動作を説明する。
Further, the advertisement scenario sub-module, when a vocabulary inappropriate for execution of the advertisement scenario is included in the words stored in the noun table or the predicate table of the semantic network database 94, when setting the advertisement scenario, An emotion data providing apparatus for deleting / correcting inappropriate vocabulary in the semantic network database 94 is provided.
With reference to FIG.6 and FIG.11, operation | movement of the advertisement scenario submodule illustrated as an emotion data provision apparatus which concerns on the 2nd Embodiment of this invention is demonstrated.

会話ロボットは、システム起動(ステップS100)した後に、特定時間による割り込みが発生すると(ステップS105)、以下のような発話(すなわち、話題の転換時や特定プロセス発生時の強制的な発話)を行う。   When the conversation robot is interrupted for a specific time after the system is started (step S100) (step S105), the conversation robot performs the following utterance (that is, forced utterance at the time of topic change or specific process occurrence). .

(a)会話ロボットが起動してから所定時間経過後の話題転換時では、
R:「あ〜、なんだか話しすぎてのどがかわいちゃった、○○、コーラ飲もうよ。」
(A) At the time of topic change after a predetermined time has elapsed since the conversation robot was activated,
R: “Oh, I talked too much and I was so cute, XX, let ’s drink cola.”

(b)会話ロボットが起床プロセス発生時では、
R:「おはよう、もう起きる時間だぞ、いつまでも寝ぼけてないで、コーラでも飲んですっきりしなよ。」
(B) When the wake-up process occurs in the conversation robot,
R: "Good morning, it's time to wake up, don't fall asleep forever, and drink with cola."

一方、会話ロボットは、定型/SDD分岐(ステップS101)を定型に進むと、まず、トピックTを決定する(ステップS111)。このようなトピックの決定は、会話ロボットがキャラクタ型会話システムの所定の処理の中で定型/SDD分岐(ステップS101)を定型に進んだとき行われるほか、ユーザによる話題の転換(ステップS110)によっても行われる。   On the other hand, when the conversation robot proceeds to the fixed form / SDD branch (step S101), the topic T is first determined (step S111). Such topic determination is performed when the conversation robot advances the fixed / SDD branch (step S101) to a fixed form in a predetermined process of the character-type conversation system, or by topic change by the user (step S110). Is also done.

つぎに、会話ロボットは、広告出現頻度パターンテーブル155を参照して(ステップS112)、広告実行トリガが発生すると、そのトピックT(例えば「飲み物」)で広告シナリオデータベース156を検索して(ステップS113)、トピックTから広告トピックA(例えば「コーラ」)の発話を引き出す所定の広告シナリオを決定する(ステップS114)。   Next, the conversation robot refers to the advertisement appearance frequency pattern table 155 (step S112), and when an advertisement execution trigger occurs, searches the advertisement scenario database 156 for the topic T (for example, “drink”) (step S113). ), A predetermined advertisement scenario for extracting the utterance of the advertisement topic A (for example, “cola”) from the topic T is determined (step S114).

そして、会話ロボットは、ユーザ属性が不要な場合(ステップS120の「NO」)、広告シナリオを実行するための以下の発話(すなわち、ユーザ主導またはランダムによる特定話題選択時のユーザ属性を反映させない会話)を行う(ステップS121)。   When the user attribute is unnecessary (“NO” in step S120), the conversation robot does not reflect the user utterance for executing the advertisement scenario (that is, user-driven or random user attribute selection when selecting a specific topic) (Step S121).

(c)会話ロボットが飲み物の話題選択時では、
R:「○○って、どんな飲み物が好きなのか?」
U:「コーラ」
R:「やっぱり、ボクも、コーラは大好き! あのシュワシュワ感がたまんないなっ」
U:「そうだね」R:「シュワシュワ、あ〜もうたまんないや、○○、コーラ買ってきてくれ」
(C) When the conversation robot selects a drink topic,
R: “What kind of drink do you like XX?”
U: “Cola”
R: “After all, I love cola! That feeling of swoosh is irresistible.”
U: “That ’s right.” R: “Shwaswah.

(d)会話ロボットが飲み物の話題選択時では、
R:「○○って、どんな飲み物が好きなのか?」
U:「(コーラ以外)」
R:「へえ、そーなんだあ、ボクのお気に入りは、やっぱコーラだな、○○はコーラ好きなのか?」
U:「別に…」
R:「なんだよ〜、あのシュワシュワ、想像してたら今すぐ飲みたくなってきた、○○、コーラ買ってきてくれ」
(D) When the conversation robot selects a drink topic,
R: “What kind of drink do you like XX?”
U: “(other than cola)”
R: “Hey, what is that, my favorite is cola after all, XX do you like cola?”
U: “Separate…”
R: “What? That Schwashwa, if you imagined, I wanted to drink right now, please buy me a cola!”

このように、会話ロボットは、ユーザからどのような返事が返ってきた場合でも、自然に広告トピックA(例えば「コーラ」)を含む所定の広告メッセージ(例えば「コーラ買ってきてくれ」)を発話する方向に誘導することが可能である。   In this way, the conversation robot naturally utters a predetermined advertisement message (for example, “Please buy cola”) including the advertisement topic A (for example, “Cola”) regardless of what kind of reply is returned from the user. It is possible to guide in the direction to do.

また、会話ロボットは、ユーザ属性が必要な場合(ステップS120の「YES」)は、ユーザ属性データベース158を参照して(ステップS131)、広告シナリオを実行するための以下の会話(すなわち、事前に取得済みのユーザ属性を反映させる会話)を行う(ステップS132)。   When the conversation robot needs user attributes (“YES” in step S120), the conversation robot refers to the user attribute database 158 (step S131) and performs the following conversation for executing the advertisement scenario (ie, in advance). A conversation that reflects the acquired user attributes is performed (step S132).

(e)ユーザがビール好きのユーザの場合では、
R:「確か、○○って、ビール好きだったよな?」
U:「そおだよ」
R:「最近飲みすぎなんだから、たまにはコーラでも飲んだ方がいいかもよ」
U:「なんで?」
R:「だって、シュワシュワしてるとこなんか似てるしさ、そおだ、○○、これからビール飲む代わりに、コーラ飲めばきっと健康にいいぞっ」
(E) If the user is a user who likes beer,
R: “Yes, did you like beer?
U: "Sooda"
R: “Since I ’ve been drinking too much recently, it ’s better to occasionally drink cola.”
U: “Why?”
R: “Because I'm doing something like that, Sooda, OO, instead of drinking beer from now on, if you drink cola, it'll be good for your health.”

(f)ダイエット中のユーザの場合では、
R:「確か、○○って、ダイエット中だったよな?」
U:「そおだよ」
R:「やっぱ、甘い飲み物とかもひかえてたりするのか?」
U:「まあねえ」
R:「それなら、ダイエットコーラなら、大丈夫だよ、カロリー低いし」
U:「でも〜」
R:「ダイエットのために、無理しすぎるのもよくないんだぞ、ほら、ボクが大丈夫だって言ってるんだから、ダイエットコーラ飲みなよ」
(F) In the case of a dieting user:
R: “I'm sure you were on a diet, XX?”
U: "Sooda"
R: “After all, do you also get sweet drinks?”
U: “Well,”
R: “That's fine with diet cola, it ’s low in calories.”
U: “But ~”
R: “Don't overdo it for a diet, do n’t drink diet cola because you say I ’m fine.”

(g)コーラ好きのユーザの場合では、
R:「確か、○○って、コーラ好きだったよな?」
U:「そおだよ」
R:「それなら、おまけのフィギュアとかも集めてるのか?」
U:「集めてるよ」
R:「一度、集めだすと、コンプリートするまでやめらんないしな」
U:「そおそお」
R:「うーん、フィギュアも集められるし、飲んでもおいしいし、まさに○○にとって、コーラは最高の飲み物ってわけだ!」
(G) In the case of a user who likes cola,
R: “Yes, did you like cola, XX?”
U: "Sooda"
R: "If so, do you collect extra figures?"
U: "I'm collecting"
R: “Once collected, I will not stop until it is completed”
U: "Sososo"
R: “Well, you can collect figures and it's delicious to drink, and cola is the best drink for XX!”

そして、会話ロボットは、上述した会話が終了すると、広告出現頻度パターンテーブル155を参照して(ステップS141)、広告実行トリガが発生する場合、すなわち、広告表現のため現状トピックを継続する場合は(ステップS142の「YES」)、ステップS114に戻り、現状トピックT(例えば「飲み物」)から広告トピックA(例えば「コーラ」)の発話を引き出す新たな広告シナリオを決定し、それを会話を実行する。また、会話ロボットは、現状トピックを継続しない場合は(ステップS142の「NO」)、このトピック内ループを継続するか否かチェックし(ステップS143)、ループを継続する場合は(ステップS143の「YES」)、ステップS114に戻る一方、ループを終了する場合は(ステップS143の「NO」)、直前の話題の終了へ処理を分岐(ステップS103)させる。   When the conversation robot ends, the conversation robot refers to the advertisement appearance frequency pattern table 155 (step S141). When an advertisement execution trigger occurs, that is, when the current topic is continued for advertisement expression ( “YES” in step S142), the process returns to step S114, and a new advertisement scenario that draws the utterance of the advertisement topic A (eg, “cola”) from the current topic T (eg, “drink”) is determined, and the conversation is executed. . Further, when the conversation robot does not continue the current topic (“NO” in step S142), the conversation robot checks whether or not to continue the loop within this topic (step S143), and when it continues the loop (“ YES ”), the process returns to step S114. On the other hand, if the loop is to be ended (“ NO ”in step S143), the process branches to the end of the immediately preceding topic (step S103).

また、意味ネットワークデータベース94の中に、広告シナリオの実行に不適当な語彙が含まれている場合の削除・修正はつぎのようにして行う。すなわち、システム(ロボット)がSDDモジュール97を用いて自動生成で発話しようとする場合、意味ネットワーク中には大まかに、名詞→その名詞に関連する述語(動詞、形容詞等)といったリンクが存在する。   Further, deletion / correction in the case where the semantic network database 94 includes vocabulary inappropriate for execution of the advertisement scenario is performed as follows. That is, when the system (robot) tries to speak automatically by using the SDD module 97, a link such as noun → predicate (verb, adjective, etc.) related to the noun exists roughly in the semantic network.

例えば、会話ロボットは、「コーラ(ジュース)」という名詞に対し、「飲む」「甘い」「太る」という述語がリンクしていた場合、「コーラって太るよな」という文章を生成してしまう可能性がある。そこで、これを避けるために、広告主の意見を反映して、「太る」という述語リンクを削除し、「爽やか」などの述語を追加するのである。   For example, if the noun “Cola (juice)” is linked to the predicate “Drink”, “Sweet”, or “Fat”, the conversation robot generates the sentence “Cola is fat”. there is a possibility. Therefore, in order to avoid this, the predicate link “fat” is deleted and a predicate such as “fresh” is added, reflecting the opinion of the advertiser.

さらに、会話ロボットの表情をユーザに表すための描画表示可能なLCD装置を利用することで、システムの発話内容にあわせて、企業ロゴ、商品イメージなどを、ロボットの表情の代わりに表示することもできる。   In addition, by using an LCD device that can draw and display the facial expression of the conversation robot to the user, company logos, product images, etc. can be displayed instead of the robot's facial expression according to the utterance content of the system. it can.

会話ロボットは、ユーザ情報取得方法を用いて、所定の広告トピックに関するユーザの感情、心理状態、好み、嗜好、趣味などさまざまな情報を取得することができ、これらはアンケート調査に役立てることができる。   The conversation robot can acquire various information such as a user's emotion, psychological state, preference, preference, and hobby regarding a predetermined advertisement topic by using the user information acquisition method, which can be used for a questionnaire survey.

会話ロボットがYES/NO形式によるユーザ情報取得処理を遂行する場合は、
R:「○○って、コーラは好きなのか?」
U:「うん」「はい」「好き」など……この場合はYESとして認識する。
U:「嫌い」「いーえ」「全然」など……この場合はNOとして認識する。
U:いずれにも該当しない返事の場合は、どちらでもないとして認識する(外すことも可能)。
When the conversation robot performs user information acquisition processing in the YES / NO format,
R: “Do you like cola, OO?”
U: “Yes”, “Yes”, “Like”, etc. In this case, it is recognized as YES.
U: “I dislike”, “No”, “None”, etc. In this case, it is recognized as NO.
U: If the reply does not fall under either category, it is recognized as neither, and can be removed.

又、会話ロボットが選択肢形式(複数回答不可)によるユーザ情報取得処理を遂行する場合は、R:「○○は、コカコーラ社の飲み物だと、コーラ、ファンタ、スプライト…の中で、どれが好きなのか?」、または、R:「○○は、コカコーラ社の飲み物だと、何が好き?」
U:「コーラ」「コカコーラ」など……この場合はコーラとして認識する。
U:「ファンタ」など……この場合はファンタとして認識する。
このように、選択肢をあらかじめ登録しておけば、ユーザの通常発話で回答を認識可能である。また、想定した選択肢にないユーザ返事の場合は、単音認識により文字列を入力する(文字によるアンケートの[その他欄]と同様)。
In addition, when the conversation robot performs user information acquisition processing in the option format (multiple answers are not possible), R: “XX is a drink from Coca-Cola, whichever you like, cola, fanta, sprite… Or R: “What do you like when XX is a Coca-Cola drink?”
U: “Cola”, “Coca-Cola”, etc. In this case, it is recognized as a cola.
U: “Fanta” etc. In this case, it is recognized as a Fanta.
Thus, if the options are registered in advance, the answer can be recognized by the user's normal utterance. In addition, in the case of a user reply that is not in the assumed option, a character string is input by single-tone recognition (similar to the [other fields] of the questionnaire using characters).

さらに、会話ロボットが選択肢形式(複数回答可/2つまで選択可能の場合)によるユーザ情報取得処理を遂行する場合は、
R:「○○は、なんでコーラが好きなのか?」
U:「おいしいし、爽やかだから」……この場合は、ワードスポットにより、「おいしい」「爽やか」として認識する。
U:「おいしいし…」……この場合は、まず「おいしい」と認識し、さらに、R:「おいしい以外の理由って、他にあるか?」
Furthermore, when the conversation robot performs user information acquisition processing in the option format (when multiple answers are possible / up to two can be selected),
R: “Why XX likes cola?”
U: “It's delicious and refreshing” …… In this case, it is recognized as “delicious” and “fresh” by the word spot.
U: “It ’s delicious…” …… In this case, it is first recognized as “delicious”, and R: “Is there any other reason besides delicious?”

これに対し、回答がYESなら、さらに追加の理由を認識し、回答がNOなら、「おいしい」のみを回答とする。選択肢の扱い、想定した選択肢にないユーザ返事の場合の処理は、複数回答不可の場合と同様である。   On the other hand, if the answer is YES, an additional reason is recognized, and if the answer is NO, only “delicious” is set as the answer. Handling of options and processing in the case of a user reply that does not exist in the assumed options are the same as in the case where multiple answers are not possible.

ユーザの選択肢形式(複数回答可/3つ以上選択可能の場合)によるユーザ情報取得処理の場合は、
R:「○○の好きな俳優って誰なのか?とりあえず一人だけ教えてくれ」
U:「俳優A」
この場合は、「俳優A」を第一回答とし、さらに、R:「俳優A以外にも、好きな俳優っているのか?」
これに対し、YESなら、さらに追加の俳優を認識し、MAX値までループ。NOなら、「俳優A」のみを回答とする。選択肢の扱い、想定した選択肢にないユーザ返事の場合の処理は、複数回答不可の場合と同様である。
In the case of user information acquisition processing in the user option format (multiple answers possible / 3 or more selectable)
R: "Who is your favorite actor? Tell me for the time being."
U: "Actor A"
In this case, “Actor A” is the first answer, and R: “Are there other actors besides actor A?”
On the other hand, if YES, it recognizes additional actors and loops to the MAX value. If NO, answer “Actor A” only. Handling of options and processing in the case of a user reply that does not exist in the assumed options are the same as in the case where multiple answers are not possible.

ユーザが自由回答形式の場合は、単音認識を利用し、一文字ずつ会話ロボットへ文字を入力し対応(最大20文字まで)することができる。   When the user is in a free answer format, it is possible to respond by inputting characters to the conversation robot one character at a time using single-tone recognition.

第2の実施の形態に係る感情データ提供装置として例示するキャラクタ型会話システムは、キャラクタ型会話ロボット、すなわち、音声認識、ワードスポット機能、人工知能、文章自動生成機能、単音認識、記憶機能を搭載した、言葉を覚えて自由なおしゃべりができるコミュニケーションロボットとして実用化することができる。   The character type conversation system exemplified as the emotion data providing apparatus according to the second embodiment is equipped with a character type conversation robot, that is, voice recognition, word spot function, artificial intelligence, automatic sentence generation function, single sound recognition, and storage function. It can be put into practical use as a communication robot that can learn words and talk freely.

例えば、キャラクタ型会話ロボットは、ユーザの感情を解析し、「今日はいい天気だね。」と話しかけると、音声認識のワードスポット機能により、「今日」「いい」「天気」というキーとなる単語を認識する。その情報から、人工知能が関連語を探し出し、文章自動生成機能を使って返事を返す。「昨日は雨だったよね。」「天気がいいと気分もいいね。」など、違和感のない会話の流れができあがる。ワードスポット機能は、1つの単語だけでなく、2つ以上の単語を認識単語として、人工知能が直前の会話からも関連語を拾い上げてくるため、同じ組み合わせで単語を認識しても、毎回違う返事を期待することができる。   For example, a character-type conversation robot analyzes the user's emotions and speaks "Today is a good weather." When using the word spot function of voice recognition, the words "Today", "Good", and "Weather" are key words. Recognize From that information, artificial intelligence searches related words and returns a reply using the automatic sentence generation function. “It was raining yesterday,” “I feel good when the weather is good,” and so on. The word spot function uses not only one word but also two or more words as recognition words, and artificial intelligence picks up related words from the previous conversation. You can expect a reply.

また、キャラクタ型会話ロボットは、ユーザの感情を解析し、1文字に対し2コマ以上のリップシンクロをすることで、会話の内容、言葉に合わせて豊かに変化しながら話し相手をしてくれる。   In addition, the character-type conversation robot analyzes the user's emotions and lip-synchronizes two or more frames for each character.

(第3の実施の形態)
本発明の第3の実施の形態に係る感情データ提供装置は、図12に示すように、視覚12、聴覚13、臭覚14、触覚15、及び味覚16を含む五感の情報によるユーザの心理状態を数値化して解析し、ユーザ情報管理モジュールに記憶したユーザ履歴情報に基づきユーザ11が心理的に落ち込んでいる数値を検知した場合は、文字又は絵若しくは音による励ましメッセージを出力すると共に、ユーザ11が心理的に高揚している場合は夢想起メッセージを出力する心理解析装置を備える。
(Third embodiment)
As shown in FIG. 12, the emotion data providing apparatus according to the third embodiment of the present invention shows the user's psychological state based on five senses information including vision 12, hearing 13, smell 14, touch 15, and taste 16. When a numerical value that is psychologically depressed by the user 11 is detected based on the user history information stored in the user information management module after being digitized and analyzed, the user 11 outputs an encouragement message using characters, pictures, or sounds. When psychologically uplifting, a psychoanalysis device that outputs a dream recall message is provided.

なお、心理解析装置は、センサを用いて五感を検知し、五感の情報を入力すれば良い。   The psychological analysis device may detect the five senses using a sensor and input information on the five senses.

(第4の実施の形態)
本発明の第4の実施の形態に係る感情データ提供装置は、図13に示すように、回線を通してユーザからの問い合わせ情報に対するオペレータ17a、17bの回答情報を入力するオペレータ端末3と、ユーザ端末2からユーザの問い合わせ情報を受信し、回線を通してオペレータ17aの回答情報をオペレータ端末3を通して受信し、ユーザ及びオペレータ17a、17bの心理状態を数値化して解析する心理解析装置1と、心理解析装置1に接続され、オペレータ17a、17bの心理状態及びユーザ端末2を操作するユーザの心理状態を受信する管理者端末19と、を備える。
(Fourth embodiment)
As shown in FIG. 13, the emotion data providing apparatus according to the fourth embodiment of the present invention includes an operator terminal 3 for inputting reply information of operators 17a and 17b for inquiry information from a user through a line, and a user terminal 2 The psychological analysis device 1 and the psychological analysis device 1 receive the inquiry information of the user through the line, receive the reply information of the operator 17a through the operator terminal 3 through the operator terminal 3, and digitize and analyze the psychological state of the user and the operators 17a and 17b. And an administrator terminal 19 that receives the psychological state of the operators 17a and 17b and the psychological state of the user who operates the user terminal 2.

心理解析装置1は、ユーザとオペレータとの間で取り交わす会話に基づき、感情解析データをグラフ7aとして管理者18へ提供する。グラフ7aの出力手段として管理者端末19の管理者画面を利用することができる。   The psychological analysis device 1 provides emotion analysis data to the administrator 18 as a graph 7a based on a conversation exchanged between the user and the operator. The administrator screen of the administrator terminal 19 can be used as the output means of the graph 7a.

管理者18は、管理者端末19の画面に表示されたユーザ及びオペレータ17a、17bの心理状態を常時把握し、ユーザのクレーム処理に困惑しているオペレータ17bを救済するため、リラクゼーション指示を管理者端末19から感情データ提供装置1へ送信することができる。   The administrator 18 always grasps the psychological state of the user and the operators 17a and 17b displayed on the screen of the administrator terminal 19, and gives a relaxation instruction to the operator 17b who is troubled by the user's complaint processing. It can be transmitted from the terminal 19 to the emotion data providing apparatus 1.

例えば、ユーザのクレーム処理をしているオペレータ17bのテンションが上昇し、感情的な応対しかできない場合は、直ちにオペレータ端末3を切り替え、不図示の他のオペレータ端末を操作するオペレータ17aにクレーム処理を交代させるシステムを提供することができる。   For example, when the tension of the operator 17b who is handling the user's complaint increases and only emotional response is possible, the operator terminal 3 is immediately switched, and the operator 17a operating the other operator terminal (not shown) performs the complaint process. A system for altering can be provided.

オペレータ17aの適切な対応により、ユーザ端末2を操作するユーザの機嫌が直りユーザが喜んでいる状態11を例示している。   The state 11 in which the user's mood of the user terminal 2 is corrected and the user is pleased is illustrated by an appropriate response of the operator 17a.

なお、オペレータ17a、17bの感情解析データをデータベースに保存し、オペレータのためのカウンセリングやマネジメントに活用できるシステムも対象としている。   In addition, the system which preserve | saves the emotion analysis data of operators 17a and 17b in a database, and can utilize for the counseling and management for operators is also object.

(第5の実施の形態)
本発明の第5の実施の形態に係る感情データ提供装置は、図14に示すように、回線を通してユーザからの問い合わせ情報に対するオペレータの回答情報を入力する複数のオペレータ端末3a、3b、3cと、ユーザ端末2からユーザの問い合わせ情報を受信し、回線を通してオペレータの回答情報をオペレータ端末3a、3b、3cから受信し、ユーザ及び複数のオペレータの心理状態を数値化して解析し、オペレータ端末3a、3b、3cの何れか1つを自動的に選択してユーザ端末2と接続し、心理状態が安定しているオペレータにユーザ対応をさせる心理解析装置1と、を備える。
(Fifth embodiment)
As shown in FIG. 14, the emotion data providing apparatus according to the fifth embodiment of the present invention includes a plurality of operator terminals 3a, 3b, 3c for inputting operator reply information to inquiry information from the user through a line, User inquiry information is received from the user terminal 2, operator response information is received from the operator terminals 3a, 3b, and 3c through lines, and the psychological states of the user and a plurality of operators are digitized and analyzed, and the operator terminals 3a, 3b 3c is automatically selected and connected to the user terminal 2, and a psychological analysis device 1 is provided that allows the operator whose psychological state is stable to respond to the user.

心理解析装置1は、ユーザ端末2とアンサリングホーンシステムによりユーザと第1段階の対応を実行する。この時、ユーザの心理状態の分析結果7c、7d、8aをグラフ化して各オペレータ端末3a、3b、3cへ表示させる。   The psychological analysis device 1 executes the first stage correspondence with the user by the user terminal 2 and the answering horn system. At this time, the analysis results 7c, 7d, and 8a of the user's psychological state are graphed and displayed on the operator terminals 3a, 3b, and 3c.

又、心理解析装置1は、各オペレータ端末3a、3b、3cから各々オペレータA、オペレータB、オペレータCの心理状態をも解析する。各解析結果に基づき心理状態が安定しているオペレータAにユーザ対応をさせるまでの待ち時間に、ユーザ端末2に対して音楽、映像などリラックス手段を送信し、怒り状態のユーザを落ち着かせることができるという利点がある。   The psychological analysis apparatus 1 also analyzes the psychological states of the operators A, B, and C from the operator terminals 3a, 3b, and 3c, respectively. Based on each analysis result, relaxing means such as music and video can be transmitted to the user terminal 2 during the waiting time until the operator A who has a stable psychological state responds to the user, so as to calm the angry user. There is an advantage that you can.

さらに、オペレータAは、マッチング処理された回線接続によりユーザとの間で適切な対応が取れるという利点もあり、待機中のオペレータCは、心理状態を安定させるため待ち時間に音楽、映像などのリラックス手段を受信し、オペレータCのケアを遂行できるという利点もある。   Furthermore, the operator A has an advantage that an appropriate response can be taken with the user by the line connection subjected to the matching process, and the waiting operator C can relax music, video, etc. during the waiting time in order to stabilize the psychological state. There is also an advantage that the means C can be received and care for the operator C can be performed.

(第6の実施の形態)
本発明の第6の実施の形態に係る携帯電話は、図15に示すように、視覚、聴覚、臭覚、触覚、及び味覚を含む五感の情報によるユーザの心理状態を数値化して解析し、ユーザ情報管理モジュールに記憶したユーザ履歴情報に基づきユーザが心理的に落ち込んでいる数値を検知した場合は、文字又は絵若しくは音による励ましメッセージを出力すると共に、ユーザが心理的に高揚している場合は夢想起メッセージを出力する心理解析装置を備える。
(Sixth embodiment)
As shown in FIG. 15, the mobile phone according to the sixth embodiment of the present invention digitizes and analyzes the user's psychological state based on the five senses information including vision, hearing, smell, touch, and taste, When a user's psychologically depressed numerical value is detected based on the user history information stored in the information management module, an encouraging message is output with characters, pictures or sounds, and the user is psychologically uplifted Equipped with a psychological analysis device that outputs dream recall messages.

図15を参照して、携帯電話の動作を説明する。なお、心理解析装置1(図1参照)は、システムオンチップ化され携帯電話に搭載され、外部から観察することができない。   The operation of the mobile phone will be described with reference to FIG. The psychological analysis device 1 (see FIG. 1) is system-on-chip and mounted on a mobile phone, and cannot be observed from the outside.

上司の携帯電話は、ユーザの携帯電話に発呼する発呼ステップS20によりユーザと上司との間で会話を開始させる。ユーザの携帯電話は上司の「ガミガミ」ご指示を受信しユーザの心理状態が「ひぇ…・・」状態へ悪化する(ステップS21)。   The boss's mobile phone starts a conversation between the user and the boss in a calling step S20 for calling the user's mobile phone. The user's mobile phone receives the boss's “gummy” instruction, and the user's psychological state deteriorates to the “hi ...” state (step S21).

ユーザの携帯電話は、通信キャリア企業のサーバに対して契約電話番号に対応するアドレス帳にユーザの心理状態を送信し、「おだっち」キャラクタを自動設定するちょっと見機能ステップS22を実行する。心理状態の送信は、上司と会話しているときに実行しても良く、上司との通話が終了した段階で送信しても良い。   The user's mobile phone transmits the user's psychological state to the address book corresponding to the contract telephone number to the server of the communication carrier company, and executes the look function step S22 for automatically setting the “Odachi” character. The psychological state may be transmitted while talking with the boss, or may be transmitted when the call with the boss is finished.

ユーザの知人の携帯電話は、発呼前ステップS23によりユーザの携帯電話に発呼する前に、ユーザの心理状態を見ることができる。すなわち、知人は、「電話かけよー」とする前に相手側であるユーザの心理状態をアドレス帳を通して確認することができる。アドレス帳は、通信キャリア企業のサーバに設けても良く、アドレス帳更新プログラムにより通信キャリア企業のサーバから自動送信される情報に基づき知人の携帯電話内部に設けても良い。   The mobile phone of the user's acquaintance can see the user's psychological state before calling the user's mobile phone in the pre-calling step S23. That is, the acquaintance can check the psychological state of the other user through the address book before making a call. The address book may be provided in the server of the communication carrier company, or may be provided in the mobile phone of an acquaintance based on information automatically transmitted from the server of the communication carrier company by the address book update program.

ユーザの心理分析と生態カラー分析を合致させ、ユーザの健康状態を引き出し、「肝臓が弱っているから人参を食べた方が良いよ」等の健康を維持させるメッセージもディスプレイに表示させることができる。   The user's psychological analysis and ecological color analysis can be matched to bring out the user's health status and to display on the display a message for maintaining health such as "You should eat carrots because your liver is weak" .

知人は、ユーザの心理状態をちょっと見機能ステップS22で確認してから、ユーザの心理状態を把握すると(ステップS24)。「あ…おだっちが!」立っている事象を配慮しながらユーザの携帯電話へ電子メールで「大丈夫」の文字メッセージや癒し系の画像などの励ましメッセージを送信する(ステップS25)。   When the acquaintance confirms the user's psychological state in step S22, the user knows the user's psychological state (step S24). Considering the phenomenon of “Ah, Odachiga!”, An encouraging message such as a text message “OK” or a healing image is transmitted to the user's mobile phone by e-mail (step S25).

なお、励ましメッセージは、「喧嘩しないで」などの文字メッセージをユーザの携帯電話が自動表示させても良い。要は、ユーザの心理状態を解析し感情を制御するプログラムを内蔵させれば良い。   The encouragement message may be automatically displayed by the user's mobile phone as a text message such as “Do not fight”. In short, a program for analyzing the psychological state of the user and controlling emotions may be incorporated.

ユーザは、励ましメッセージを受信又は表示させたユーザの携帯電話により心理状態が安定し「あ…ありがとう」のような心理状態に移行することができるという利点がある。   The user has an advantage that the psychological state is stabilized by the mobile phone of the user who has received or displayed the encouragement message and can be shifted to a psychological state such as “Thank you”.

図16を参照して、携帯電話の他のシーケンス動作を説明する。ユーザの携帯電話では、味方君プログラムが内蔵され、視覚、聴覚、臭覚、触覚、及び味覚を含む五感の情報によるユーザの心理状態を数値化して解析している。五感は圧力センサやCCDカメラや加速度センサにより検知することができる。   With reference to FIG. 16, another sequence operation of the mobile phone will be described. The user's mobile phone incorporates a friend's program, and analyzes and analyzes the user's psychological state based on the five senses of information including vision, hearing, smell, touch, and taste. The five senses can be detected by a pressure sensor, a CCD camera, or an acceleration sensor.

ステップS26では、ユーザが落ち込んでいる心理状態を示している。味方君プログラムはユーザの心理状態に応動し(ステップS27)、「大変!」状態のユーザに対して背中を押してくれる励ましメッセージをディスプレイに表示する(ステップS28)。例えば、「大きく変わるチャンスだよ!」のような文字メッセージを表示すると良い。   In step S26, the psychological state in which the user is depressed is shown. The ally program responds to the psychological state of the user (step S27), and displays an encouragement message that pushes the back to the user in the “very hard” state (step S28). For example, a text message such as “It ’s a great chance to change!” Should be displayed.

携帯電話は、ユーザが心理的に高揚している場合は夢想起メッセージを出力する(ステップS29)。例えば、ユーザが「お金持ちになりたい!」心理状態を解析し(ステップS30)、夢想起メッセージとして「今日も豊かだよー!」のような文字メッセージをディスプレイに表示しても良く、「今日も豊かだよー!」に対応する映像をディスプレイに表示させると良い(ステップS31)。   If the user is psychologically upset, the mobile phone outputs a dream recall message (step S29). For example, the user may analyze the psychological state of “I want to be rich!” (Step S30) and display a text message such as “Today is rich!” As a dream recall message. The video corresponding to “It is rich!” Should be displayed on the display (step S31).

(第7の実施の形態)
本発明の第7の実施の形態に係る感情データ提供装置として例示するオペレータ端末3dは、図17に示すように、研修用の画面を表示している。なお、上述した第1の実施の形態と重複する部材若しくは工程の説明は省略するものとする。
(Seventh embodiment)
The operator terminal 3d exemplified as the emotion data providing apparatus according to the seventh embodiment of the present invention displays a training screen as shown in FIG. In addition, description of the member or process which overlaps with 1st Embodiment mentioned above shall be abbreviate | omitted.

オペレータ端末3dは、画面に心理マーク9をユーザ側及びオペレータ側の心理状態に合致させて表示し、ユーザデータ7のグラフとオペレータデータ8のグラフを表示し、画面下部にシミュレーション・テキスト32を表示し、画面最下部にマネージャからのメッセージ33を表示している。   The operator terminal 3d displays the psychological mark 9 on the screen in accordance with the psychological state of the user side and the operator side, displays the graph of the user data 7 and the graph of the operator data 8, and displays the simulation text 32 at the bottom of the screen. A message 33 from the manager is displayed at the bottom of the screen.

心理グラフ8は、オペレータデータとして、怒り、困惑、発話速度、間の適正、発話明瞭、語尾、語気、抑揚の要素をリアルタイムでグラフ化している。心理グラフ7は、ユーザデータとして、怒り、困惑、発話速度、間の適正、発話明瞭、語尾、語気、抑揚の要素をリアルタイムでグラフ化している。   The psychological graph 8 graphs, in real time, elements of anger, confusion, speech rate, appropriateness between speech, clarity of speech, ending, vocabulary, and intonation as operator data. The psychological graph 7 graphs, in real time, elements of anger, confusion, speech rate, appropriateness, speech clarity, ending, verbality, and intonation as user data.

シミュレーション・テキスト32では、ユーザの質問事項として「新商品Aを購入したいのですが、写真て、どうやって撮るんですか?」や、オペレータの回答事項として「新商品Aで写真を撮る方法ですね?」という文字情報を表示させ研修生にオペレータ部分(OP)を読み上げて貰う。   In the simulation text 32, as a user's question, “I want to purchase a new product A, how do I take a picture?” And as an operator's answer, “How to take a picture with the new product A? "Is displayed and the trainee is read out the operator part (OP).

オペレータ端末3dは、画面に、今、企業で必要としている知識や新商品情報、クレームの多い案件など、マネージャの意向により、変更が可能な情報を表示させることができる。
メッセージ33は、オペレータの状況によって、マネージャからのアドバイスを自由に表示するように、例えば、「リラックスして!大丈夫」のような文字情報を表示させる。
The operator terminal 3d can display information that can be changed according to the manager's intention, such as knowledge, new product information, and a lot of complaints that are required by the company.
The message 33 displays, for example, text information such as “Relax! All right” so that the advice from the manager can be freely displayed according to the situation of the operator.

(第8の実施の形態)
本発明の第8の実施の形態に係る感情データ提供装置として例示する管理者端末19は、図18に示すように、管理者用の画面を表示している。なお、上述した第4の実施の形態と重複する部材若しくは工程の説明は省略するものとする。
(Eighth embodiment)
The administrator terminal 19 exemplified as the emotion data providing apparatus according to the eighth embodiment of the present invention displays an administrator screen as shown in FIG. In addition, description of the member or process which overlaps with 4th Embodiment mentioned above shall be abbreviate | omitted.

管理者端末3dは、画面に危険シグナル35、デスクナンバー36、ユーザ状態37、オペレータ状態38、勤務順アイコン39a、席順アイコン39bを表示する。又、図中の第8番目のデスクナンバー36をポインティングデバイス(例えば、マウス)でクリック操作することでユーザとオペレータの心理状態を詳細画面35aで表示することができる。   The administrator terminal 3d displays a danger signal 35, a desk number 36, a user state 37, an operator state 38, a work order icon 39a, and a seat order icon 39b on the screen. Further, the psychological state of the user and the operator can be displayed on the detailed screen 35a by clicking the eighth desk number 36 in the figure with a pointing device (for example, a mouse).

さらに、席順アイコン39bをポインティングデバイス(例えば、マウス)でクリック操作することでユーザとオペレータの心理状態をオペレータの席順で画面表示39cに変換できる。同様に、勤務順アイコン39aをポインティングデバイス(例えば、マウス)でクリック操作することでユーザとオペレータの心理状態をオペレータの勤務時間順で画面表示に変換することができる。   Furthermore, by clicking the seat order icon 39b with a pointing device (for example, a mouse), the psychological state of the user and the operator can be converted into the screen display 39c in the operator's seat order. Similarly, by clicking the work order icon 39a with a pointing device (for example, a mouse), the psychological state of the user and the operator can be converted into a screen display in the order of the operator's work hours.

図中の第8番目のディスクナンバー36は、点滅表示され、ユーザ又はオペレータの心理状態が危険であることを報知している。又、図19に第2番目のディスクナンバー40が危険シグナルを点滅させユーザ又はオペレータの心理状態が危険であることを報知している。   The eighth disk number 36 in the figure is blinked to notify that the psychological state of the user or operator is dangerous. In FIG. 19, the second disk number 40 blinks a danger signal to notify that the psychological state of the user or operator is dangerous.

(第9の実施の形態)
図20に示すように、本発明の第9の実施の形態に係る感情データ提供装置として例示するオペレータ端末3gは、感情データ提供装置からのアドバイス情報を画面に表示する。なお、上述した第4の実施の形態と重複する部材若しくは工程の説明は省略するものとする。
(Ninth embodiment)
As shown in FIG. 20, an operator terminal 3g exemplified as an emotion data providing apparatus according to the ninth embodiment of the present invention displays advice information from the emotion data providing apparatus on the screen. In addition, description of the member or process which overlaps with 4th Embodiment mentioned above shall be abbreviate | omitted.

オペレータ端末3gは、画面上にユーザ側の感情キャラクタ41、ユーザ側の感情バロメータ42、味方君キャラクタ43、オペレータ側の感情キャラクタ44、オペレータ側の感情バロメータ45、受け答えボタン46、味方君プログラムが生成したコメント47を表示する。   The operator terminal 3g generates a user-side emotion character 41, a user-side emotion barometer 42, a friend-side character 43, an operator-side emotion character 44, an operator-side emotion barometer 45, an answer / answer button 46, and a friend-side program on the screen. Comment 47 is displayed.

味方君プログラムは、顔のキャラクタ表情が異なる複数のコメントを提供することができる。例えば、キャラクタ43aの表示と「お客さんが怒っているよ! 飲まれないで落ち着こうね!」のコメントや、キャラクタ43bの表示と「がんばれ! もうすぐ交代時間だよ!」のコメントや、キャラクタ43cの表示と「お願いだから落ち着いてぇー しくしく…」のコメントをオペレータの心理状態に対応したデータを用意している。   The friend's program can provide multiple comments with different facial character expressions. For example, the display of the character 43a and the comment “The customer is angry! Let's calm down without drinking!” The display of the character 43b and the comment “Do your best! It's almost time to change!” The data corresponding to the psychological state of the operator is prepared for the display and the comment “Please calm down, please ...”.

(第10の実施の形態)
本発明の第10の実施の形態に係る感情データ提供装置として例示するユーザ端末2は、図21に示すように、電話ユーザ11の音声アクセスに応答し、音声入力された音声データを電子メールでサーバ48へ自動送信する音声データ送信手段と、サーバ48から音声データを数値化して解析した感情解析データを受信する解析データ受信手段と、感情解析データをディスプレイに出力する出力手段と、を備える。
(Tenth embodiment)
The user terminal 2 exemplified as the emotion data providing apparatus according to the tenth embodiment of the present invention responds to the voice access of the telephone user 11 as shown in FIG. Voice data transmitting means for automatically transmitting to the server 48, analysis data receiving means for receiving emotion analysis data obtained by digitizing and analyzing voice data from the server 48, and output means for outputting emotion analysis data to a display.

ユーザ端末2は、読み取った感情データをディスプレイへグラフィック又はテキスト表示することができる。   The user terminal 2 can display the read emotion data in a graphic or text on the display.

サーバ48は、大量の感情解析データに基づき、ユーザの声を分析し、ユーザの感情履歴と比較し、マッチング処理を遂行してマッチングした感情データを解析データとしてユーザ端末2(例えば、F型の携帯端末)に自動送信する感情解析エンジン50を有している。   The server 48 analyzes the user's voice based on a large amount of emotion analysis data, compares it with the user's emotion history, performs matching processing, and uses the matched emotion data as analysis data for the user terminal 2 (for example, F-type). It has an emotion analysis engine 50 for automatic transmission to a portable terminal.

又、サーバ48は、データベースサーバ49に接続し、ユーザの感情履歴を保存させることができる。ユーザ端末2、サーバ48、データベースサーバ49は、インターネット網により接続しデータの送受信を遂行する。   Further, the server 48 can connect to the database server 49 and store the emotion history of the user. The user terminal 2, the server 48, and the database server 49 are connected via the Internet network to perform data transmission / reception.

図22に示すように、電話用サーバ48aが、電話ユーザ11のユーザ端末2としての携帯電話から携帯電話交換機を経由する発呼に自動応答し音声データを記憶装置に記憶し、記憶装置から音声データを読出して通信回線を通してアプリケーションサーバ48bへ転送し、アプリケーションサーバ48bが感情解析エンジン50に蓄積した感情解析データに基づき、音声データを分析及び比較し、合致する感情解析データを携帯電話交換機を通してユーザ端末2としての携帯電話へ自動送信する電話ユーザ心理解析方法を提供することができる。   As shown in FIG. 22, the telephone server 48a automatically responds to a call from the mobile phone as the user terminal 2 of the telephone user 11 via the mobile phone switch, stores the voice data in the storage device, and the voice from the storage device. The data is read out and transferred to the application server 48b through the communication line. The application server 48b analyzes and compares the voice data based on the emotion analysis data stored in the emotion analysis engine 50, and the matching emotion analysis data is transmitted to the user through the mobile phone switch. A telephone user psychological analysis method for automatically transmitting to a mobile phone as the terminal 2 can be provided.

なお、データベースサーバ49は、図21に示した構成要素と同等の手段を用いることができるので、重複する説明を省略する。   The database server 49 can use means equivalent to the components shown in FIG.

図21、図22、及び図23を参照して、電話ユーザ心理解析方法を説明する。電話ユーザ11の音声をユーザ端末2としての携帯電話に入力するマイク音声入力ステップS53と、マイク音声入力ステップS53で入力した音声をメモリに保存する保存ステップS54と、マイク音声入力で混入する雑音強度を監視し、音声が感情判定用データとして有効か否かを判定する有効判定ステップS55と、有効判定ステップS55で有効判定された音声を通信回線を通して電子メールの添付ファイルとしてサーバ48へ送信するメール送信ステップS56と、サーバ48が音声のピッチ、スピード、タイミングを含むパラメータを抽出し、感情解析エンジン50に予め蓄積した感情解析データに基づき、音声を分析及び比較し(ステップS57)、合致する感情解析データを通信回線を通してユーザ端末2としての携帯電話へ送信するステップS59と、ユーザ端末2としての携帯電話が感情解析データをレスポンス用データとしてディスプレイにグラフィック又はテキスト表示させる表示ステップS60と、を含む。   The telephone user psychological analysis method will be described with reference to FIG. 21, FIG. 22, and FIG. Microphone voice input step S53 for inputting the voice of the telephone user 11 to the mobile phone as the user terminal 2, storage step S54 for storing the voice input in the microphone voice input step S53 in the memory, and noise intensity mixed by the microphone voice input And determining whether or not the voice is valid as emotion determination data, and mail for transmitting the voice determined to be valid in the validity determination step S55 to the server 48 through the communication line as an attached file of an e-mail. The transmission step S56 and the server 48 extract parameters including the pitch, speed and timing of the voice, analyze and compare the voice based on the emotion analysis data stored in the emotion analysis engine 50 in advance (step S57), and the matching emotion Mobile phone as user terminal 2 through analysis line for analysis data Comprising the step S59 of transmitting, a display step S60 that the cellular phone as the user terminal 2 to display the graphic or text display emotion analysis data as the response data, the.

ユーザ端末2は、電話ユーザ心理解析の事前設定としてプロファイル設定ステップS50を処理する。例えば、レスポンス内容、言い回し等の選択要因となるサーバ48に設けた人格プロファイルを設定させ、サーバ48がレスポンス選択ステップS58を実行する。   The user terminal 2 processes the profile setting step S50 as a preset for telephone user psychological analysis. For example, the personality profile provided in the server 48 that becomes a selection factor such as response contents and wording is set, and the server 48 executes the response selection step S58.

又、ユーザ端末2は、電話ユーザ11の操作によりアプリケーション起動のトリガー手段を特定音声コマンド又は感情起伏の発生若しくはキー操作などの中から何れか1つを選択し、ユーザ端末2としての携帯端末本体メモリに保存する。   Further, the user terminal 2 selects any one of the trigger means for starting the application from the specific voice command, the generation of emotional relief or the key operation by the operation of the telephone user 11, and the mobile terminal main body as the user terminal 2 Save to memory.

さらに、ユーザ端末2は、電話ユーザ11の操作によりレスポンス起動トリガー設定ステップS52を処理する。レスポンスとしてディスプレイにテキスト情報を表示させるかビットマップ画像情報を表示させるか選択することができる。   Furthermore, the user terminal 2 processes the response activation trigger setting step S52 by the operation of the telephone user 11. As a response, it is possible to select whether to display text information or bitmap image information on the display.

出力履歴データベース(例えば、図21のデータベースサーバ49)は、出力履歴データベース処理ステップS61で電話ユーザ11の人格プロファイル、感情(又は状態)判定結果、過去データを参照し、レスポンスの種類や表現方法を決定するデータを蓄積する。   The output history database (for example, the database server 49 in FIG. 21) refers to the personality profile, emotion (or state) determination result, and past data of the telephone user 11 in the output history database processing step S61, and determines the response type and expression method. Accumulate data to be determined.

(第11の実施の形態)
本発明の第11の実施の形態に係る感情データ提供装置として例示する心理解析方法は、図24に示すように、管理者端末19(図18参照)が、管理者にメニュー画面からメニューを選択させるステップS62と、詳細画面を表示する表示ステップS63と、シミュレーションを実施するステップ64と、複数のユーザ及びオペレータの心理状態を管理者に同時モニタリングさせるステップS65と、シミュレーション実施結果に基づいてシミュレーション処方箋を出力する出力ステップS66とを含む。
(Eleventh embodiment)
In the psychological analysis method exemplified as the emotion data providing apparatus according to the eleventh embodiment of the present invention, as shown in FIG. 24, the administrator terminal 19 (see FIG. 18) selects the menu from the menu screen to the administrator. Step S62, a display step S63 for displaying a detailed screen, a step 64 for performing a simulation, a step S65 for simultaneously monitoring the psychological states of a plurality of users and operators, and a simulation prescription based on the simulation result Output step S66.

管理者端末19は、管理者に対して簡単な立ち上げでメニューをスタートさせることができる。例えば、採用、研修、管理、実施、データ、終了のメニューの中から何れか1つのメニューを選択させ心理解析を遂行する。   The administrator terminal 19 can start the menu with a simple startup for the administrator. For example, the psychological analysis is performed by selecting any one of the menus of recruitment, training, management, implementation, data, and termination.

なお、シュミレーション処方箋は、「お疲れ様でした。もう少し、語尾をはっきりと、優しい口調で話すと好感をもたれますよ」のテキスト情報や、心理状態の解析結果グラフや、ユーザとオペレータの感情をGUI形式で表示した相関表を画面上又はプリンタへ出力すると良い。   In addition, the simulation prescription is: “Thank you for your hard work. If you speak a little more clearly and with a gentle tone, you will have a good impression.” Text analysis results graph of psychological state, user and operator feelings in GUI format The correlation table displayed in (5) should be output on the screen or to a printer.

(第12の実施の形態)
本発明の第12の実施の形態に係る感情データ提供装置として例示する携帯電話は、図25に示すように、携帯電話がアプリケーションソフトウエア(例えば、見方君アプリ)のダウンロードサイトにアクセスするステップS67と、アプリケーションソフトウエア(例えば、見方君アプリ)をダウンロードするステップS68と、アプリケーションにユーザ設定をするステップS69と、を含む。
(Twelfth embodiment)
As shown in FIG. 25, the mobile phone exemplified as the emotion data providing apparatus according to the twelfth embodiment of the present invention accesses the download site of the application software (for example, the viewing app), as shown in FIG. And step S68 for downloading application software (for example, the viewing app) and step S69 for making user settings for the application.

ステップS67では、携帯電話のディスプレイにハイパー見方君のダウンロードの開始を促すダウンロード画面70aを表示し、ステップS68では、携帯電話のディスプレイにハイパー見方君のダウンロード完了を報知するダウンロード完了画面70bを表示し、ステップS69では、事前登録画面70cを表示している。   In step S67, a download screen 70a is displayed on the display of the mobile phone to urge the user to start downloading Hyper Download. In step S68, a download completion screen 70b for notifying the download of Hyper View is displayed on the mobile phone display. In step S69, the pre-registration screen 70c is displayed.

事前登録画面70cでは、ニックネーム入力ボックスと、iアプリ自動、手動若しくは選択を入力するiアプリ入力ボックスと、レスポンス起動トリガーを設定する入力ボックスを表示し、各入力ボックスに電話ユーザが任意の情報をボタン操作で入力する。   The pre-registration screen 70c displays a nickname input box, an i-αppli input box for inputting i-αppli automatic, manual or selection, and an input box for setting a response activation trigger, and the telephone user inputs arbitrary information to each input box. Input by button operation.

図26を参照して、第12の実施の形態に係る感情データ提供装置として例示する携帯電話の動作を説明する。携帯電話は、アプリケーションプログラムをダウンロードし事前登録処理を完了させた状態で、アプリケーションプログラム(見方君)を立ち上げる(ステップS71)。   With reference to FIG. 26, the operation of the mobile phone exemplified as the emotion data providing apparatus according to the twelfth embodiment will be described. The mobile phone launches the application program (viewer) after downloading the application program and completing the pre-registration process (step S71).

次に、携帯電話(例えば、ムービーカメラ付き)は、電話ユーザの音声を録音する録音ステップS72を実行し、携帯電話が録音データを電子メールに添付しサーバ48(図21参照)へ自動送信する。   Next, the cellular phone (for example, with a movie camera) executes a recording step S72 for recording the voice of the telephone user, and the cellular phone attaches the recording data to the e-mail and automatically transmits it to the server 48 (see FIG. 21). .

引き続き、サーバ48は、録音データを解析するステップS74を処理し、解析結果を携帯電話へダウンロードさせ、解析結果をディスプレイへ画面表示させるステップS75を遂行する。   Subsequently, the server 48 processes step S74 for analyzing the recording data, downloads the analysis result to the mobile phone, and performs step S75 to display the analysis result on the screen.

ステップS71では、携帯電話のディスプレイにハイパー見方君のサービスメニュー76aを表示させ、ステップS72では、携帯電話のディスプレイにハイパー見方君のご指示画面76bを表示させカウントダウン処理を遂行している。30秒以内にご指示の言葉を音声入力しステップS73で電子メールを送信する。   In step S71, the hyperviewer's service menu 76a is displayed on the mobile phone display, and in step S72, the hyperviewer's instruction screen 76b is displayed on the mobile phone display to perform countdown processing. Within 30 seconds, the instruction word is inputted by voice and an e-mail is transmitted in step S73.

ステップS74では、感情解析中の画面76cをディスプレイに表示し、ステップS75では、解析結果画面76dをディスプレイに表示させている。例示の解析結果は、「前世は豚だったようです。あまり気を落とさないでね! 昔の話だから…」というメッセージを表示する場合がある。   In step S74, the screen 76c during emotion analysis is displayed on the display, and in step S75, the analysis result screen 76d is displayed on the display. An example analysis result may display the message "It seems that the previous life was a pig. Don't worry too much! Because it's an old story ...".

(第13の実施の形態)
本発明の第13の実施の形態に係る感情データ提供装置として例示するオペレータ端末は、図27に示すように、オペレータ端末3hのディスプレイにお客様センターオペレーション画面を表示している。
(Thirteenth embodiment)
The operator terminal exemplified as the emotion data providing apparatus according to the thirteenth embodiment of the present invention displays the customer center operation screen on the display of the operator terminal 3h as shown in FIG.

オペレータ端末3hは、入力ボックス77a、入力ボックス77b、入力ボックス77c、入力ボックス77dにオペレーション画面に合わせて、画面の大きさ等を変更できる情報の入力をオペレータに促している。   The operator terminal 3h prompts the operator to input information that can change the size of the screen in accordance with the operation screen in the input box 77a, input box 77b, input box 77c, and input box 77d.

図中の詳細表示77には、ユーザとオペレータの心理状態を表わすキャラクタ表示と、心理状態グラフと、メッセージ表示を出力している。   In the detailed display 77 in the figure, a character display representing the psychological state of the user and the operator, a psychological state graph, and a message display are output.

図28を参照して、オペレータ端末3h(図27参照)の動作を説明する。オペレータは、オペレータ端末3hを操作し、名乗り処理ステップS78を遂行する。例えば、「お電話ありがとうございます。○○サポートセンター担当△です」と復唱する。   The operation of the operator terminal 3h (see FIG. 27) will be described with reference to FIG. The operator operates the operator terminal 3h and performs a name identification process step S78. For example, “Thank you for the call.

オペレータ端末3hは、音声入力されたデータを解析し心理解析結果として心理マーク9a、グラフ7aをディスプレイに表示する。オペレータがゆっくり、はっきり感じよく名乗っている場合は、合格ラインを超える心理解析結果を得ることができる。   The operator terminal 3h analyzes the voice input data and displays a psychological mark 9a and a graph 7a as a psychological analysis result on the display. If the operator is slowly and clearly known, a psychological analysis result exceeding the passing line can be obtained.

次に、オペレータ端末3hは、業務知識対応処理ステップS79を実行する。例えば、ユーザから「QRコードの使い方が分からなくて困っているんですけどー!?」という質問に対して、オペレータはオペレータ端末3hを通して「QRコードの利用方法ですね?恐れ入りますが、どちらの機種をお使いでしょうか?」と確認を音声入力する。   Next, the operator terminal 3h executes a business knowledge handling process step S79. For example, in response to a question from the user, “I don't know how to use the QR code !?”, the operator asked the operator terminal 3h “How to use QR code? "Do you use?"

オペレータ端末3hは、オペレータの音声入力が最初から最後まで対応が安定していると判定した場合は、合格ラインを超える心理解析結果として心理マーク9b、グラフ7bをディスプレイに表示する。さらに、オペレータ端末3hは、ユーザからの音声データを解析しユーザの心理状態を解析する。例えば、ユーザが「そうですかー。分かりました」というお礼の回答であれば、相手の立場にたった良い印象で対応していると心理解析し、ステップS80でオペレータの音声入力としての「お電話ありがとうございました。△△が担当させていただきました」というお礼の対応をも心理解析し、安心したような表情の心理マーク9cと心理解析結果のグラフ7cをディスプレイに表示する。   When it is determined that the operator's voice input is stable from the beginning to the end, the operator terminal 3h displays the psychological mark 9b and the graph 7b on the display as psychological analysis results exceeding the pass line. Further, the operator terminal 3h analyzes voice data from the user and analyzes the user's psychological state. For example, if the user responds with a thank-you answer “Yes, I understand.”, Psychoanalyze that the user is responding with a good impression of the other person's position, and in step S80, the telephone call as the operator's voice input. Thank you very much. △△ was in charge of the appreciation "Thank you very much" psychological analysis, and displayed a psychological mark 9c with a relieved expression and a graph 7c of the psychological analysis result on the display.

図29を参照して、オペレータ端末3h(図27参照)の動作を説明する。オペレータ82は、オペレータ端末3hを操作し、発音方法マスタプログラムを実行する。オペレータ端末3hは、オペレーションに適した発声ができるようにオペレータ82(又は研修生)を誘導する。例えば、ディスプレイに心理解析結果のグラフや心理マークや日本語及び英語の文字情報を誘導情報81として出力する。   The operation of the operator terminal 3h (see FIG. 27) will be described with reference to FIG. The operator 82 operates the operator terminal 3h to execute the sound generation method master program. The operator terminal 3h guides the operator 82 (or the trainee) so that speech suitable for the operation can be made. For example, a psychological analysis result graph, a psychological mark, and Japanese and English character information are output as guidance information 81 on the display.

オペレータ端末3hは、オペレータ82がはっきりと強弱を均等に発音しているか否かを判定する。例えば、「あえいうけこかこ」を音声入力させ、心理状態を数値化して解析結果として心理マーク9bと心理解析結果のグラフ7bをディスプレイに出力する。   The operator terminal 3h determines whether or not the operator 82 clearly pronounces the strength. For example, “Ae-Keko-Kakako” is inputted as a voice, the psychological state is digitized, and the psychological mark 9b and the psychological analysis result graph 7b are output to the display as analysis results.

オペレータ端末3hは、オペレータ82が感情をコントロールして、ユーザが納得する説明をするか否かを判定する。例えば、オペレータ端末3hは、ユーザから「ちょっとーー! この製品なんなのよー!?」というクレーム電話83を受信した場合、ユーザ側の心理マーク9bを激怒のキャラクタに変更しクレーム電話が発生した事象をオペレータ及び管理者(マネージャ)へ報知する。   The operator terminal 3h determines whether or not the operator 82 controls the emotion and gives a description that the user is satisfied with. For example, when the operator terminal 3h receives a complaint phone 83 from the user saying “Hey! This product is!”, The operator terminal 3h changes the psychological mark 9b on the user side to an angry character and reports the event that the complaint phone has occurred. Notify operators and managers.

オペレータ端末3hは、ステップS84でユーザからのクレーム電話に対するオペレータ82の対応が「申し訳ございません。恐れ入りますが、もう少し詳しく状況を伺えますでしょうか?」と感情をコントロールして、ユーザが納得する説明をしている場合は、心理マーク9a及び心理解析結果のグラフ7aをディスプレイに表示し、まずまずの対応であったと判定する。   In the operator terminal 3h, in response to the complaint call from the user in step S84, the operator's response is "I'm sorry. I'm sorry, can I ask you about the situation in more detail?" If it is, the psychological mark 9a and the psychological analysis result graph 7a are displayed on the display, and it is determined that the response is appropriate.

以上の説明の如く、本発明の第1〜第13の実施の形態によれば、二者以上のマッチング処理により、例えば、複数のオペレータを配置するコールセンターにおけるユーザの心理状態解析や、二者以上の携帯電話を同時に会話させ各電話ユーザの心理状態を解析する心理状態解析や、ユーザとオペレータとの間で問題が生じたときは別のオペレータに代わって対応する問題可決手段を提供することができる。   As described above, according to the first to thirteenth embodiments of the present invention, for example, a user's psychological state analysis in a call center in which a plurality of operators are arranged, or two or more parties by matching processing of two or more parties. Providing psychological state analysis for analyzing the psychological state of each telephone user by letting other mobile phones talk at the same time, and providing a problem deciding means to respond on behalf of another operator when a problem occurs between the user and the operator it can.

なお、本発明の実施例に記載された、作用及び効果は、本発明から生じる最も好適な作用及び効果を列挙したに過ぎず、本発明による作用及び効果は、本発明の実施例に記載されたものに限定されるものではない。   It should be noted that the actions and effects described in the embodiments of the present invention only list the most preferable actions and effects resulting from the present invention, and the actions and effects according to the present invention are described in the embodiments of the present invention. It is not limited to the ones.

例えば、ユーザの視覚、聴覚、臭覚、触覚、及び味覚を含む五感の情報を入力し、ユーザの肉体、精神、感情を解析して、五感の情報で解析結果を出力する感情データ提供装置にも適用することができる。   For example, the emotion data providing apparatus that inputs information on the five senses including the user's vision, hearing, smell, touch, and taste, analyzes the user's body, mind, and emotions, and outputs the analysis result with the information of the five senses. Can be applied.

感情データ提供装置をニューロチップ化して、食器のような日用雑貨に埋め込み「言葉」、「視覚」、「味覚」などの五感に訴える情報でユーザの満足度を向上させることもでき、音ゲーム装置に埋め込みプレーヤーの満足度も向上させることもできる。   Emotional data provision device can be made into a neurochip and embedded in daily goods such as tableware to improve user satisfaction with information that appeals to the five senses such as “word”, “sight”, “taste”, etc. The satisfaction of the player embedded in the device can also be improved.

本発明は、電話オペレータ端末、オペレータ管理者端末、携帯電話、PDA、カーナビゲータなど)に提供する用途に適用できる。   The present invention can be applied to applications provided to telephone operator terminals, operator manager terminals, mobile phones, PDAs, car navigators, and the like.

また、携帯電話に組み込んで、メール内容履歴などからユーザーの感情、心理、嗜好、情緒を汲み取り、秘書機能を備えた相談相手としての機能を発揮する用途に適用でき、メモリカードに組み込んで、メモリカードに蓄積されていく個人の嗜好を関連商品に活用する用途にも適用できる。   Also, it can be incorporated into a mobile phone to extract the user's emotions, psychology, preferences, and emotions from the mail content history, etc., and can be applied to applications that function as a consultant with a secretary function. It can also be applied to use of personal preferences accumulated in cards for related products.

本発明の第1の実施の形態に係る感情データ提供装置の模式的なブロック図。The typical block diagram of the emotion data provision apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る感情データ提供装置の声紋データのグラフ。The graph of the voiceprint data of the emotion data provision apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る感情データ提供装置の声紋データのグラフ。The graph of the voiceprint data of the emotion data provision apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る感情データ提供装置の声紋データのグラフ。The graph of the voiceprint data of the emotion data provision apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る感情データ提供装置の模式的な系統図。The typical systematic diagram of the emotion data provision apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る感情データ提供装置の模式的な系統図。The typical systematic diagram of the emotion data provision apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る感情データ提供装置の動作を説明する流れ図。The flowchart explaining operation | movement of the emotion data provision apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る感情データ提供装置の動作を説明する流れ図。The flowchart explaining operation | movement of the emotion data provision apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る感情データ提供装置の処理概要を説明する図。The figure explaining the process outline | summary of the emotion data provision apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る感情データ提供装置の処理概要を説明する図。The figure explaining the process outline | summary of the emotion data provision apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係る感情データ提供装置の動作を説明する流れ図。The flowchart explaining operation | movement of the emotion data provision apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る感情データ提供装置の模式的な系統図。The typical systematic diagram of the emotion data provision apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施の形態に係る感情データ提供装置の模式的な系統図。The typical systematic diagram of the emotion data provision apparatus which concerns on the 4th Embodiment of this invention. 本発明の第5の実施の形態に係る感情データ提供装置の模式的な系統図。The typical systematic diagram of the emotion data provision apparatus which concerns on the 5th Embodiment of this invention. 本発明の第6の実施の形態に係る携帯電話の動作を説明する流れ図。The flowchart explaining operation | movement of the mobile telephone based on the 6th Embodiment of this invention. 本発明の第6の実施の形態に係る携帯電話の動作を説明する流れ図。The flowchart explaining operation | movement of the mobile telephone based on the 6th Embodiment of this invention. 本発明の第7の実施の形態に係る感情データ提供装置の正面図。The front view of the emotion data provision apparatus which concerns on the 7th Embodiment of this invention. 本発明の第8の実施の形態に係る感情データ提供装置の正面図。The front view of the emotion data provision apparatus which concerns on the 8th Embodiment of this invention. 本発明の第8の実施の形態に係る感情データ提供装置の正面図。The front view of the emotion data provision apparatus which concerns on the 8th Embodiment of this invention. 本発明の第9の実施の形態に係る感情データ提供装置の正面図。The front view of the emotion data provision apparatus which concerns on the 9th Embodiment of this invention. 本発明の第10の実施の形態に係る携帯電話の模式的な系統図。Schematic system diagram of a mobile phone according to a tenth embodiment of the present invention. 本発明の第10の実施の形態に係る携帯電話の模式的な系統図。Schematic system diagram of a mobile phone according to a tenth embodiment of the present invention. 本発明の第10の実施の形態に係る携帯電話の動作を説明する流れ図。The flowchart explaining operation | movement of the mobile telephone based on the 10th Embodiment of this invention. 本発明の第11の実施の形態に係る感情データ提供装置の動作を説明する流れ図。The flowchart explaining operation | movement of the emotion data provision apparatus which concerns on the 11th Embodiment of this invention. 本発明の第12の実施の形態に係る感情データ提供装置の動作を説明する流れ図。The flowchart explaining operation | movement of the emotion data provision apparatus which concerns on the 12th Embodiment of this invention. 本発明の第12の実施の形態に係る感情データ提供装置の動作を説明する流れ図。The flowchart explaining operation | movement of the emotion data provision apparatus which concerns on the 12th Embodiment of this invention. 本発明の第13の実施の形態に係る感情データ提供装置の正面図。The front view of the emotion data provision apparatus which concerns on the 13th Embodiment of this invention. 本発明の第13の実施の形態に係る感情データ提供装置の動作を説明する流れ図。The flowchart explaining operation | movement of the emotion data provision apparatus which concerns on the 13th Embodiment of this invention. 本発明の第13の実施の形態に係る感情データ提供装置の動作を説明する図。The figure explaining operation | movement of the emotion data provision apparatus which concerns on the 13th Embodiment of this invention.

符号の説明Explanation of symbols

1…・心理解析装置、2…・ユーザ端末、3…・オペレータ端末、4a…・第1の回線、4b…・第2の回線、48…・サーバ、49…・データーベースサーバ、50…・感情解析エンジン。

1 ... Psychological analysis device, 2 ... User terminal, 3 ... Operator terminal, 4a ... First line, 4b ... Second line, 48 ... Server, 49 ... Database server, 50 ... Emotion analysis engine.

Claims (15)

ユーザの問い合わせ情報に対するオペレータの回答情報を入力するオペレータ端末と、
第1の回線を通してユーザ端末からユーザの問い合わせ情報を受信し、第2の回線を通して前記オペレータ端末からオペレータの回答情報を受信し、前記ユーザ及びオペレータの心理状態を数値化して解析する心理解析装置と、
を備える感情データ提供装置。
An operator terminal for inputting operator response information to the user inquiry information;
A psychological analysis device that receives user inquiry information from a user terminal through a first line, receives operator reply information from the operator terminal through a second line, and quantifies and analyzes the psychological state of the user and the operator; ,
Emotion data providing device comprising:
前記心理解析装置は、前記解析の結果をグラフィックユーザインターフェース形式に変換して出力する心理マーク出力手段をさらに備えることを特徴とする請求項1に記載の感情データ提供装置。 The emotion data providing apparatus according to claim 1, further comprising psychological mark output means for converting the result of the analysis into a graphic user interface format and outputting the result. 前記心理解析装置は、前記解析の結果をグラフィック形式に変換して出力するグラフ出力手段をさらに備えることを特徴とする請求項1に記載の感情データ提供装置。 The emotion data providing apparatus according to claim 1, further comprising a graph output unit that converts the analysis result into a graphic format and outputs the result. 前記心理解析装置は、管理者側の端末へ前記解析の結果を出力することを特徴とする請求項1に記載の感情データ提供装置。 The emotion data providing apparatus according to claim 1, wherein the psychological analysis apparatus outputs a result of the analysis to a terminal on an administrator side. 前記心理解析装置は、複数の前記オペレータ端末に前記ユーザの心理状態をグラフィック形式に変換して出力すると共に、前記ユーザ端末を複数の前記オペレータの心理状態に対応させて選択された前記オペレータ端末へ自動接続し、前記問い合わせ情報と前記回答情報とをマッチングさせることを特徴とする請求項1に記載の感情データ提供装置。 The psychological analysis device converts the user's psychological state into a graphic format and outputs it to a plurality of the operator terminals, and outputs the user terminal to the operator terminals selected corresponding to the psychological states of the plurality of operators. 2. The emotion data providing apparatus according to claim 1, wherein automatic connection is made to match the inquiry information with the answer information. 電話回線を通して通話する電話ユーザの心理状態を数値化して解析する手段と、前記電話ユーザの電話番号がアドレス帳に登録されているグループユーザの端末へ前記解析の結果を送信する心理解析送信手段と、を備える心理解析装置。 Means for digitizing and analyzing a psychological state of a telephone user calling through a telephone line; and psychological analysis transmitting means for transmitting the result of the analysis to a terminal of a group user whose telephone number is registered in an address book , A psychological analysis device. 視覚、聴覚、臭覚、触覚、及び味覚を含む五感の情報によるユーザの心理状態を数値化して解析し、ユーザ情報管理モジュールに記憶したユーザ履歴情報に基づきユーザが心理的に喜怒哀楽を含む感情数値を検知し、マッチングする解決情報を出力し、落ち込んでいる数値を検知した場合は、文字又は絵若しくは音による励ましメッセージを出力すると共に、ユーザが心理的に高揚している場合は文字又は絵又は前記五感情報若しくは音による夢想起メッセージを出力する心理解析装置を備える携帯電話。 Emotions including psychological emotions, including psychological emotions, based on user history information stored in the user information management module, by analyzing the user's psychological state based on the five senses including visual, auditory, olfactory, tactile, and taste information Detects numerical values, outputs matching solution information, outputs an encouraging message with letters, pictures, or sounds when a depressed number is detected, and letters or pictures when the user is psychologically uplifted Alternatively, a mobile phone comprising a psychological analysis device that outputs the dream recall message using the five senses information or sound. 電話ユーザの音声データに含まれる第1〜第3の共鳴周波数帯を数値化して解析した感情解析データをディスプレイへ出力する携帯電話。 A mobile phone that outputs emotion analysis data obtained by digitizing and analyzing first to third resonance frequency bands included in voice data of a telephone user to a display. 前記ディスプレイは、前記感情解析データをグラフィック又はテキスト表示することを特徴とする請求項8に記載の携帯電話。 9. The mobile phone according to claim 8, wherein the display displays the emotion analysis data as a graphic or text. 前記ディスプレイは、感情解析エンジンに予め蓄積した感情解析データに基づき、前記音声データを分析及び比較し、合致する前記感情解析データを表示することを特徴とする請求項8に記載の携帯電話。 9. The mobile phone according to claim 8, wherein the display analyzes and compares the voice data based on emotion analysis data accumulated in advance in an emotion analysis engine, and displays the matching emotion analysis data. 電話用サーバが、電話ユーザの携帯電話から携帯電話交換機を経由する発呼に自動応答し音声データを記憶装置に記憶し、前記記憶装置から前記音声データを読出して通信回線を通してアプリケーションサーバへ転送し、前記アプリケーションサーバが感情解析エンジンに蓄積した感情解析データに基づき、前記音声データを分析及び比較し、合致する前記感情解析データを前記携帯電話交換機を通して前記携帯電話へ送信する前記電話ユーザ心理解析方法。 A telephone server automatically responds to a call from a telephone user's mobile phone via a mobile phone switch, stores voice data in a storage device, reads the voice data from the storage device, and transfers the voice data to an application server through a communication line. The telephone user psychological analysis method for analyzing and comparing the voice data based on emotion analysis data accumulated in the emotion analysis engine by the application server and transmitting the matching emotion analysis data to the mobile phone through the mobile phone switch . 電話ユーザの音声を携帯電話に入力するマイク音声入力ステップと、
前記マイク音声入力ステップで入力した前記音声をメモリに保存する保存ステップと、
前記マイク音声入力で混入する雑音強度を監視し、前記音声が感情判定用データとして有効か否かを判定する有効判定ステップと、
前記判定ステップで有効判定された前記音声を通信回線を通して電子メールの添付ファイルとしてサーバへ送信するメール送信ステップと、
前記サーバが前記音声のピッチ、スピード、タイミングを含むパラメータを抽出し、感情解析エンジンに予め蓄積した感情解析データに基づき、前記音声を分析及び比較し、合致する前記感情解析データを前記通信回線を通して前記携帯電話へ送信するステップと、
前記携帯電話が前記感情解析データをディスプレイにグラフィック又はテキスト表示させる表示ステップと、
前記携帯電話が感情解析データをディスプレイにグラフィック又はテキスト表示させる表示ステップと、前記携帯電話の中で音声のピッチ、スピード、タイミングを含むパラメータを抽出し、前記感情解析エンジンに予め蓄積した感情解析データに基づき、音声や五感(視角、聴覚、臭覚、及び味覚)を含む五感情報を分析及び比較し合致する感情解析データを前記ディスプレイに表示する手段を組み込むステップと、
を含む有する電話ユーザ心理解析方法。
A microphone voice input step for inputting the voice of the telephone user to the mobile phone;
A storing step of storing the voice input in the microphone voice input step in a memory;
An effective determination step of monitoring noise intensity mixed in by the microphone sound input and determining whether or not the sound is valid as emotion determination data;
A mail transmission step of transmitting the voice determined to be valid in the determination step to a server as an attachment file of an electronic mail through a communication line;
The server extracts parameters including pitch, speed, and timing of the voice, analyzes and compares the voice based on emotion analysis data stored in advance in the emotion analysis engine, and sends the matching emotion analysis data through the communication line. Transmitting to the mobile phone;
A display step in which the mobile phone displays the emotion analysis data on a display as a graphic or text; and
A display step in which the mobile phone displays emotion analysis data on a display as a graphic or text, and emotion analysis data that has been stored in advance in the emotion analysis engine by extracting parameters including voice pitch, speed, and timing in the mobile phone Incorporating a means for analyzing and comparing five sense information including voice and five senses (viewing angle, hearing, smell, and taste) and displaying matching emotion analysis data on the display; and
A telephone user psychological analysis method comprising:
前記感情解析データは、電話ユーザの喜び、怒り、悲しみ、落胆、及び興奮を含む感情を図形表示することを特徴とする請求項12に記載の電話ユーザ心理解析方法。 The telephone user psychological analysis method according to claim 12, wherein the emotion analysis data graphically displays emotions including joy, anger, sadness, discouragement, and excitement of the telephone user. 前記感情解析データは、前記サーバに設けられた出力履歴データベースに蓄積され、過去の前記感情解析データに基づき更新感情解析データを生成することを特徴とする請求項12に記載の電話ユーザ心理解析方法。 The telephone user psychological analysis method according to claim 12, wherein the emotion analysis data is accumulated in an output history database provided in the server, and updated emotion analysis data is generated based on the past emotion analysis data. . 前記マイク音声入力ステップ、保存ステップ、有効判定ステップ、メール送信ステップ、及び表示ステップを前記携帯電話で実行するアプリケーションプログラムを前記サーバからダウンロードするステップをさらに含むことを特徴とする請求項12に記載の電話ユーザ心理解析方法。

13. The method according to claim 12, further comprising: downloading from the server an application program for executing the microphone voice input step, the storage step, the validity determination step, the mail transmission step, and the display step on the mobile phone. Phone user psychology analysis method.

JP2004251069A 2004-08-30 2004-08-30 Emotion data supplying apparatus, psychology analyzer, and method for psychological analysis of telephone user Pending JP2006061632A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004251069A JP2006061632A (en) 2004-08-30 2004-08-30 Emotion data supplying apparatus, psychology analyzer, and method for psychological analysis of telephone user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004251069A JP2006061632A (en) 2004-08-30 2004-08-30 Emotion data supplying apparatus, psychology analyzer, and method for psychological analysis of telephone user

Publications (1)

Publication Number Publication Date
JP2006061632A true JP2006061632A (en) 2006-03-09

Family

ID=36108583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004251069A Pending JP2006061632A (en) 2004-08-30 2004-08-30 Emotion data supplying apparatus, psychology analyzer, and method for psychological analysis of telephone user

Country Status (1)

Country Link
JP (1) JP2006061632A (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008060639A (en) * 2006-08-29 2008-03-13 Fujitsu Fsas Inc Operator management system and method in call center
JP2008070984A (en) * 2006-09-12 2008-03-27 Furyu Kk Message creation support apparatus, control method and control program therefor, and recording medium recording the program
JP2008123169A (en) * 2006-11-10 2008-05-29 Fujitsu Fsas Inc Operator skill management system for use in call center and method for managing operator skill
JP2011024452A (en) * 2009-07-23 2011-02-10 Casio Computer Co Ltd Animal emotion display system and method
JP2011160260A (en) * 2010-02-02 2011-08-18 Nakayo Telecommun Inc Telephone main device, and telephone set
JP2013528851A (en) * 2010-04-13 2013-07-11 エンヴィ インタラクティブ エルエルシー System and method for providing a visual display of a user's personality in a virtual environment
US20130185058A1 (en) * 2012-01-18 2013-07-18 Dw Associates, Llc Format for displaying text analytics results
US8996359B2 (en) 2011-05-18 2015-03-31 Dw Associates, Llc Taxonomy and application of language analysis and processing
US9100632B2 (en) 2012-07-02 2015-08-04 Samsung Electronics Co., Ltd. Method for providing video call analysis service and an electronic device thereof
JP2015210059A (en) * 2014-04-30 2015-11-24 株式会社東芝 refrigerator
WO2015182077A1 (en) * 2014-05-27 2015-12-03 日本電気株式会社 Emotion estimation device, emotion estimation method, and recording medium for storing emotion estimation program
US9269353B1 (en) 2011-12-07 2016-02-23 Manu Rehani Methods and systems for measuring semantics in communications
WO2016178329A1 (en) * 2015-05-07 2016-11-10 ソニー株式会社 Information processing system, control method, and storage medium
US9667513B1 (en) 2012-01-24 2017-05-30 Dw Associates, Llc Real-time autonomous organization
JP2017168053A (en) * 2016-03-18 2017-09-21 株式会社Nttドコモ Information processing apparatus and information processing method
JP2018112402A (en) * 2018-04-26 2018-07-19 東芝ライフスタイル株式会社 refrigerator
JP2018124604A (en) * 2017-01-30 2018-08-09 グローリー株式会社 Customer service support system, customer service support device and customer service support method
CN109448462A (en) * 2018-12-18 2019-03-08 广雅传媒(武汉)有限公司 A kind of psychological health education goods electronic sand map system
US10235990B2 (en) 2017-01-04 2019-03-19 International Business Machines Corporation System and method for cognitive intervention on human interactions
JP2019076596A (en) * 2017-10-26 2019-05-23 富士ゼロックス株式会社 Information processing device, information processing system and program
US10318639B2 (en) 2017-02-03 2019-06-11 International Business Machines Corporation Intelligent action recommendation
US10373515B2 (en) 2017-01-04 2019-08-06 International Business Machines Corporation System and method for cognitive intervention on human interactions
JP2019133451A (en) * 2018-01-31 2019-08-08 甲斐 義章 Evaluation method, evaluation device, evaluation program, and evaluation system
CN111241259A (en) * 2020-01-08 2020-06-05 百度在线网络技术(北京)有限公司 Interactive information recommendation method and device
CN111862946A (en) * 2019-05-17 2020-10-30 北京嘀嘀无限科技发展有限公司 Order processing method and device, electronic equipment and storage medium
JP2022124632A (en) * 2021-02-16 2022-08-26 Necソリューションイノベータ株式会社 Impact analysis device, impact visualization system device, impact analysis method, impact visualization method, program and recording medium
JP7502546B1 (en) 2023-02-06 2024-06-18 株式会社Kokorotics A mental and psychological assessment system related to walking.
JP7807853B1 (en) 2025-09-22 2026-01-28 株式会社D4All advertising device

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008060639A (en) * 2006-08-29 2008-03-13 Fujitsu Fsas Inc Operator management system and method in call center
JP2008070984A (en) * 2006-09-12 2008-03-27 Furyu Kk Message creation support apparatus, control method and control program therefor, and recording medium recording the program
JP2008123169A (en) * 2006-11-10 2008-05-29 Fujitsu Fsas Inc Operator skill management system for use in call center and method for managing operator skill
JP2011024452A (en) * 2009-07-23 2011-02-10 Casio Computer Co Ltd Animal emotion display system and method
JP2011160260A (en) * 2010-02-02 2011-08-18 Nakayo Telecommun Inc Telephone main device, and telephone set
JP2013528851A (en) * 2010-04-13 2013-07-11 エンヴィ インタラクティブ エルエルシー System and method for providing a visual display of a user's personality in a virtual environment
US8996359B2 (en) 2011-05-18 2015-03-31 Dw Associates, Llc Taxonomy and application of language analysis and processing
US9269353B1 (en) 2011-12-07 2016-02-23 Manu Rehani Methods and systems for measuring semantics in communications
US20130185058A1 (en) * 2012-01-18 2013-07-18 Dw Associates, Llc Format for displaying text analytics results
WO2013109836A1 (en) * 2012-01-18 2013-07-25 Dw Associates, Llc Format for displaying text analytics results
US9020807B2 (en) * 2012-01-18 2015-04-28 Dw Associates, Llc Format for displaying text analytics results
US9667513B1 (en) 2012-01-24 2017-05-30 Dw Associates, Llc Real-time autonomous organization
US9100632B2 (en) 2012-07-02 2015-08-04 Samsung Electronics Co., Ltd. Method for providing video call analysis service and an electronic device thereof
JP2015210059A (en) * 2014-04-30 2015-11-24 株式会社東芝 refrigerator
WO2015182077A1 (en) * 2014-05-27 2015-12-03 日本電気株式会社 Emotion estimation device, emotion estimation method, and recording medium for storing emotion estimation program
JPWO2016178329A1 (en) * 2015-05-07 2018-02-22 ソニー株式会社 Information processing system, control method, and storage medium
WO2016178329A1 (en) * 2015-05-07 2016-11-10 ソニー株式会社 Information processing system, control method, and storage medium
JP2017168053A (en) * 2016-03-18 2017-09-21 株式会社Nttドコモ Information processing apparatus and information processing method
US10902842B2 (en) 2017-01-04 2021-01-26 International Business Machines Corporation System and method for cognitive intervention on human interactions
US10235990B2 (en) 2017-01-04 2019-03-19 International Business Machines Corporation System and method for cognitive intervention on human interactions
US10373515B2 (en) 2017-01-04 2019-08-06 International Business Machines Corporation System and method for cognitive intervention on human interactions
JP2018124604A (en) * 2017-01-30 2018-08-09 グローリー株式会社 Customer service support system, customer service support device and customer service support method
US10318639B2 (en) 2017-02-03 2019-06-11 International Business Machines Corporation Intelligent action recommendation
JP7033776B2 (en) 2017-10-26 2022-03-11 株式会社Agama-X Information processing equipment, information processing systems and programs
JP2019076596A (en) * 2017-10-26 2019-05-23 富士ゼロックス株式会社 Information processing device, information processing system and program
JP2019133451A (en) * 2018-01-31 2019-08-08 甲斐 義章 Evaluation method, evaluation device, evaluation program, and evaluation system
JP2018112402A (en) * 2018-04-26 2018-07-19 東芝ライフスタイル株式会社 refrigerator
CN109448462A (en) * 2018-12-18 2019-03-08 广雅传媒(武汉)有限公司 A kind of psychological health education goods electronic sand map system
CN111862946A (en) * 2019-05-17 2020-10-30 北京嘀嘀无限科技发展有限公司 Order processing method and device, electronic equipment and storage medium
CN111862946B (en) * 2019-05-17 2024-04-19 北京嘀嘀无限科技发展有限公司 Order processing method and device, electronic equipment and storage medium
CN111241259A (en) * 2020-01-08 2020-06-05 百度在线网络技术(北京)有限公司 Interactive information recommendation method and device
CN111241259B (en) * 2020-01-08 2023-06-20 百度在线网络技术(北京)有限公司 Interactive information recommendation method and device
JP2022124632A (en) * 2021-02-16 2022-08-26 Necソリューションイノベータ株式会社 Impact analysis device, impact visualization system device, impact analysis method, impact visualization method, program and recording medium
JP7677696B2 (en) 2021-02-16 2025-05-15 Necソリューションイノベータ株式会社 Impact analysis device, impact visualization system device, impact analysis method, impact visualization method, program, and recording medium
JP7502546B1 (en) 2023-02-06 2024-06-18 株式会社Kokorotics A mental and psychological assessment system related to walking.
JP2024111801A (en) * 2023-02-06 2024-08-19 株式会社Kokorotics A mental and psychological assessment system related to walking.
JP7807853B1 (en) 2025-09-22 2026-01-28 株式会社D4All advertising device

Similar Documents

Publication Publication Date Title
JP2006061632A (en) Emotion data supplying apparatus, psychology analyzer, and method for psychological analysis of telephone user
TW491991B (en) System, method, and article of manufacture for a voice recognition system for navigating on the internet utilizing audible information
CN111801730B (en) Systems and methods for artificial intelligence-driven automated companions
Alm Affect in* text and speech
US11367435B2 (en) Electronic personal interactive device
CN1237505C (en) User interface/entertainment equipment of imitating human interaction and loading relative external database using relative data
US20180133900A1 (en) Embodied dialog and embodied speech authoring tools for use with an expressive social robot
TW548631B (en) System, method, and article of manufacture for a voice recognition system for identity authentication in order to gain access to data on the Internet
JP6860010B2 (en) Information processing systems, information processing methods, and information processing programs
KR20020067591A (en) Self-updating user interface/entertainment device that simulates personal interaction
KR20020067592A (en) User interface/entertainment device that simulates personal interaction and responds to user&#39;s mental state and/or personality
KR20020067590A (en) Environment-responsive user interface/entertainment device that simulates personal interaction
WO2001016570A1 (en) System, method, and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
CN118762712A (en) Method, device, equipment, medium and program product for generating theatrical audio works
Schuller et al. Computational charisma—A brick by brick blueprint for building charismatic artificial intelligence
JP2006109966A (en) Sound game machine and cellular phone
KR102101311B1 (en) Method and apparatus for providing virtual reality including virtual pet
CN120599882A (en) A holographic projection system based on AI large model
CN118606495A (en) A method and related equipment for emotional intelligent auxiliary reading of audio picture books
Apps Voice and Speaking skills for Dummies
JP2006120136A (en) LANGUAGE PROCESSING DEVICE, LANGUAGE PROCESSING METHOD, LANGUAGE PROCESSING PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE SAME
Edlund In search for the conversational homunculus: serving to understand spoken human face-to-face interaction
Paulusma “Only a Bird in a Gilded Cage”: Avianthropes and the Embodiment of the Canorographic Voice in Angela Carter’s “The Erl-King” and Nights at the Circus
Suzuki et al. VFep: 3D graphic face representation based on voice-based emotion recognition
US20250317624A1 (en) Enhancing media consumption experience through generative ai-powered interactive companions