JP3005249B2 - Fuzzy pattern type human interface system - Google Patents
Fuzzy pattern type human interface systemInfo
- Publication number
- JP3005249B2 JP3005249B2 JP2161070A JP16107090A JP3005249B2 JP 3005249 B2 JP3005249 B2 JP 3005249B2 JP 2161070 A JP2161070 A JP 2161070A JP 16107090 A JP16107090 A JP 16107090A JP 3005249 B2 JP3005249 B2 JP 3005249B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- model
- data
- unit
- fuzzy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Devices For Executing Special Programs (AREA)
Description
本発明は、コンピュータゲーム、コンピュータ絵本、
精神治療、CAI、故障診断システムなどのソフトウェア
において、個性豊かなキャラクタが登場し、利用者との
対話により、キャラクタが人間的な反応を示しながら状
況に即した場面展開を構成して行くことができるヒュー
マンインタフェースシステムに関する。The present invention relates to computer games, computer picture books,
Characters with rich personality have appeared in software such as psychotherapy, CAI, and failure diagnosis systems, and through dialogue with the user, the characters can react to human situations and construct scene developments suited to the situation. A human interface system that can be used.
従来、ゲームのコンピュータソフトウェアのように、
画像データを多く含み、その画像データで多くのメモリ
領域を使用するソフトウェアの場合、プログラムで使用
することのできるメモリ領域が少なくなってしまってい
た。 この使用可能なメモリ領域の制限があるため、個性豊
かで複雑なキャラクタを登場させ柔軟なストーリー展開
が可能なソフトウェアを作ることが困難であった。例え
ば、コンピュータゲームの場合に、従来、登場人物(キ
ャラクタ)の個性は顔、職業、体力などで差別化してい
たが、個性の幅が少なく、キャラクタの心理的な側面を
表現することはできなかった。対話も画一的なものが多
いため面白味がなく、固定的なストーリー展開しかでき
ないため柔軟性に欠けていた。また、展開する状況が体
力値など味気のない数字で表示されるため面白味がなか
った。ゲーム利用者が全体を見下ろすような参加方法し
かできないため、一方向からの始点でしかゲームを楽し
めなかった。Traditionally, like game computer software,
In the case of software that includes a large amount of image data and uses a large memory area for the image data, the memory area that can be used by the program is reduced. Because of the limited memory area that can be used, it has been difficult to create software that can display unique and complex characters and develop flexible stories. For example, in the case of a computer game, the personality of a character (character) has conventionally been differentiated by face, occupation, physical strength, etc., but the range of individuality is small, and it is not possible to express the psychological aspect of the character. Was. The dialogue was uninteresting because there were many uniform ones and lacked flexibility because only fixed story development was possible. In addition, there is no interest because the developing situation is displayed with a bland number such as a physical strength value. Since the game user can only participate in the game overlooking the whole game, he can only enjoy the game from a starting point from one direction.
本発明は、上記従来技術の欠点を解消し、限られたメ
モリ領域を用いてることのできるコンパクトなプログラ
ムであっても、豊かな個性の複雑なキャラクタを登場さ
せることができ、柔軟なストーリー展開を可能とするヒ
ューマンインタフェースシステムを提供することを目的
とする。The present invention solves the above-mentioned disadvantages of the prior art, and enables a complex character with a rich personality to appear even in a compact program that can use a limited memory area, thereby enabling a flexible story development. It is an object of the present invention to provide a human interface system that enables the above.
本発明のファジィパターン型ヒューマンインタフェー
スは、操作者からの指示または質問を言葉の形で入力可
能な入力部(第1図101)と、心理モデルを含む複数の
モデルを持つ対象モデルと、各モデルに対応したファジ
ィパターンデータによりキャラクタの個性を表したファ
ジィキャラクタ個性データを格納するデータベースと、
入力部から入力された言葉による指示または質問の情報
とファジィキャラクタ個性データのファジィパターンデ
ータとを照合して、キャラクタ自身の心理的状況を診断
する診断部(第1図104,105)と、キャラクタに入力さ
れた情報と診断部の診断結果から、行うべき行動を選択
する行動選択部(第1図107)と、選択された行動に対
応する動作を生成する動作生成部(第1図108)とをを
備えている。 本発明の一態様によれば、前記診断部は、キャラクタ
に入力された言葉や周囲の環境変化に対して、キャラク
タ自身がどういう状況かを、ファジィパターンデータと
の照合により求め、診断結果を出力する状況診断部(第
1図104)を有する。 本発明の他の態様によれば、前記診断部は、入力され
た言葉がキャラクタに与える心理的影響を、キャラクタ
自身の状態と言葉をもとに、ファジィパターンデータと
の照合により求め、診断結果を出力するとともに心理的
状態を表す気分モデルを生成する心理的メカニズム処理
部(第9図909)を備えたことを特徴とする。 さらに、本発明の他の態様によれば、前記診断部は、
入力された指示やキャラクタ自身の行動に対する心的状
態を、キャラクタ自身の状態をもとに、ファジィパター
ンデータとの照合により求め、診断結果を出力する心的
情報診断処理部(第9図908)を備えている。 さらに、本発明の他の態様では、前記気分モデルと診
断結果を入力とし、キャラクタの各種の心理状態を表し
たファジィキャラクタパターンデータと照合し、決定す
べき事柄に対する意志決定をする意志決定処理部(第9
図912)を備えている。The fuzzy pattern type human interface of the present invention includes an input unit (FIG. 101) capable of inputting an instruction or a question from an operator in the form of words, a target model having a plurality of models including a psychological model, and each model. A database storing fuzzy character personality data representing the character's personality by fuzzy pattern data corresponding to
A diagnostic unit (104, 105 in FIG. 1) for diagnosing the psychological situation of the character itself by collating the information of the instruction or question in words input from the input unit with the fuzzy pattern data of the fuzzy character personality data and inputting the character An action selection unit (FIG. 107) for selecting an action to be performed based on the obtained information and the diagnosis result of the diagnosis unit, and an action generation unit (FIG. 108) for generating an action corresponding to the selected action. It has. According to one aspect of the present invention, the diagnosis unit obtains a state of the character itself with respect to a word input to the character or a change in surrounding environment by comparing it with fuzzy pattern data, and outputs a diagnosis result. A situation diagnosis unit (FIG. 104). According to another aspect of the present invention, the diagnosis unit obtains a psychological effect of the input word on the character by comparing the psychological effect with the fuzzy pattern data based on the character's own state and the word. And a psychological mechanism processing unit (909 in FIG. 9) for generating a mood model representing a psychological state. Further, according to another aspect of the present invention, the diagnostic unit includes:
A mental information diagnosis processing unit that obtains a mental state with respect to the input instruction and the action of the character by comparing it with fuzzy pattern data based on the state of the character itself and outputs a diagnosis result (FIG. 9, 908) It has. Further, in another aspect of the present invention, a decision-making processing unit that receives the mood model and the diagnosis result, compares it with fuzzy character pattern data representing various mental states of the character, and decides on a matter to be decided. (9th
(Fig. 912).
対象モデルは複数のモデルを有し、キャラクタの現在
の状態を表している。データベースにはキャラクタの個
性を、各モデルに対応したファジィパターンで表したデ
ータが格納されている。 診断部はキャラクタの状態を表す対象モデルを、入力
によって限定されるキャラクタ個性データのファジィパ
ターン(第15図、第18図などにその例が示されている)
と照合し、キャラクタの状態を診断する。入力が言葉に
よる情報の場合には、診断部は、心理に関するファジィ
パターンデータと照合してキャラクタ自身の心理的状況
を診断する。 診断の結果をもとに行動選択部は行うべき行動を選択
し、動作生成部で対応する動作が生成される。 本発明によれば、複数モデルのファジィパターンデー
タによりキャラクタの個性が設定されるよう構成されて
いるので、キャラクタの性格付け、行動パターンを複雑
かつ多様なものに設定することができる。モデルには心
理モデルが含まれ、言葉による指示、質問等に対して自
己診断処理を行うことができるので、人間性を持ったキ
ャラクタを取り扱うことができ、優れたヒューマンイン
ターフェースを構築できる。 本発明は、上記のように複数モデルのファジィパター
ンデータを用いるので、極めて小さいプログラム容量と
なり、限られたメモリ領域で稼働させるものであって
も、複雑なキャラクタで柔軟なストーリー展開が可能と
なる。The target model has a plurality of models and represents the current state of the character. The database stores data representing the character's personality in a fuzzy pattern corresponding to each model. The diagnosis unit converts a target model representing the state of the character into a fuzzy pattern of character personality data limited by input (an example is shown in FIGS. 15 and 18).
And the state of the character is diagnosed. If the input is verbal information, the diagnosis unit diagnoses the psychological situation of the character itself by comparing it with fuzzy pattern data relating to psychology. The action selection unit selects an action to be performed based on the result of the diagnosis, and the action generation unit generates a corresponding action. According to the present invention, the personality of the character is set by the fuzzy pattern data of a plurality of models, so that the character characterization and action pattern of the character can be set to complex and various types. The model includes a psychological model, and can perform a self-diagnosis process on a verbal instruction, a question, and the like, so that a character having a human nature can be handled and an excellent human interface can be constructed. Since the present invention uses the fuzzy pattern data of a plurality of models as described above, the program capacity becomes extremely small, and even if the program is operated in a limited memory area, a flexible story can be developed with complicated characters. .
[1]実施例の概要構成 第1図は本発明の実施例の概要構成を示すブロック図
である。 本実施例で具体的に例示して説明するときは、「桃太
郎」のシミュレーションゲームに適用した例を想定する
こととする。なお、一般に、個性豊かなキャラクタが設
定された対話型のアプリケーションソフトウェアのヒュ
ーマンインタフェースとして適用できるものであること
はもちろんである。 このシステムは、第1図に示すように、入力部101、
インタフェース部2、情報解析部103、状況診断部104、
自己診断部105、意志決定部106、行動選択部107、動作
生成部108、出力部109等から構成されている。 入力部101は、指示や質問等のキャラクタに対する入
力情報、あるいは天気などの周囲の状態や環境の情報な
どを操作者が入力するための装置で、キーボード、マウ
ス、ジョイスティックなどがある。 インタフェース部102は、入力部101や出力部109等の
外部機器とのインタフェース、およびどのキャラクタへ
の入力であるかの認識などを行う。 情報解析部103は、インタフェース部102を介して入力
されたデータを解析し、そのデータの種別の確認や、デ
ータの内容の確認を行うものである。 状況診断部104は、キャラクタに入力された言葉や周
囲の環境変化に対して、キャラクタ自身がどういう状況
かを、ファジィパターン照合により求め、行動選択部10
7の入力とするものである。 自己診断部105は、心理的メカニズム処理と心的情報
診断処理を行うものである。その心理的メカニズム処理
は、入力された言葉が、キャラクタに与える心理的影響
を、キャラクタ自身の状態(肉体/心理)と言葉をもと
に、ファジィパターン照合により求め、意志決定部106
への入力とするものである。同時に心理的状態を表す気
分モデルを生成する。また、心的情報診断処理は、入力
された指示や自身の行動に対する心的状態を、キャラク
タ自身の状態(肉体/心理)をもとに、ファジィパター
ン照合により求め、意志決定部106への入力とするもの
である。 意志決定部106は、決定すべき事柄に対して、キャラ
クタ自身の心理的状態(心理ブロック)で判断し、決定
するものである。 行動選択部107は、キャラクタに入力された情報と診
断結果または決定結果から、行うべき行動を選択し、動
作生成部108への入力とするものである。 動作生成部108は、行動選択部107から入力された情報
をもとに、各キャラクタの動作すなわちキャラクタの行
動、発話、表情等の動作情報を生成するものである。そ
の動作情報は、インタフェース部108を介して適宜な出
力形態に変換され、出力部109により操作者(プレイ
ヤ)に伝えられる。 [2]データの構築処理 このような第1図の実施例のシステムにおいて種々の
判断や決定の処理を実行する際に必要な各種照合データ
は、データベースとして予め作成される。実施例の実行
システムの詳細な説明をする前に、先ず、データベース
の作成について説明する。 [2−1]データ生成処理装置の概略構成 本発明に用いるデータ(ファジイキャラクタデータ)
は、そのための構築ツールを用いて作成される。第2図
はその構築ツールの構成を示すもので、ファジイキャラ
クタ環境データ生成処理部201と、ファジイキャラクタ
制御データ生成処理部202と、ファジイキャラクタモデ
ル生成処理部203を備え、データ入力装置204および表示
装置205を用いて対話的にデータの生成ができるように
なっている。 [2−2]ファジィキャラクタ環境データ生成処理部 第3図は、ファジイキャラクタ環境データ生成の動作
を示すものである。データ入力部から環境データである
データ種別データベース、影響要因データベースの作
成、修正、書き込み等を行う。 ここで、データ種別データとは、質問、天気、グルー
プ雰囲気、行動、指示、話し等の予め定めたデータ項目
の種類を指すものである。 また、影響要因データとは気分影響履歴に設定するた
めのデータであり、第5図に示すようにIDとコメントか
らなっている。 [2−3]ファジィキャラクタ制御データ生成処理部 第4図はファジィキャラクタ制御データベース作成処
理の動作フローを示す図である。 先ず、環境データベースから環境データである影響要
因データおよびデータ種別データを読み込む(ステップ
401)。 作成するファジィキャラクタ制御データは第5図に示
すようなデータ構造を有し、入力データID501、データ
種別ID502、出力情報フラグ503、影響要因ID504、デー
タ種別対応データ505からなっている。入力データIDは
入力データに対して連続番号で付与されたものである。 前記読み込んだデータ種別データベースのデータが表
示装置205に表示されたら、操作者(データを設定する
操作者)はデータ種別を選択し(ステップ402)、制御
データにおけるデータ種別IDが決定される。 次に、操作者は行動、発話、表情等の出力情報につい
て、出力すべきか否かをフラグとして設定する(ステッ
プ403)。 また、ステップ402と同様にして、操作者は影響要因
を選択し(ステップ404)、影響要因IDが決定される。 そして、データ種別対応データを設定する(ステップ
405)。データ種別に対応するデータの内容であって、
例えば、データ種別が質問であるとき、質問の内容であ
る“どうして?"が対応するデータとなる。 以上のようにして決定ないしは設定された一つの制御
データはファジィキャラクタ制御データベースに書き込
まれる(ステップ406)。 すべての制御データの生成が終了するまで、以上のス
テップによる各制御データの生成処理は繰り返し行わ
れ、すべての制御データの作成が終了したとき、処理を
終了する(ステップ407)。 [2−4]ファジィキャラクタモデルデータ生成処理部 第6図はファジィキャラクタモデルデータベース作成
処理の動作フローを示す図である。ここでは、例えば登
場人物の桃太郎がどのようなキャラクタであるかを定義
したデータであるファジィキャラクタモデルデータを作
成する。ファジィキャラクタモデルのデータ構造は第7
図に示すように、キャラクタのID、各モデルの値、各影
響履歴のデータ、グループID等のデータフィールドから
なっている。 先ず、ファジィキャラクタデータ作成用のメモリ領域
を確保する(ステップ601)。 使用モデル毎に初期値を設定する(ステップ602)。 使用モデル毎に影響要因データベースを参照して、影
響履歴を初期設定する(ステップ603)。 グループデータベース(そのデータ構造は第8図参
照)を参照して、それに登録されているグループのうち
キャラクタの属するグループIDを設定する(ステップ60
4)。なお、新しくグループを作る場合には、そのグル
ープIDをデータベースに登録する。 ファジィキャラクタ個性データであるパターンデータ
テーブル(第15図参照)を作成する(ステップ605)。
また、個性を強調するためのフィルタの設定も行う。 以上の各データの設定の手順は、すべての設定が終了
するまで、続行する(ステップ606)。すべての設定が
終了したら、ステップ602〜604において設定したキャラ
クタモデルデータをファジィキャラクタモデルデータベ
ースに書き込む(ステップ607)。 また、ステップ606で作成したパターンデータをファ
ジィキャラクタ個性データベースに書き込む(ステップ
608) [3]実施例の詳細構成 第9図は第1図の構成をより詳細に示したものであ
る。状況診断部902は、質問診断処理部903、グループ雰
囲気設定処理部904および環境変化設定処理部905を備え
ており、天気モデル、体力モデル、グループ雰囲気モデ
ル、ダメージモデル等のデータベース906が診断のため
に参照される。 自己診断部907は心的情報診断処理部908および心理的
メカニズム処理部909を備えており、気分モデルおよび
元気モデルのデータベース910が参照される。 意思決定部911は意思決定処理部912を有している。 行動選択部913は行動選択処理部914、発話選択処理部
915および表情選択処理部916を備えている。 動作生成部917は行動生成部918、発話生成部919およ
び表情生成部920を備えている。 以下に、各部の機能について説明する。 [3−1]情報解析部 情報解析部901は、入力された制御データの種別の確
認(ステップ1101)と、データ内容の確認(ステップ11
02)とを行い、制御データを状況診断処理部902へ渡
す。 [3−2]状況診断部 第11図は状況診断処理のフローを示す図である。状況
診断処理部902には、情報解析部901によって出力される
指定されたキャラクタに関する第5図に示す形式のキャ
ラクタ制御データが入力される。また、指定のキャラク
タの体力モデル、ダメージモデルおよび元気モデルのデ
ータが入力される。 先ず、入力されたキャラクタ制御データのデータ種別
の判定を行う(ステップ1101)。データ種別が質問、グ
ループ雰囲気および天気モデルであるとき、状況診断部
902での処理の対象とし、それ以外のデータ種別すなわ
ち話し、指示、行動のときは、入力されたキャラクタ制
御データを自己診断処理部907へ出力する。 データ種別が質問であるときは、階層的な質問におけ
る質問レベルの操作と質問に対する診断処理を行う(11
02)。 データ種別がグループの雰囲気であるときは、入力に
応じてグループ雰囲気モデルデータを書換える(ステッ
プ1103)。 そして、グループ雰囲気モデルをパターンID化して次
の行動選択処理部へ流す。雰囲気が悪くなったときにキ
ャラクタがため息をつくとか、天気が悪くなってきたと
き雨が降ってきたよというような言葉を発話するため、
行動選択部へパターンIDを出力する(ステップ1104)。 パターンIDはパターン照合したときにででくる照合結
果を表す番号である。それは0〜4の5段階のレベルが
あって、0が最悪、4が最高、2が普通、3は2と4の
中間である。モデルのデータは0〜100の値をとるよう
になっているので、照合の結果の値を25で割ることによ
り、0〜4の5段階のパターンIDが得られる。 データ種別が天気であるときも、上記グループ雰囲気
の場合と同様な処理を行う。すなわち入力に応じて天気
モデルデータを書換え(ステップ1105)、パターンID化
して(ステップ1106)、行動選択部913へ出力する。 [3−21]質問診断処理 第12図は、質問が入力されたときの解答処理の概略の
流れの例を示す図である。プレイヤが特定のキャラクタ
を指定して質問を入力すると、情報解析部901で言葉の
認識をしてキャラクタIDおよび質問IDを質問診断処理部
903へ入力する。質問診断処理部903ではファジィパター
ン照合により質問に対する状況診断を行う。状況診断の
結果により発話選択処理部914は発話の選択をする。そ
して、発話生成部918で発話シーケンスを作成し、画面
表示される。 [3−211] 質問レベル制御と質問診断(第13図) 質問はレベル0からレベル3までの4段階の階層構成
となっており、それぞれの質問レベルに応じて診断処理
が行われる。 質問レベルは、その質問の深さを示すものである。 レベル0は、キャラクタの全体的な状態の問い合わせ
を行うものである。 レベル1は、キャラクタの部分的な状態の問い合わ
せ、またはレベル0回答に対する要因の問い合わせを行
うものである。 レベル2は、レベル1の状態の原因を探る問い合わせ
を行うものである。 レベル3は、さらに状態の原因を探る問い合わせを行
うものである。 第13図は質問レベル制御と質問診断の全体的な流れを
示す図である。 第13図において、質問レベルの判定のために、まず、
質問IDの判定を行う(ステップ1301)。質問IDが「どう
して」でなかったときは、さらにそれが全体的状態を表
す質問か否かを判定する(ステップ1302)。全体的な質
問とは、例えば、“戦えるか?"“調子はどうか?"など複
数のモデルを全体的に照合して回答が決る質問である。
全体的状態の質問以外の質問とは、例えば、“体力はど
うか?"“ダメージはどうか?"など一つの特定のモデル、
あるいは特定の主として参照する主モデルと補助的な副
モデルの組み合せから回答が決る質問である。 前記判定により全体的状態の質問であったときは、質
問レベルを設定するレジスタに0を設定する(ステップ
1303)。そして、後述するような複数モデル照合を行う
(ステップ1304)。 次に、その照合結果に対して、後述するような主副モ
デル照合による回答(レベル0回答分析)を行う(ステ
ップ1305)。 さらに、ステップ1305の副モデルを主モデルと見立て
て、直接回答のための主副モデル照合を行う(ステップ
1306)。 さらに、後述するように、モデルの影響履歴を分析
し、回答を求める(ステップ1307)。 照合結果は診断結果テーブル(第31図)に格納する。 ステップ1302において、全体的状態以外の質問である
と判定されたときは、質問レベルレジスタを1に設定す
る(ステップ1309)。そして、直接回答のための主副モ
デル照合を行う(ステップ1310)。そして前述のステッ
プ1306〜1308の処理を行う。 ステップ1301において、質問IDが“どうして?"である
と判定されたときは、現在の質問レベルの判定を行い
(1312)、質問レベルが1のときは、モデルワークに設
定されているモデル(第36図ステップ3607)を主モデル
とする後述するような主副モデル照合(レベル0回答分
析)を行う(ステップ1313)。そして前述のステップ13
06〜1308の処理を行う。 ステップ1312の質問レベルの判定の結果、質問レベル
が2であったときは、モデルワークに設定されているモ
デルの影響履歴を分析し、回答を求める(ステップ130
7)。 ステップ1312の質問レベルの判定の結果、質問レベル
が3であったときは、後述するように、質問頻度分析に
よる回答を行う(ステップ1314)。 [3−212]質問レベル0に対応する回答(第14図) 第14図は質問レベル0すなわちキャラクタの全体的な
状態の問い合わせに対する複数モデル照合による回答の
処理を説明するための図であり、第13図のステップ1304
の処理の詳細を示すものである。 入力としては、プレイヤの指定するキャラクタIDおよ
び質問ID、キャラクタの状態を示す対象モデル、キャラ
クタ個性データベースからのパターンデータ(第15図)
がある。 キャラクタIDは、プレイヤが指示したキャラクタのID
である。質問IDはプレイヤの発した質問のIDである。対
象モデルは、指定されたキャラクタに関する情報であ
り、第7図に示すようなデータ構造を有し、最初は対象
モデルデータベースからのデータで初期設定される。こ
れには本実施例では、キャラクタ自身が持つ情報、グル
ープ状態を表す情報、環境状態を表す情報がある。その
具体的内容は次の通りである。 キャラクタ自身の状態を表す情報としては、肉体の基
本的な力を表す体力モデル(生理的状態)、肉体的な状
態を表すダメージモデル(機能的状態)、勢い、調子
(ノリ)を表す元気モデル(精神的状態)、精神的な状
態を表す気分モデル(心理的状態)がある。グループ状
態を表す情報としてグループ雰囲気モデル(グループ状
態)がある。環境状態を表す情報として、天気の良好状
態を表す天気モデルがある。 複数モデル照合のために、キャラクタごとにその状態
と対象モデルの個別のパターンデータとの関係により個
性を表したパターンマトリックスが用いられる。第15図
は照合のためのパターンデータのマトリックスの構成を
示すものである。パターンデータはこの例では第16図に
示すようにL(Low)、M(Middle)、H(High)のシ
ンボルで記述している。シンボルではなくパターンのま
まで記述してよいことはもちろんである。 第14図の説明に戻ると、指定されたキャラクタと質問
に対応するパターンデータのマトリックスを個性データ
ベースから選択的に読み出す(ステップ1401)。例え
ば、キャラクタとして桃太郎を指定して“戦える?"と質
問した場合、桃太郎に対する質問“戦える?"に関して作
成されている個性データベースのパターンデータ(第15
図の1枚目のようなパターンデータ)が選択される。 次に、指定されたキャラクタの状況を示すキャラクタ
モデルデータ(第7図)と上記パターンデータとを照合
する(ステップ1402)。そして最も合致度の高いパター
ンは、最悪(0)〜最良(4)のいずれの状態のパター
ンであるかを決定し、そのパターンIDを出力する(ステ
ップ1403)。なお、パターンの記述および照合方法は、
特開平2−98738号公報(出願人株式会社アドイン研究
所、発明者中村健外3名「知識コンパイル・パターン型
推論システム)に記載のものを利用することができる。
ここで、簡単に説明すれば、パターンデータは、正規化
されたデータを記述する中心値P、比較原関数{f1
(p),f2(v),f3(va)F}(N)の特性を変更する
ための分散値V、比較原関数の特性を変更する暖味度Va
によって構成される。そして合致度は、比重値をgとす
るとき、次式により求めることができる。 [3−213]質問レベル1に対応する回答 質問レベル1はキャラクタの部分的な状態の問い合わ
せであり、これには直接にキャラクタの部分的な状態を
確認する質問()と、質問レベル0に対応する回答に
対し、“どうして?"という原因を探るための質問()
とがある。 直接にキャラクタの部分的な状態を確認する質問に
対する回答処理(第17図) 第17図は直接キャラクタの部分的な状態を確認する質
問に対する回答処理を説明するための図であり、第13図
のステップ1306,1310の処理の詳細を示すものである。 入力はキャラクタID、質問ID、主モデル、副モデルお
よび主副モデルのパターンデータである。 この場合は、質問IDによって主モデルは決定される。
また、副モデルは次表に例示するように主モデルに固定
的に割り付けられる。 主モデル 副モデル 体力 元気 元気 グループ雰囲気 気分 グループ雰囲気 環境 気分 ダメージ 元気 グループ雰囲気 気分 キャラクタIDと質問IDに対応するパターンデータを個
性データベースから選択的に読み出す(ステップ170
1)。例えば、キャラクタとしてて桃太郎を指定し、
“体力はどう?"という質問をした場合、対象モデルは主
モデルとして体力モデルが指定されたことになり、上記
の表から副モデルは元気モデルが指定される。そして、
桃太郎の体力および元気を主副モデルとするパターンデ
ータマトリックスが読み出される。第18図(a)は主副
モデルのパターンデータの例を示すものである。パター
ンデータにおける主、副モデルには重みフィルタで個性
が強調され、パターンの記述により個性が記述されてい
る。具体的にはフィルタの割合は7対3を基本とし、部
分的に割合が変更されている。 そして、桃太郎の状態を表す上記主副モデルを上記パ
ターンデータと照合する(ステップ1702)。そして最も
合致度の高いパターンは、最悪(0)〜最良(4)のい
ずれの状態のパターンであるかを決定し、そのパターン
IDを出力する(ステップ1703)。 “どうして?"という質問に対する回答処理(第19
図) 第19図は、質問レベル0に対する回答に対し、どうし
て?"という質問をしたときの回答処理を示すもので、第
13図のステップ1310の詳細を示すものである。 第13図のレベル0の質問で使用した対応するパターン
データのマトリックスを求める(ステップ1901)。次に
レベル0の質問に対して、一番寄与率の高かったモデル
を求める(ステップ1902)。レベル0の全体的な合致度
の最も高かった“状態”に対応する各モデルの合致度に
重みフィルタの値を掛けた値を寄与率とする。 寄与率の最も高かったモデルを主モデルとし、その主
モデルに対応する予め定められたモデルを副モデルとす
る主副モデルのパターンデータを個性データベースから
読み出す。そして、そのパターンデータに対し現在対象
となっているモデルの状態を照合する(1903)。照合の
結果、最も合致度の高い“状態”のパターンIDを求める
(ステップ1904)。 第19図の左側に例示するように、例えば、レベル0に
おいて、“戦える?"の質問に対し、照合の結果、“絶対
イヤ!"と回答した場合、さらに“どうして?"と原因を尋
ねたとする。第19図の回答処理では“絶対イヤ!"と回答
するのに最も寄与率の高いモデルを求める。例えば、寄
与率の高いモデルが体力モデルであったとすれば、体力
モデルを主モデルとし、それに元気モデルを副モデルと
する対応パターンデータと照合する。その結果、“状
態”が最悪に対し合致度が最も高かったとき、例えば、
“体力が全然ない!"と回答する。 [3−214]質問レベル2に対応する回答(第20図) 第20図は質問レベル2すなわち質問レベル1の回答に
おけるモデルの“状態”の原因を探る問い合わせに対
し、影響履歴による回答処理を示す図であり、第13図の
ステップ1307の詳細を示すものである。 キャラクタモデルデータベースから対象モデルの影響
履歴情報を取り込む(ステップ2001)。そして対象とな
るモデルの履歴を選択する。影響履歴は+要因と、−要
因の組からなり、それぞれIDで表されている(ステップ
2002)。質問レベル1での処理においてその質問に対す
る回答が、良側にあるか悪側にあるかを示すフラグがた
てられており、そのフラグを参照して影響履歴データの
要因データを取り出し、要因IDを自己診断部105へ出力
する(ステップ2003)。 例えば、質問レベル1の処理において、“体力はどう
?"という質問に対し“全然ない”と回答し、さらに“ど
うして?"と質問した場合、体力モデルの影響履歴を検索
して、+要因が“休んだ”を表すID「5」で、−要因が
“戦った”を表すID「10」であったとする。前記フラグ
はこの場合、−側であることをあらわしているので、−
の要因IDを行動選択部913へ出力し、それに対応して予
め定められている“戦ったから”という回答を表示す
る。 [3−215]質問レベル3に対応する回答(第20図) 第21図は質問レベル3すなわち質問レベル2の回答に
おけるモデルの“状態”の原因をさらに探る問い合わせ
に対し、質問頻度分析による回答処理を示す図であり、
第13図のステップ1314の詳細を示すものである。 この質問レベル3に対する回答処理は心理的メカニズ
ム処理部909および意思決定処理部912によって行われ
る。 心理的メカニズム処理部909において、固定的に用意
されている悪影響データと現在のモデル状態から、心理
的メカニズムにより気分モデルへ影響を与える(ステッ
プ2101)。なお、心理的メカニズムについては、第26図
により後で詳述する。 次に、意思決定処理部912において、心理ブロックに
より質問に対する回答レベルを決定する(ステップ210
2)。その回答レベルをパターンIDとして行動選択部913
へ出力する。なお、心理的ブロックについては、第29図
および第30図により後で詳述する。 影響履歴の作成法 質問の場合(第22図) 第22図は、質問の場合の影響履歴を作成する処理を示
すものである。同じ質問の連続した回数をカウントし、
3回同じ質問が続いた場合は、気分モデルの−影響要因
側へ要因IDを設定する。例えば、−影響要因に“しつこ
く質問されたから”を示すID「10」を設定する。 話しの場合(第23図) 第23図は、話しの場合の影響履歴を作成する処理を示
すものである。 状態(体力、気分・・)、会話語(プレッシャを与え
るもの、開放感を与えるもの)を入力し、後述する心理
的メカニズム処理によりパターンデータを用いて気分モ
デルのパターン照合をする(ステップ2301)。照合の結
果が気分が良いか否かを判定し(ステップ2302)、気分
がよい状態であったときは、気分モデルの+影響要因側
へ要因IDを設定し(2303)、そうでないときは−影響要
因側へ要因IDを設定する(2304)。例えば、状態ととも
に“さすがだね”というような会話言語が入力されたと
き、心理的メカニズムによる判断で、気分が良い状態で
あったときは気分モデルの+影響要因側へ“ほめられ
た”を表すIDを設定し、逆に気分が悪いと判断されたと
きは気分モデルの−影響要因側に“変なこといわれた”
を表す要因IDを設定する。 指示/行動の場合(第24図) 指示または行動に対し、対応するキャラクタの状態
を、心的情報診断(パターン照合)により診断する(ス
テップ2401)。そして合致度の高いパターンIDを求める
(ステップ2402)。得られたパターンIDがキャラクタ自
身にとって良いか否かを判定し(2403)、良いとの判定
であった場合は、指示または動作が影響するモデルの+
影響要因側へIDを設定する(ステップ2404)。良いとの
判定でなかった場合は指示または動作が影響するモデル
の−影響要因側へIDを設定する(ステップ2405)。例え
ば、“戦え”という指示に対し心的情報診断によりパタ
ーンID=0(最悪)であった場合、自分にとって良くな
い状態であるので、対応する気分モデルの−影響要因側
に“変な指示をされた”を表す要因ID=10を設定する。 [3−3]自己診断部 [3−31]心理的メカニズム処理(第26図) 第26図は心理的メカニズム処理を説明するための図で
あり、会話(話し)を対象とする例を示している。な
お、話し(指示、行動も同じ)に対する回答処理の全体
的な流れは第25図に示してある。プレイヤの選択した話
しに対し、気分モデル、元気モデルを用いた心理的メカ
ニズム処理により自己診断を行い、さらに心理ブロック
による返答レベルの決定を行い、その結果により発話選
択、発話作成をして、画面表示を行う。 会話が対象とするキャラクタのキャラクタ個性データ
すなわちパターンデータマトリックスをキャラクタ固定
データベースから選択的に読み出す(ステップ2601)。 対象とするキャラクタのモデルデータの示す現在の自
身の状態と、入力された会話言語(表、裏)を入力と
し、キャラクタ個性データのなかの良い気分パターンと
の照合を行う(ステップ2602)。会話言語に対しては第
27図に示すように表の意味と裏の意味を数値として表現
できる予め定められている。例えば、“もういいよ!"と
いう会話言語が入力されると表が80、裏が10の言語とし
て取り扱われる。 照合パターンの例を第18図(b)に示す。このような
気分に関するパターンデータ(個性)としては本実施例
では次の4個が用意されていて、照合のためのキャラク
タモデルの組み合せは次のとおりである。 個性 キャラクタモデル 勇気付けられた場合 体力・気分・ダメージ 誉められた場合 体力・気分・ダメージ 肉体的開放感を与えられた場 体力・元気・ダメージ プレッシャをかけられた場合 元気・気分・グループ 雰囲気 照合においてキャラクタの現在の状態(体力、気分、
ダメージ)とパターンデータとの合致度を算出する。ま
た、同時に、算出した合致度の大きさに応じて、一定の
基準に照らして良い気分の状況モデルの値を増減する。
なお、良い基準の状況モデルは、前記の気分に関する4
つのキャラクタ個性データのそれぞれに対応した4つが
用意されている。 次に、同様にしてキャラクタ個性データのなかの悪い
気分パターンとの照合を行うとともに、照合により算出
した合致度の大きさに応じて、悪い気分状況モデルの状
況モデル値を更新する(ステップ2602)。なお、悪い基
準の状況モデルも、前記の気分に関する4つのキャラク
タ個性データのそれぞれに対応した4つが用意されてい
る。 得られた良い気分状況モデルおよび悪い気分状況モデ
ルの両者の値を含むすべて気分に関する状況モデルに基
づいて気分モデルを作成する(ステップ2604)。すなわ
ち、前述の勇気付けられた場合、誉められた場合、
肉体的開放感を与えられた場合、プレッシャをかけ
られた場合、の4つの場合のキャラクタ個性データのそ
れぞれに対応して設けられた4つの良い気分状況モデル
と4つの悪い気分状況モデルの値を総合して気分モデル
を生成する。すなわち、気分モデルを次式によって算出
する。 気分モデル=50+(良い気分状況モデル総計)/4−
(悪い気分状況モデル総計)/4 次に、上で求めた気分モデル値の値により気分の長期
的傾向を求め、照合結果により短期的傾向を求める(ス
テップ2605)。その長期的傾向は、気分モデル値が0〜
49を悪い傾向とし、50〜100を良い傾向とする。求めた
気分の傾向は、キャラクタモデルデータの長期的気分フ
ィールドに格納する。 短期的傾向はステップ2602,2603において照合した結
果の合致度の高い側を気分の短期的傾向とする。 求めた短期的傾向が良いものであるか否かを判定する
(ステップ2606)。求めた短期的傾向が良いものであっ
たときは気分影響履歴(+側)に、入力された大局的意
味に対応するIDを設定する(ステップ2607)。また、求
めた短期的傾向が悪いものであったときは気分影響履歴
(−側)に、入力された大局的意味に対応するIDを設定
する(ステップ2608)。 気分モデルの値からパターンIDを求める。すなわち、
パターンID=気分モデル値/25により求める(ステップ2
609)。 体力、元気、ダメージの各モデルについてそれぞれ主
副モデル照合をして診断結果テーブルに格納する(ステ
ップ2610)。 [3−32]心的情報診断処理 第28図は心的情報診断処理の流れを示すものである。
心的情報診断処理は行動および指示の自己診断として行
う処理である。 指示に対応するキャラクタ個性データ(パターンデー
タ)をキャラクタ個性データベースから選択的に読み出
す(ステップ2801)。 現在のキャラクタの状況を表す対象モデルをキャラク
タ個性データと照合する(ステップ2803)。 照合の結果、合致度の一番高い“状態”に対応するパ
ターンIDを求める(ステップ2804)。 パターンIDの値を調べ(ステップ2805)、パターンID
=0のときは、第26図に説明した心理メカニズム処理に
より、悪影響データを与えて、気分モデルへ反映させる
(ステップ2806)。パターンID=4のときは、心理メカ
ニズム処理により好影響データを与えて、気分モデルへ
反映させる(ステップ2807)。また、パターンIDの値が
中間の値のときすなわちパターンID=1,2,3のときは気
分モデルへの反映はさせない。 指示または行動に対応し選択されたキャラクタ個性デ
ータ(パターンデータ)は複数モデルか否かを判定する
(ステップ2808)。 その判定の結果、複数モデルであったときは、主副モ
デル照合を行う(ステップ2809)。この主副モデル照合
は、前述の質問の主副モデル照合(レベル0回答分析)
と同じく、寄与率の高いモデルを検索し、照合する。 上記判定の結果、単数モデルであったときは、主副モ
デル照合(直接)を行うとともに、副モデルを主モデル
と見立てて主副モデル照合を行う(ステップ2810)。こ
の指示または行動に対応する主副モデル照合(直接)
は、前述の質問の主副モデル照合(直接)と同じ処理で
ある。 各照合結果は診断結果テーブルへ格納し、ステップ28
06,2807で更新した気分モデルデータは気分モデル記憶
領域に格納する。 [3−4]意志決定部 第29図は、意志決定処理の動作を説明するためのフロ
ー図である。 意志決定は、キャラクタの心理状態を参酌するために
行う処理である。まず、入力が指示または行動である
か、あるいは話しであるかを判定する(ステップ290
1)。 指示または行動であるときは、指示または行動の診断
結果を診断結果テーブルより求める(ステップ2902)。 気分モデルと診断結果を入力とし、心理ブロックへの
パターン照合を行う(ステップ2903)。心理ブロック
は、キャラクタ個性データベースに格納されているもの
であり、第30図のように、気分データのパターンデータ
と診断結果のパターンデータの組み合せによってキャラ
クタの各種の心理状態を表したパターンデータマトリッ
クスである。 パターン照合の結果、合致度の一番高いパターンID
(PID)を診断結果テーブルへ格納する(ステップ290
4)。 例えば、“戦え”という指示であった場合に、診断結
果テーブルの複数モデル照合パターンIDが2(普通)で
あったとし、かつ気分モデルのパターンIDが3であった
とすれば、心理ブロックとの合致度は状態が“良”(パ
ターンID=3)で最も高いので、診断結果テーブルのは
複数モデル照合パターンIDを3に更新する。 [3−5]行動選択部 第32図は行動選択部の処理動作を説明するためのフロ
ー図である。 行動選択部913への入力はキャラクタ制御データ、お
よび状況診断部902または意志決定部911で生成された診
断結果テーブルの各データが処理のために用いられる。 まず、キャラクタ制御データの出力情報フラグを調べ
て発話フラグがオンであるかオフであるかを判定する
(ステップ3201)。 発話は出力情報フラグがオンのとき、すなわち発話出
力をすることが指示されているときは、診断結果テーブ
ルを入力とし、発話選択パターンと照合する(ステップ
3202)。発話選択パターンは、第33図に示すようなマト
リックスからなっており、キャラクタ個性データベース
に格納されているものの一つである。診断結果テーブル
と同じ項目のパターンデータの組み合せによって各種発
話内容が決るものである。発話内容は、図の例では、
“絶対いやだ”のような結果的発言が11個(パターンID
は0〜10)、“体力がない”のようなモデルに関する発
話20個(パターンID=11〜30)、“戦ったから”のよう
な履歴に関する発話が20個(パターンID=31〜50)、
“なんだよ”のような気分的な発話が10個(パターンID
=51〜60)それぞれ用意されている。このような発話選
択パターンの各パターンデータに対し診断結果テーブル
の対応する各要素のデータとそれぞれ照合して各項目の
合致度を求め、行方向の集計により各種発話のそれぞれ
に対応する合致度を求める。 そして合致度の高い上位5個の発話のパターンIDを選
択し、発話データテーブルへ格納する(ステップ320
3)。発話データテーブルのデータ形式は第37図に示す
とおりであり、データ数と選択された発話のパターンID
のフィールドからなっている。 ステップ3201で制御データの出力情報フラグを調べて
発話フラグがオフであると判定されたときは、発話デー
タテーブルのデータ数に0を設定する(ステップ320
4)。 次に、行動および表情についても、会話の場合とほぼ
同様な処理をする。 すなわち、行動については、キャラクタ制御データの
出力情報フラグを調べて行動フラグがオンであるかオフ
であるかを判定し(ステップ3205)、行動出力情報フラ
グがオンのとき、診断結果テーブルを入力とし、行動選
択パターンと照合する(ステップ3206)。行動選択パタ
ーンは、第34図に示すようなマトリックスからなってい
る。そして合致度の高い上位1個の行動のパターンIDを
選択し、第38図に示す行動データテーブルへ格納する
(ステップ3207)。ステップ3205で行動フラグがオフで
あると判定されたときは、行動データテーブルのデータ
数に0を設定する(ステップ3208)。 表情の出力場合にも同様にして、第35図の表情選択パ
ターンに対し診断結果テーブルを照合し(ステップ321
0)、合致度の一番高いパターンIDを第39図に示すよう
な表情データテーブルに格納する(ステップ3211)。表
情の出力をしない場合には、表情データテーブルにデー
タ数0を設定する(ステップ3211)。 [3−6]動作生成部 動作生成部917は行動選択部913で生成された発話、行
動または表情の各データテーブルに基づいてこれらの動
作を生成する。第36図に基づいて発話データの生成の場
合について説明する。 発話データテーブルのデー数を調べて(ステップ360
1)、データがあれば、発話データテーブルを入力と
し、第40図に示すような発話生成パターンと照合する
(ステップ3602)。 照合の結果合致度の一番高いパターンIDを求める(ス
テップ3603)。 パターンIDに対応し、発話データテーブルのデータ入
れ換え、削除をする(ステップ3604)。すなわち、発話
データテーブルのデータを、合致度の一番高いパターン
IDに対応する発話生成方式で入れ替える。 発話データテーブル内の発話パターンIDから最終的な
発話レベルを求める(ステップ3605)。発話レベルが0
または1であるかを調べ(ステップ3606)、0または1
であったときは、発話データテーブルから合致度の高い
(テーブル内で先頭に近い側)モデルを求めるととも
に、モデルワークにモデルIDを設定する(ステップ360
7)。モデルワークに設定されたパターンIDは第13図の
主副モデル照合のときの主モデル指定に用いられる。ま
た、質問レベルに発話レベル+1を設定する(ステップ
3608)。発話レベルが0でも1でもなかったときは、質
問レベルに3を設定する。これらの質問レベルは第13図
の質問レベルの判定処理のとき参照される。[1] Schematic Configuration of Embodiment FIG. 1 is a block diagram showing a schematic configuration of an embodiment of the present invention.
It is. When specifically explaining and explaining in this embodiment, “Mota
Assuming an example applied to the simulation game of "Taro"
It shall be. Generally, a character with a rich personality is set up.
A set of interactive application software
Must be applicable as a human interface
Of course. This system includes an input unit 101, as shown in FIG.
Interface unit 2, information analysis unit 103, situation diagnosis unit 104,
Self-diagnosis unit 105, decision-making unit 106, action selection unit 107, operation
It comprises a generation unit 108, an output unit 109, and the like. The input unit 101 is used to input a character such as an instruction or a question.
Power information, or information about the surrounding conditions such as weather or the environment.
A device for the operator to input
And joysticks. The interface unit 102 includes an input unit 101, an output unit 109, and the like.
Interface with external devices and to which character
Recognition of the input is performed. The information analysis unit 103 is input via the interface unit 102
Analyzes the data, confirms the type of the data,
Check the contents of the data. The situation diagnosis unit 104 displays the words and
What kind of situation does the character itself respond to changes in the surrounding environment
Is determined by fuzzy pattern matching, and the action selection unit 10
7 input. The self-diagnosis unit 105 performs psychological mechanism processing and mental information
A diagnostic process is performed. Its psychological mechanism processing
Is the psychological effect of the entered words on the character
Based on the character's own state (physical / psychological) and words
Then, a decision is made by fuzzy pattern matching,
To be input to. At the same time, a mental state
Generate a minute model. In addition, the mental information diagnosis processing
The emotional state of given instructions and actions
Fuzzy putters based on their own condition (physical / psychological)
That is obtained by the collation and used as an input to the decision-making unit 106.
It is. The decision making unit 106 responds to the
Judge and decide based on Kuta's own psychological state (psychological block)
Is what you do. The action selection unit 107 checks the information input to the character and the diagnosis.
Select the action to be taken from the results of the
This is to be input to the crop generation unit 108. The action generation unit 108 receives the information input from the action selection unit 107
Of each character based on the
It generates motion information such as motion, utterance, and facial expression. So
Operation information is appropriately output via the interface unit 108.
It is converted to a force form, and the
YA). [2] Data construction processing In the system of the embodiment shown in FIG.
Various collation data necessary for executing judgment and decision processing
Is created in advance as a database. Execution of the embodiment
Before giving a detailed description of the system,
Will be described. [2-1] Schematic Configuration of Data Generation Processing Device Data (Fuzzy Character Data) Used in the Present Invention
Is created using a construction tool for that purpose. Fig. 2
Shows the configuration of the construction tool.
Environment data generation processing unit 201 and a fuzzy character
The control data generation processing unit 202 and the fuzzy character model
A data input device 204 and a display
Generate data interactively using device 205
Has become. [2-2] Fuzzy character environment data generation processing unit FIG. 3 shows the operation of fuzzy character environment data generation.
It is shown. Environmental data from the data input section
Creation of data type database and influence factor database
Performing, modifying, writing, etc. Here, the data type data includes questions, weather, and groups.
Predefined data items such as atmosphere, actions, instructions, and talk
It refers to the type of Influence factor data is set in the mood effect history.
This is the ID and comment as shown in Fig. 5.
It has become. [2-3] Fuzzy character control data generation processing unit FIG. 4 shows a fuzzy character control database generation processing unit
It is a figure which shows the operation | movement flow of a process. First, the environmental data, the impact data
Read cause data and data type data (step
401). The fuzzy character control data to be created is shown in Fig. 5.
It has a data structure like
Type ID 502, output information flag 503, influence factor ID 504, data
Data 505. The input data ID is
It is a serial number given to input data. The data of the read data type database is displayed in a table.
When displayed on the display device 205, the operator (sets data
The operator) selects a data type (step 402) and controls
The data type ID in the data is determined. Next, the operator describes output information such as actions, utterances, and facial expressions.
And set whether or not to output as a flag (step
403). Also, in the same manner as in step 402, the operator
Is selected (step 404), and the influence factor ID is determined. Then, data type corresponding data is set (step
405). The content of the data corresponding to the data type,
For example, when the data type is a question,
“Why?” Is the corresponding data. One control determined or set as described above
Data is written to a fuzzy character control database
(Step 406). Until all control data has been generated,
The generation process of each control data by step is repeated
When all control data has been created,
The process ends (step 407). [2-4] Fuzzy character model data generation processing unit FIG. 6 shows creation of a fuzzy character model database
It is a figure showing the operation flow of processing. Here, for example,
Define what kind of character Momotaro is
Fuzzy character model data
To achieve. The data structure of the fuzzy character model is No. 7.
As shown in the figure, the character ID, the value of each model,
Hiking history data, data fields such as group ID
Has become. First, a memory area for creating fuzzy character data
Is secured (step 601). An initial value is set for each use model (step 602). Refer to the influencing factor database for each usage model and
The sound history is initialized (step 603). Group database (See Figure 8 for the data structure
)) And refer to the group
Set the group ID to which the character belongs (step 60
Four). If you create a new group,
Register the loop ID in the database. Pattern data that is fuzzy character personality data
A table (see FIG. 15) is created (step 605).
Also, a filter for emphasizing individuality is set. All the above settings are completed.
The process is continued (step 606). All settings
When finished, select the character set in steps 602 to 604.
Data from the fuzzy character model database.
(Step 607). The pattern data created in step 606 is
Write to the j character personality database (step
608) [3] Detailed configuration of the embodiment FIG. 9 shows the configuration of FIG. 1 in more detail.
You. The situation diagnosis unit 902 includes a question diagnosis processing unit 903 and a group atmosphere.
Equipped with an atmosphere setting processing unit 904 and an environment change setting processing unit 905
Weather model, physical fitness model, group atmosphere model
Database 906 for damage and damage models for diagnosis
Referred to. The self-diagnosis unit 907 includes the mental information diagnosis processing unit 908 and the psychological
It has a mechanism processing unit 909, and has a mood model and
The database 910 of the healthy model is referred to. The decision making section 911 has a decision making section 912. The action selection unit 913 is an action selection processing unit 914, an utterance selection processing unit
915 and an expression selection processing unit 916 are provided. The action generator 917 includes an action generator 918, an utterance generator 919,
And a facial expression generator 920. The function of each unit will be described below. [3-1] Information Analysis Unit The information analysis unit 901 checks the type of the input control data.
Confirmation (step 1101) and data contents confirmation (step 11)
02) and passes the control data to the situation diagnosis processing unit 902.
You. [3-2] Situation Diagnosis Unit FIG. 11 is a diagram showing a flow of the situation diagnosis processing. Status
Output to the diagnostic processing unit 902 by the information analyzing unit 901
A character of the format shown in FIG. 5 for the specified character
Ractor control data is input. Also, specified characters
Data of the physical model, damage model and energy model
Data is entered. First, the data type of the input character control data
Is determined (step 1101). Data type is question, group
When it is a loop atmosphere and weather model, the situation diagnosis unit
902 and the other data types
When talking, instructing, or acting, the input character system
The control data is output to the self-diagnosis processing unit 907. If the data type is a question, use a hierarchical question
Perform question-level operations and diagnostic processing for questions
02). If the data type is group atmosphere, enter
Rewrite the group atmosphere model data accordingly (step
1103). Then, convert the group atmosphere model into a pattern ID and
To the action selection processing section. When the atmosphere gets worse
When the sighs sigh or the weather is getting worse
To say words like it's raining,
The pattern ID is output to the action selection unit (step 1104). The pattern ID is the result of pattern matching.
It is a number indicating the result. It has 5 levels from 0 to 4
0 is the worst, 4 is the highest, 2 is normal, 3 is 2 and 4
It is in the middle. Model data should take values from 0 to 100
Is divided by 25.
Thus, five levels of pattern IDs 0 to 4 are obtained. Even when the data type is weather, the above group atmosphere
The same processing as in the case of is performed. Ie weather according to the input
Rewrite model data (step 1105) and create pattern ID
(Step 1106), and outputs the result to the action selection unit 913. [3-21] Question Diagnosis Process FIG. 12 is a schematic diagram of an answer process when a question is input.
It is a figure showing an example of a flow. Player has a specific character
And input a question, the information analysis
Recognition and character ID and question ID
Enter 903. Fuzzy putter in the question diagnosis processor 903
Situation diagnosis for the question is performed by collation. Diagnostic
The utterance selection processing unit 914 selects an utterance according to the result. So
Then, the utterance generation unit 918 creates an utterance sequence, and
Is displayed. [3-211] Question level control and question diagnosis (Fig. 13) Questions are organized in four levels from level 0 to level 3
Diagnosis processing according to each question level
Is performed. The question level indicates the depth of the question. Level 0 queries the overall state of the character
Is what you do. Level 1 inquires about the partial state of the character
Or inquire about factors for Level 0 answers
Is Umono. Level 2 queries to find the cause of level 1 status
Is what you do. Level 3 queries to further determine the cause of the condition
Is Umono. Figure 13 shows the overall flow of question level control and question diagnosis.
FIG. In FIG. 13, in order to determine the question level, first,
The question ID is determined (step 1301). Question ID is "How
If not, then it also shows the overall state
It is determined whether the question is a question (step 1302). Overall quality
Questions include, for example, “Can you fight?” “How are you?”
This is a question whose answer is determined by collating the number model as a whole.
Questions other than the general status question include, for example,
One specific model, like "What about damage?"
Or a particular primary reference primary model and auxiliary secondary
This is a question whose answer is determined by the combination of models. If the question is of overall status by the above judgment,
Set 0 to the register that sets the question level (step
1303). Then, multiple model matching as described later is performed.
(Step 1304). Next, a main / sub mode as described later is applied to the matching result.
Perform an answer (level 0 answer analysis) by Dell verification (step
1305). Further, the sub model in step 1305 is regarded as the main model.
To perform primary and secondary model matching for direct answers (step
1306). In addition, analyze the model's impact history as described below.
Then, an answer is requested (step 1307). The collation result is stored in the diagnosis result table (FIG. 31). In step 1302, it is a question other than the general status
Is set, the question level register is set to 1.
(Step 1309). And the primary and secondary models for direct answers
Dell matching is performed (step 1310). And the above-mentioned steps
Steps 1306 to 1308 are performed. In step 1301, the question ID is “Why?”
When it is determined, the current question level is determined
(1312) If the question level is 1, set it in the model work.
The specified model (Fig. 36, step 3607) is the main model
The main / sub model matching as described below (for level 0 answer
(Step 1313). And step 13 above
The processing from 06 to 1308 is performed. As a result of the question level determination in step 1312, the question level
Is 2, the model set in the model work
Analyze Dell's impact history and ask for answers (step 130
7). As a result of the question level determination in step 1312, the question level
Was 3, the question frequency analysis was performed as described later.
A response is made (step 1314). [3-212] Answer corresponding to question level 0 (FIG. 14) FIG. 14 shows question level 0, that is, the overall character
Answers by multi-model matching to status queries
FIG. 14 is a diagram for explaining the processing, and is a step 1304 in FIG.
This shows the details of the processing. Inputs include a character ID specified by the player and
And question ID, target model indicating character status, character
Pattern data from the Kuta personality database (Fig. 15)
There is. Character ID is the ID of the character specified by the player
It is. The question ID is an ID of a question issued by the player. versus
The elephant model is information about the specified character.
Has a data structure as shown in FIG.
Initialized with data from model database. This
In this embodiment, the information and group
There is information indicating a loop state and information indicating an environmental state. That
The specific contents are as follows. Information that represents the state of the character itself is based on the physical
Physical strength model (physiological state), representing physical strength, physical condition
Damage model (functional state), momentum, condition
(Nori) energy model (mental state), mental state
There is a mood model (psychological state) that expresses the state. Group
Group atmosphere model (group form)
State). Good weather conditions as information indicating environmental conditions
There is a weather model that represents the state. The state of each character for multiple model matching
And the individual pattern data of the target model.
A pattern matrix expressing the characteristics is used. Fig. 15
Shows the configuration of the matrix of pattern data for matching.
It is shown. The pattern data is shown in Fig. 16 in this example.
As shown, the L (Low), M (Middle), and H (High)
It is described in symbols. Patterns, not symbols
Needless to say, it is possible to describe up to. Returning to the description of FIG. 14, the designated character and the question
The matrix of pattern data corresponding to
It is selectively read from the base (step 1401). example
If you specify Momotaro as a character, "Can you fight?"
If asked, work on the question "Can you fight?"
Pattern data of the created personality database (No. 15
(The pattern data as in the first sheet in the figure) is selected. Next, a character indicating the status of the specified character
Collating model data (Fig. 7) with the above pattern data
(Step 1402). And the best match putter
Is the worst (0) to the best (4)
Pattern ID and output the pattern ID (step
1403). Note that the pattern description and matching method
JP-A-2-98738 (Applicant Co., Ltd. Add-in Research)
Tokoro Nakamura, three inventors, "Knowledge compilation pattern type"
Inference system) can be used.
Here, in simple terms, pattern data is normalized
Center value P describing the obtained data, comparison original function {f1
(P), f2 (v), f3 (va) Change the characteristics of F} (N)
Value V for changing the characteristics of the comparison original function, the degree of warmness Va
Composed of The degree of matching is defined as the specific gravity value g.
Can be obtained by the following equation. [3-213] Answer corresponding to question level 1 Question level 1 is an inquiry about the partial state of the character
This directly includes the partial state of the character.
Questions to check () and answers corresponding to question level 0
On the other hand, a question to find the cause of "Why?"
There is. For questions that directly check the partial state of the character
Answering process (Fig. 17) Fig. 17 shows the quality of checking the partial state of the character directly
FIG. 13 is a diagram for explaining the answer process to the question, and FIG.
It shows the details of the processing of steps 1306 and 1310 of FIG. Inputs are character ID, question ID, primary model, secondary model,
And pattern data of the main and sub models. In this case, the main model is determined by the question ID.
The sub model is fixed to the main model as shown in the following table.
Assigned in a way. Primary model Secondary model Physical strength Genki Group atmosphere Mood Group atmosphere Environment Mood Damage Energy Group atmosphere Mood Individual pattern data corresponding to character ID and question ID
Selectively from the sex database (step 170)
1). For example, if you specify Momotaro as a character,
If you ask "How is your physical strength?"
The physical model has been specified as the model,
As for the sub model, a fine model is designated from the table. And
A pattern model that uses Momotaro's physical strength and spirit as the main and sub models
The data matrix is read. FIG. 18 (a) shows the main and sub
9 shows an example of model pattern data. putter
Individual models with weight filters for primary and secondary models
Is emphasized, and individuality is described by the pattern description.
You. Specifically, the filter ratio is basically 7 to 3,
The ratio has been changed on a fractional basis. Then, the main / sub model representing the state of Momotaro is
Check with the turn data (step 1702). And most
Patterns with a high degree of matching are worst (0) to best (4)
Determine whether the pattern is in a misaligned state, and
The ID is output (step 1703). Answer process for the question "Why?"
Figure) Figure 19 shows how responses to question level 0
Shows the answer process when asking the question
13 shows details of step 1310 in FIG. Corresponding pattern used in level 0 question in Figure 13
A matrix of data is obtained (step 1901). next
Model with the highest contribution to level 0 questions
(Step 1902). Overall match level 0
Of each model corresponding to the highest “state” of
The value multiplied by the value of the weight filter is defined as the contribution ratio. The model with the highest contribution rate is set as the main model,
A predetermined model corresponding to the model is defined as a sub model.
Pattern data of main and sub models from the personality database
read out. And the current target for the pattern data
(1903). Collation
As a result, the pattern ID of the “state” having the highest matching degree is obtained.
(Step 1904). For example, as shown on the left side of FIG.
In response to the question "Can you fight?"
"No!" And ask "why?"
Suppose. In the answer process in Fig. 19, the answer is "absolutely unpleasant!"
To find the model that has the highest contribution rate. For example,
If the model with the higher rate is the physical fitness model,
The model is the main model, and the fine model is the sub model.
To the corresponding pattern data. As a result,
When the state is the worst match,
"I have no physical strength!" [3-214] Answer corresponding to question level 2 (FIG. 20) FIG. 20 shows the answer for question level 2 or question level 1.
Query to find the cause of the "state" of the model in
FIG. 13 is a diagram showing a response process based on the influence history, and FIG.
It shows the details of step 1307. Influence of target model from character model database
The history information is taken in (step 2001). And targeted
Select a model history. Impact history is + factor,-required
Each set of factors is represented by an ID (step
2002). At the question level 1
Flag indicating whether the answer is good or bad
Of the impact history data by referring to the flag.
Retrieves factor data and outputs factor ID to self-diagnosis unit 105
(Step 2003). For example, in question level 1 processing,
"" At no point, and "
Search the history of the effects of the physical fitness model
Then, the + factor is ID "5", which represents "rest", and the-factor is
It is assumed that the ID is “10” representing “fought”. The flag
In this case indicates that it is on the-side, so-
Is output to the action selection unit 913, and the corresponding
Display the answer "Because I fought"
You. [3-215] Answer corresponding to question level 3 (Fig. 20) Fig. 21 shows the answer for question level 3, ie, question level 2
To further investigate the cause of the "state" of the model in
Is a diagram showing answer processing by question frequency analysis for
13 shows details of step 1314 in FIG. Answer processing for this question level 3 is a psychological mechanism
This is performed by the system processing unit 909 and the decision processing unit 912.
You. Fixedly prepared in the psychological mechanism processing unit 909
From the adverse effect data and the current model state
Influences the mood model by dynamic mechanisms (step
Step 2101). Fig. 26 shows the psychological mechanism.
The details will be described later. Next, in the decision processing unit 912, the
Determine the answer level to the question (step 210)
2). The action selection unit 913 uses the response level as a pattern ID.
Output to Fig. 29 shows the psychological block.
Details will be described later with reference to FIG. 30. Method of creating impact history For questions (Figure 22) Figure 22 shows the process of creating an impact history for questions
It is something. Count the number of consecutive questions of the same question,
If the same question is repeated three times, the mood model-the influential factors
Set the factor ID to the side. For example,-
Is set to ID "10" indicating " Talking (Figure 23) Figure 23 shows the process of creating an impact history for talking.
It is something. State (physical strength, mood ...), spoken words (giving pressure
Stuff that gives a sense of openness)
Mood model using pattern data by dynamic mechanism processing
Dell pattern matching is performed (step 2301). Matching result
It is determined whether the fruit feels good or not (step 2302).
Was in a good state, the positive side of the mood model
Set the factor ID to (2303).
The factor ID is set to the factor side (2304). For example, with the state
Input a conversational language such as "as expected"
In good mood, based on psychological mechanisms
If there was, “complained” to the positive influence side of the mood model
Set an ID that represents “ta”, and conversely,
You are "weird" on the negative side of the mood model
Set the factor ID that indicates In the case of instruction / action (Fig. 24) The state of the character corresponding to the instruction / action
Is diagnosed by mental information diagnosis (pattern matching).
Step 2401). And find a pattern ID with a high degree of matching
(Step 2402). The obtained pattern ID is the character's own
Determine whether it is good for yourself (2403) and determine that it is good
If it is, +
An ID is set on the influence factor side (step 2404). Good
If the judgment is not true, the model affected by the instruction or action
The ID is set on the negative side (step 2405). example
For example, when the instruction of "fight" is
If the session ID is 0 (worst case),
The corresponding mood model-the influencing factor side
Is set to a factor ID = 10 representing "weird instruction". [3-3] Self-diagnosis unit [3-31] Psychological mechanism processing (FIG. 26) FIG. 26 is a diagram for explaining psychological mechanism processing
Yes, an example is shown for conversation (speaking). What
Contact, the whole answer process for talking (same for instructions and actions)
The typical flow is shown in FIG. Story selected by the player
The psychological mechanism using the mood model and the spirit model
Perform self-diagnosis by nysm processing and further psychological block
The response level is determined by the
Select and make an utterance and display it on the screen. Character personality data of characters targeted for conversation
That is, the pattern data matrix is fixed to characters
It is selectively read from the database (step 2601). The current self indicated by the model data of the target character
Enter the state of the body and the entered conversation language (front, back)
Good mood patterns in the character personality data
Are collated (step 2602). No. for conversational languages
27 As shown in Figure 27, the meaning of the table and the meaning of the back are expressed as numerical values
Can be predetermined. For example, "I'm alright!"
When the conversation language is input, the front is 80 languages and the back is 10 languages.
Treated. An example of the matching pattern is shown in FIG. like this
In the present embodiment, pattern data (individuality) relating to mood is used.
In the next four are prepared, characters for verification
The combinations of the data models are as follows. Personality character model When encouraged Physical strength, mood, damage When praised Physical strength, mood, damage Physically open feeling Physical strength, energy, damage When pressure is applied Energy, mood, group Atmosphere Condition (physical strength, mood,
Damage) and the degree of matching between the pattern data. Ma
At the same time, depending on the calculated degree of matching,
Increase or decrease the value of the mood situation model against the criteria.
A good standard situation model is 4
Four corresponding to each of the character personality data
It is prepared. Next, in the same way, the bad
Performs matching with mood patterns and calculates by matching
Bad mood situation model depending on the degree of matching
The status model value is updated (step 2602). The bad group
The quasi-situation model also has four characters related to the aforementioned mood.
There are four corresponding to each of the personality data
You. Good mood situation model and bad mood situation model obtained
Based on a mood situation model that includes both values of
Then, a mood model is created (step 2604). Sand
If you are encouraged or praised,
If you are given a physical sense of openness,
Of the character personality data in the four cases
Four good mood situation models provided for each
And the values of the four bad mood situation models
Generate That is, the mood model is calculated by the following equation
I do. Mood model = 50 + (Good mood situation model total) / 4-
(Bad mood situation model total) / 4 Next, the long-term mood is calculated based on the mood model value obtained above.
Of short-term trends based on matching results
Step 2605). The long-term trend is that the mood model value is 0
49 is a bad tendency and 50-100 is a good tendency. Asked
The mood trends are based on the long-term mood
Field. Short-term trends are determined in steps 2602 and 2603.
The side with the higher degree of matching of fruits is a short-term tendency of mood. Judge whether the short-term tendency found is good
(Step 2606). The short-term trend we sought was good
When the mood effect history (+ side) is
An ID corresponding to the taste is set (step 2607). Also,
If the short-term tendency was bad, the mood effect history
Set the ID corresponding to the input global meaning on the (-) side
(Step 2608). The pattern ID is obtained from the value of the mood model. That is,
Pattern ID = Mood model value / 25 (Step 2
609). Mainly for each model of health, energy and damage
Check the sub model and store it in the diagnosis result table (step
2610). [3-32] Mental information diagnosis processing FIG. 28 shows the flow of mental information diagnosis processing.
Mental information diagnosis processing is performed as self-diagnosis of behavior and instructions.
Processing. Character personality data (pattern data) corresponding to the instruction
Data is selectively read from the character personality database.
(Step 2801). Character model that represents the current character situation
The data is collated with the personality data (step 2803). As a result of the comparison, the password corresponding to the “state”
A turn ID is obtained (step 2804). Check the value of the pattern ID (step 2805), and check the pattern ID.
When = 0, the processing proceeds to the psychological mechanism processing described in FIG.
Give more adverse data and reflect it in the mood model
(Step 2806). When the pattern ID is 4, the psycho-mechanical
Improve mood model by giving good influence data by nism processing
It is reflected (step 2807). Also, if the value of the pattern ID is
When the value is an intermediate value, that is, when the pattern ID is 1, 2, or 3,
It is not reflected in the minute model. Character personality data selected in response to instructions or actions
Data (pattern data) to determine whether it is a multiple model
(Step 2808). If the result of the determination is that there are multiple models,
Dell matching is performed (step 2809). This model
Is the main / sub model matching of the above question (level 0 answer analysis)
In the same way as described above, a model having a high contribution rate is searched and collated. If the result of the above determination is that the model is a single model,
Performs Dell matching (direct) and replaces the sub model with the main model
The main / sub model matching is performed (step 2810). This
Model matching for instructions or actions (direct)
Is the same process as the main / sub model matching (direct)
is there. Each collation result is stored in the diagnosis result table, and step 28
The mood model data updated in 06,2807 is the mood model memory
Store in area. [3-4] Decision Making Unit FIG. 29 is a flowchart for explaining the operation of the decision making process.
-It is a figure. Decisions are made to take into account the psychological state of the character
This is the process to be performed. First, the input is an instruction or action
Or it is a talk (step 290).
1). If it is an instruction or action, diagnose the instruction or action
The result is obtained from the diagnosis result table (step 2902). Using the mood model and the diagnosis results as input,
Pattern matching is performed (step 2903). Psychological block
Is the one stored in the character personality database
And the pattern data of the mood data as shown in Fig. 30.
Character by the combination of
Pattern data matrices representing various mental states of Kuta
It is a box. The pattern ID with the highest match as a result of pattern matching
(PID) is stored in the diagnosis result table (step 290).
Four). For example, if the instruction is “fight”,
If the multiple model matching pattern ID in the result table is 2 (normal)
And the pattern ID of the mood model was 3.
Then, the degree of matching with the psychological block is “good” (pass
Since the turn ID is the highest at 3), the diagnostic result table shows
Update the multiple model matching pattern ID to 3. [3-5] Action Selection Unit FIG. 32 is a flowchart for explaining the processing operation of the action selection unit.
-It is a figure. The input to the action selection unit 913 is character control data,
And diagnosis generated by the situation diagnosis unit 902 or the decision making unit 911
Each data of the disconnection result table is used for processing. First, check the output information flag of the character control data.
To determine whether the utterance flag is on or off
(Step 3201). When the output information flag is on,
If you are instructed to do so,
Input and collate with the utterance selection pattern (step
3202). The utterance selection pattern has a matrix as shown in Fig. 33.
Rix, character personality database
It is one of those stored in. Diagnosis result table
Various combinations of pattern data of the same items
The content of the story is decided. The utterance content is
11 consequent remarks like “absolutely no” (pattern ID
0 to 10), issues related to models such as “no physical strength”
20 stories (pattern ID = 11-30), like "fought"
20 utterances about the history (pattern ID = 31-50),
10 mood-like utterances such as "What?"
= 51-60) are prepared for each. Such utterance selection
Diagnosis result table for each pattern data of selected pattern
Of each item by comparing with the data of each corresponding element of
Calculate the degree of match, and count each line by counting in the row direction
Is determined. Then, the pattern IDs of the top five utterances with the highest matching degree are selected.
And store it in the utterance data table (step 320).
3). The data format of the utterance data table is shown in Fig. 37.
The number of data and the pattern ID of the selected utterance
Field. In step 3201, check the output information flag of the control data.
If the utterance flag is determined to be off, the utterance data
0 is set to the number of data in the data table (step 320).
Four). Next, behaviors and facial expressions were almost the same as in conversation.
The same processing is performed. In other words, regarding the behavior, the character control data
Check the output information flag and check if the action flag is on or off
Is determined (step 3205), and the action output information flag is determined.
When the diagnosis is on, the diagnosis result table is
It is compared with the selection pattern (step 3206). Action selection pattern
The matrix consists of a matrix as shown in Figure 34.
You. And the pattern ID of the top one
Select and store in the action data table shown in Fig. 38
(Step 3207). In step 3205, the action flag is turned off.
If it is determined that there is, data in the behavior data table
The number is set to 0 (step 3208). Similarly, in the case of outputting a facial expression, the facial expression selection
Check the diagnosis result table for the turn (step 321)
0), the pattern ID with the highest matching degree is shown in Fig. 39
(Step 3211). table
If you do not want to output the information,
The number of data 0 is set (step 3211). [3-6] Action generation unit The action generation unit 917 generates the utterance and line generated by the action selection unit 913.
Based on each data table
Generate crops. A place for generating utterance data based on FIG.
The case will be described. Check the number of data in the utterance data table (step 360
1) If there is data, enter the utterance data table
And collate with the utterance generation pattern as shown in Fig. 40.
(Step 3602). Find the pattern ID with the highest matching degree as a result of the matching
Step 3603). Corresponds to the pattern ID and enters the data in the utterance data table.
It is replaced and deleted (step 3604). That is, utterance
Copy the data in the data table to the pattern with the highest match
Replace with the utterance generation method corresponding to the ID. From the utterance pattern ID in the utterance data table, the final
The utterance level is obtained (step 3605). Speech level is 0
It is checked whether it is or 1 (step 3606), and 0 or 1
Is high, the match level is high from the utterance data table.
(The side near the top in the table)
First, set the model ID in the model work (step 360
7). The pattern ID set in the model work is shown in Fig. 13.
Used to specify the main model at the time of main / sub model matching. Ma
Set the utterance level +1 to the question level (step
3608). If the utterance level is neither 0 nor 1, quality
Set the question level to 3. These question levels are shown in Figure 13.
It is referred to in the question level determination process.
本発明によれば、複数モデルのファジィパターンデー
タによりキャラクタの個性が設定されるよう構成されて
いるので、キャラクタの性格付け、行動パターンを複雑
かつ多様なものに設定することができ、従って従来に比
べ、本発明が適用されたプログラムのヒューマンインタ
フェースの機能を大幅に向上させることができる。ゲー
ムに適用した場合にはよりおもしろくなり、精神治療に
適用した場合には治療の内容をより深く的確にすること
ができ、CAIに適用した場合には、子供の状況に応じた
より適切な教育内容の制御が可能となるなど機能の向上
に役立てることができる。 また、キャラクタの個性の設定や変更、修正をファジ
ィパターンデータの設定や変更で容易に行うことができ
るので、プログラムの開発工数を大幅に減少させること
ができる。 従来は複雑度や巧妙度に比例してプログラム容量が増
大していたが、本発明によれば上記のように複数モデル
のファジィパターンデータを用いるので、極めて小さい
プログラム容量となり、限られたメモリ領域で稼働させ
るものであっても、複雑なキャラクタで柔軟なストーリ
ー展開が可能となる。 また、本発明によればキャラクタに心理モデルを持た
せることができるので、キャラクタがより人間的な反応
を示すようにすることができる。According to the present invention, since the personality of a character is set by fuzzy pattern data of a plurality of models, character characterization and action patterns of the character can be set to complex and various types. In comparison, the function of the human interface of the program to which the present invention is applied can be significantly improved. When applied to games, it becomes more interesting, when applied to mental treatment, the content of treatment can be deeper and more accurate, and when applied to CAI, more appropriate educational content according to the child's situation Can be controlled, and the function can be improved. Further, since the setting, change, and correction of the character's individuality can be easily performed by setting and changing the fuzzy pattern data, the number of steps for developing the program can be greatly reduced. Conventionally, the program capacity increased in proportion to the complexity and sophistication. However, according to the present invention, since the fuzzy pattern data of a plurality of models is used as described above, the program capacity becomes extremely small, and the memory area is limited. Even if it runs on a computer, it is possible to develop a flexible story with complex characters. Further, according to the present invention, since the character can be provided with a psychological model, the character can exhibit a more human response.
第1図は本発明の実施例の概要構成を示すブロック図で
ある。 第2図は本発明に用いるデータ(ファジイキャラクタデ
ータ)を作成するためのの構築ツールの構成を示す図で
ある。 第3図は、ファジイキャラクタ環境データ生成の動作を
示す図である。 第4図はファジィキャラクタ制御データベース作成処理
の動作フローを示す図である。 第5図は作成するファジィキャラクタ制御データのデー
タ構造を示す図である。 第6図はファジィキャラクタモデルデータベース作成処
理の動作フローを示す図である。 第7図はファジィキャラクタモデルのデータ構造を示す
図である。 第8図はグループデータのデータ構造を示す図である。 第9図は本発明の実施例の構成の詳細を示す図である。 第10図は情報解析処理の動作を示すフロー図である。 第11図は状況診断処理の動作を示すフロー図である。 第12図は質問が入力されたときの解答処理の概略の流れ
の例を示す図である。 第13図は質問レベル制御と質問診断処理の動作を示すフ
ロー図である。 第14図は質問レベル0すなわちキャラクタの全体的な状
態の問い合わせに対する複数モデル照合による回答の処
理を説明するための図である。 第15図は照合のためのパターンデータのマトリックスの
構成を示す図である。 第16図はパターンデータの例を示す図である。 第17図は直接キャラクタの部分的な状態を確認する質問
に対する回答処理を説明するための図である。 第18図(a)(b)はそれぞれパターンデータマトリッ
クスの例を示すものである。 第19図は、質問レベル0に対する回答に対し、どうして
?"という質問をしたときの回答処理を示すものでる。 第20図は質問レベル2すなわち質問レベル1の回答にお
けるモデルの“状態”の原因を探る問い合わせに対し、
影響履歴による回答処理を示す図である。 第21図は質問レベル3すなわち質問レベル2の回答にお
けるモデルの“状態”の原因をさらに探る問い合わせに
対し、質問頻度分析による回答処理を示す図である。 第22図は質問の場合の影響履歴を作成する処理を示すも
のである。 第23図は話しの場合の影響履歴を作成する処理を示す図
である。 第24図は指示/行動の場合の影響履歴を作成する処理を
示す図である。 第25図は話し(指示、行動も同じ)に対する回答処理の
全体的な流れを示す図である。 第26図は心理的メカニズム処理を説明するための図であ
る。 第27図は会話言語の表裏意味表現を説明するための図で
ある。 第28図は心的情報診断処理の流れを示す図である。 第29図は、意志決定処理の動作を説明するためのフロー
図である。 第30図は心理ブロックパターンの例を示す図である。 第31図は診断結果テーブルの例を示す図である。 第32図は行動選択部の処理動作を説明するためのフロー
図である。 第33図は発話選択パターンの例を示す図である。 第34図は行動選択パターンの例を示す図である。 第35図は表情選択パターンの例を示す図である。 第36図は動作生成処理(発話生成の場合)を示すフロー
図である。 第37図は発話データテーブルの構成例を示す図である。 第38図は行動データテーブルの構成例を示す図である。 第39図は発話データテーブルの構成例を示す図である。 第40図は発話生成パターンの構成例を示す図である。 101……入力部、102……インタフェース部、 103……情報解析部、104……状況診断部、 105……自己診断部、106……意志決定部、 107……行動選択部、108……動作生成部、 109……出力部。FIG. 1 is a block diagram showing a schematic configuration of an embodiment of the present invention. FIG. 2 is a diagram showing a configuration of a construction tool for creating data (fuzzy character data) used in the present invention. FIG. 3 is a diagram showing an operation of generating fuzzy character environment data. FIG. 4 is a diagram showing an operation flow of a fuzzy character control database creation process. FIG. 5 is a diagram showing a data structure of fuzzy character control data to be created. FIG. 6 is a diagram showing an operation flow of a fuzzy character model database creation process. FIG. 7 is a diagram showing a data structure of a fuzzy character model. FIG. 8 is a diagram showing a data structure of group data. FIG. 9 is a diagram showing details of the configuration of the embodiment of the present invention. FIG. 10 is a flowchart showing the operation of the information analysis process. FIG. 11 is a flowchart showing the operation of the situation diagnosis processing. FIG. 12 is a diagram showing an example of a schematic flow of answer processing when a question is input. FIG. 13 is a flowchart showing the operation of the question level control and the question diagnosis processing. FIG. 14 is a diagram for explaining a process of answering by inquiry of a plurality of models in response to an inquiry about question level 0, that is, an overall state of a character. FIG. 15 is a diagram showing a configuration of a matrix of pattern data for matching. FIG. 16 is a diagram showing an example of pattern data. FIG. 17 is a diagram for explaining the answer process to the question for directly confirming the partial state of the character. FIGS. 18 (a) and 18 (b) show examples of pattern data matrices, respectively. Figure 19 shows why the answer to question level 0
Figure 20 shows the answer process when asking the question "?". FIG. 20 shows a query to find the cause of the "state" of the model in the answer at question level 2, ie, question level 1.
It is a figure which shows the response process by an influence history. FIG. 21 is a diagram showing answer processing by question frequency analysis for an inquiry for further searching for the cause of the “state” of the model in the answer at question level 3, ie, question level 2. FIG. 22 shows a process of creating an influence history in the case of a question. FIG. 23 is a diagram showing processing for creating an influence history in the case of speech. FIG. 24 is a diagram showing a process of creating an influence history in the case of an instruction / action. FIG. 25 is a diagram showing an overall flow of a reply process for a talk (same for an instruction and an action). FIG. 26 is a diagram for explaining the psychological mechanism processing. FIG. 27 is a diagram for explaining the front and back meaning expression of the conversation language. FIG. 28 is a diagram showing a flow of a mental information diagnosis process. FIG. 29 is a flowchart for explaining the operation of the decision making process. FIG. 30 is a diagram showing an example of a psychological block pattern. FIG. 31 is a diagram showing an example of a diagnosis result table. FIG. 32 is a flowchart for explaining the processing operation of the action selecting unit. FIG. 33 is a diagram showing an example of an utterance selection pattern. FIG. 34 is a diagram showing an example of an action selection pattern. FIG. 35 is a diagram showing an example of an expression selection pattern. FIG. 36 is a flowchart showing a motion generation process (for utterance generation). FIG. 37 is a diagram showing a configuration example of an utterance data table. FIG. 38 is a diagram showing a configuration example of an action data table. FIG. 39 is a diagram showing a configuration example of an utterance data table. FIG. 40 is a diagram showing a configuration example of an utterance generation pattern. 101 input unit, 102 interface unit, 103 information analysis unit, 104 situation diagnosis unit, 105 self-diagnosis unit, 106 decision-making unit, 107 action selection unit, 108 Motion generation unit, 109 ... Output unit.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 小山田 茂 東京都渋谷区神南1丁目15番8号 兼仲 ビル4階 株式会社アドイン研究所内 (56)参考文献 特開 平2−159625(JP,A) 「コンピュータソフトウェア」Vo l.4,No.2(1987−4)P.24− 38 「1989年人工知能学会全国大会(第3 回)講演論文集」P.617−620 (58)調査した分野(Int.Cl.7,DB名) G06F 9/44 ──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Shigeru Oyamada 1-15-8 Jinnan, Shibuya-ku, Tokyo Kennaka Building 4th floor Inside Add-in Research Institute, Inc. (56) References JP-A-2-159625 (JP, A ) "Computer software" Vol. 4, No. 2 (1987-4) p. 24-38 “Proceedings of the 1989 Annual Meeting of the Japanese Society for Artificial Intelligence (3rd)”, p. 617-620 (58) Field surveyed (Int. Cl. 7 , DB name) G06F 9/44
Claims (5)
入力可能な入力部と、 心理モデルを含む複数のモデルを持つ対象モデルと、各
モデルに対応したファジィパターンデータによりキャラ
クタの個性を表したファジィキャラクタ個性データを格
納するデータベースと、 入力部から入力された言葉による指示または質問の情報
とファジィキャラクタ個性データのファジィパターンデ
ータとを照合して、キャラクタ自身の心理的状況を診断
する診断部と、 診断部の診断結果を基に、行うべき行動を選択する行動
選択部と、 選択された行動に対応する動作を生成する動作生成部と を備えたことを特徴とするファジィパターン型ヒューマ
ンインタフェースシステム。An input unit capable of inputting instructions or questions from an operator in the form of words, a target model having a plurality of models including a psychological model, and fuzzy pattern data corresponding to each model to determine the personality of the character. Diagnosis for diagnosing the psychological situation of the character itself by comparing the database storing the expressed fuzzy character personality data with the information of the instruction or question in words input from the input unit and the fuzzy character personality data fuzzy pattern data A fuzzy pattern human, comprising: an operation selecting unit that selects an action to be performed based on a diagnosis result of the diagnosis unit; and an operation generating unit that generates an operation corresponding to the selected action. Interface system.
葉や周囲の環境変化に対して、キャラクタ自身がどうい
う状況かを、ファジィパターンデータとの照合により求
め、診断結果を出力する状況診断部を有することを特徴
とする請求項(1)記載のファジィパターン型ヒューマ
ンインタフェースシステム。And a diagnostic section for determining a state of the character itself in response to a word input to the character or a change in surrounding environment by comparing the character with fuzzy pattern data, and outputting a diagnostic result. The fuzzy pattern type human interface system according to claim 1, further comprising:
がキャラクタに与える心理的影響を、キャラクタ自身の
状態と言葉をもとに、ファジィパターンデータとの照合
により求め、診断結果を出力するとともに心理的状態を
表す気分モデルを生成する心理的メカニズム処理部を備
えたことを特徴とする請求項(1)記載のファジィパタ
ーン型ヒューマンインタフェースシステム。3. The diagnostic unit obtains a psychological effect of a word input from an input unit on a character by comparing the psychological effect with a fuzzy pattern data based on the character's own state and words, and outputs a diagnostic result. The fuzzy pattern type human interface system according to claim 1, further comprising a psychological mechanism processing unit for generating a mood model representing a psychological state.
タ自身の行動に対する心的状態を、キャラクタ自身の状
態をもとに、ファジィパターンデータとの照合により求
め、診断結果を出力する心的情報診断処理部を備えたこ
とを特徴とする請求項(1)記載のファジィパターン型
ヒューマンインタフェースシステム。4. A mental unit which obtains a mental state with respect to an input instruction and an action of the character by comparing it with fuzzy pattern data based on the state of the character itself and outputs a diagnostic result. The fuzzy pattern type human interface system according to claim 1, further comprising an information diagnosis processing unit.
ャラクタの各種の心理状態を表したファジィキャラクタ
パターンデータと照合し、決定すべき事柄に対する意志
決定をする意志決定処理部を備えたことを特徴とする請
求項(3)または(4)記載のファジィパターン型ヒュ
ーマンインタフェースシステム。5. A decision processing unit which receives the mood model and the diagnosis result as input, compares it with fuzzy character pattern data representing various mental states of the character, and makes a decision on a matter to be determined. The fuzzy pattern type human interface system according to claim 3 or 4, wherein:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2161070A JP3005249B2 (en) | 1990-06-19 | 1990-06-19 | Fuzzy pattern type human interface system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2161070A JP3005249B2 (en) | 1990-06-19 | 1990-06-19 | Fuzzy pattern type human interface system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH0451326A JPH0451326A (en) | 1992-02-19 |
| JP3005249B2 true JP3005249B2 (en) | 2000-01-31 |
Family
ID=15728052
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2161070A Expired - Lifetime JP3005249B2 (en) | 1990-06-19 | 1990-06-19 | Fuzzy pattern type human interface system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3005249B2 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5577169A (en) * | 1994-04-29 | 1996-11-19 | International Business Machines Corporation | Fuzzy logic entity behavior profiler |
| JP5988501B2 (en) * | 2013-07-18 | 2016-09-07 | 日本電信電話株式会社 | Dialog action output device, method, and program, and dialog system and method |
-
1990
- 1990-06-19 JP JP2161070A patent/JP3005249B2/en not_active Expired - Lifetime
Non-Patent Citations (2)
| Title |
|---|
| 「1989年人工知能学会全国大会(第3回)講演論文集」P.617−620 |
| 「コンピュータソフトウェア」Vol.4,No.2(1987−4)P.24−38 |
Also Published As
| Publication number | Publication date |
|---|---|
| JPH0451326A (en) | 1992-02-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7623702B2 (en) | Information processing method, information processing device, and program | |
| Oviatt et al. | Designing and Evaluating Conversational Interfaces | |
| CN117541444B (en) | An interactive virtual reality eloquence expression training method, device, equipment and medium | |
| CN119739824A (en) | State evaluation method, device, equipment and medium | |
| Rose et al. | Generation and classification of motivational-interviewing-style reflections for smoking behaviour change using few-shot learning with transformers | |
| Huang | Generating dynamic and lifelike NPC dialogs in role-playing games using large language model | |
| Minato et al. | A study of interactive robot architecture through the practical implementation of conversational android | |
| KR20010080567A (en) | Apparatus and method for training using a human interaction simulator | |
| JP3005249B2 (en) | Fuzzy pattern type human interface system | |
| Rieser | Bootstrapping reinforcement learning-based dialogue strategies from wizard-of-oz data | |
| Malchanau et al. | Towards integration of cognitive models in dialogue management: designing the virtual negotiation coach application | |
| CN112634684A (en) | Intelligent teaching method and device | |
| CN118917437A (en) | Man-machine dialogue method based on AI intelligent large model | |
| Cavalluzzi et al. | Affective advice giving dialogs | |
| Clark | Beyond eliminativism | |
| Seçkin | The Attitudes of technical translators in Turkiye towards post-editing | |
| Piferi | CHATCARE: an emotional-aware conversational agent for assisted therapy | |
| Krening | Humans teaching intelligent agents with verbal instruction | |
| Huang et al. | Creating affective autonomous characters using planning in partially observable stochastic domains | |
| KR20250071002A (en) | Interactive learning device and method based on speech recognition for child cognitive development | |
| Yuan | An approach to integrating emotion in dialogue management | |
| JP2026018448A (en) | system | |
| CN120708451A (en) | A family education AI simulation system and device | |
| JP2026024648A (en) | system | |
| JP2026018424A (en) | system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101119 Year of fee payment: 11 |
|
| EXPY | Cancellation because of completion of term | ||
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101119 Year of fee payment: 11 |