[go: up one dir, main page]

JP2009178363A - Program, information storage medium, and content providing apparatus - Google Patents

Program, information storage medium, and content providing apparatus Download PDF

Info

Publication number
JP2009178363A
JP2009178363A JP2008020508A JP2008020508A JP2009178363A JP 2009178363 A JP2009178363 A JP 2009178363A JP 2008020508 A JP2008020508 A JP 2008020508A JP 2008020508 A JP2008020508 A JP 2008020508A JP 2009178363 A JP2009178363 A JP 2009178363A
Authority
JP
Japan
Prior art keywords
content
player
computer
operation input
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008020508A
Other languages
Japanese (ja)
Inventor
Takashi Kawai
隆史 河合
Reiko Mitsuie
礼子 三家
Keiko Iso
桂子 磯
Natsuko Aoki
奈津子 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Bandai Namco Entertainment Inc
Original Assignee
Waseda University
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University, Namco Bandai Games Inc filed Critical Waseda University
Priority to JP2008020508A priority Critical patent/JP2009178363A/en
Publication of JP2009178363A publication Critical patent/JP2009178363A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide contents for letting a user (player) surely feel desired emotions. <P>SOLUTION: When play is started, a portable game device executes question-and-answer processing to acquire the attribute information of the player before presenting the contents, asks questions for personality determination to determine a personality type, and narrows down and determines a player type on the basis of the answer operation input to questions and answers relating to player type determination of this time and in the past. In the meantime, many contents for presentation are prepared and an affinity value is set for each of them from the viewpoint of easiness of inducing emotional reactions to each personality type. The portable game device selects and presents the contents highly adapted to the attributes of the player and is compatible with the personality type. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体及びコンテンツ提供装置に関する。   The present invention relates to a program, an information storage medium, and a content providing apparatus.

幾つかの質問に答えることによって性格を診断する方法があるのは良く知られるところであり、ビデオゲームの一部にもその性格診断を利用する技術も知られるところである。
例えば、ゲーム過程でプレーヤの性格診断を行い類型化し、性格診断の結果に基づいて相手キャラクタの会話内容等を類型化した性格に応じた内容に動的に変更するものがある(例えば、特許文献1参照)。また、性格診断の結果に基づいてプレーヤキャラクタの台詞を類型化した性格に応じた内容に変化させるものも知られている(例えば、特許文献2参照)。これらによれば、プレーヤの性格に適した台詞がゲーム中で使用されること等によって、プレーヤがゲームキャラクタへの感情移入する度合いを高めてゲームへより没入しやすくする効果を得ることができる。この結果、ゲームストーリが進むにつれてプレーヤが泣いたり笑ったり、時に義憤を感じたりと言った様々な情動をより堪能することができるようになる。
特開平11−76608号公報 特開2001−212378号公報
It is well known that there is a method for diagnosing personality by answering several questions, and techniques for using the personality diagnosis are also known for some video games.
For example, there is a type in which a personality diagnosis of a player is performed and categorized in a game process, and the conversation content of the opponent character is dynamically changed to a content corresponding to the categorized personality based on the result of the personality diagnosis (for example, Patent Documents) 1). Further, there is also known one that changes the line of the player character to a content corresponding to the categorized personality based on the result of the personality diagnosis (see, for example, Patent Document 2). According to these, the dialogue suitable for the personality of the player is used in the game, and the effect of making the player more immersive in the game by increasing the degree of emotion transfer to the game character can be obtained. As a result, as the game story progresses, the player can more fully enjoy various emotions such as crying and laughing, and sometimes feeling yiwu.
JP-A-11-76608 JP 2001-212378 A

さて、ゲームソフトに限らず映画ソフトや書籍を購入する際、ユーザはそのコンテンツによって泣いたり笑ったり恐怖したりと言った情動が誘発されることをある程度想定・期待する。事実、ユーザの情動誘発を目的としたコンテンツ製品の広告には「感動の・・・」と言った言葉が必ずと言って良いほど用いられている。
ところが、ユーザのパーソナリティ(多様な局面における自身の価値観や行動パターン・性格タイプを包含する意)が多数存在するために、同じコンテンツの提示を受けても誘発される情動が異なったりその度合いが異なったりすることが多い。そのため、感動して泣くことを期待してあるゲームソフトや映画ソフトと言ったコンテンツを購入しても、ユーザが思ったほど感動できなくて失望すると言った事態が少なからず起こる。コンテンツがオムニバス形式であったとしても、オムニバスに含まれる作品全てがユーザのパーソナリティと相性が良いケースは少なく、例えば5つの小作品のうち1つには感動できた(制作サイドが意図・所望する情動反応を得られた)が、その他はそうでもないと言ったことが起こる。これは、ユーザが感動によって心の癒しを得ようと言う期待に応えられないばかりでなく、コンテンツの提示(プレイ、鑑賞、リーディング、リスニング)に要した時間を無駄にしたことになる。
Now, when purchasing not only game software but also movie software and books, the user expects and expects to some extent that the content induces emotions such as crying, laughing, and fearing. In fact, the words "impressive ..." are often used in advertising content products aimed at inducing user emotions.
However, because there are many personalities of users (meaning to include their own values, behavior patterns and personality types in various aspects), the emotions that are induced even when the same content is presented are different or the degree to which they are induced. It is often different. For this reason, even if you purchase content such as game software or movie software that you expect to be moved by crying, there are not a few situations where you are disappointed because you are not moved as much as you think. Even if the content is in an omnibus format, there are few cases in which all the works included in the omnibus are compatible with the user's personality. For example, one of five small works was impressed (the production side intended and desired) I got an emotional reaction), but the others said otherwise. This not only does not meet the expectation that the user will be able to heal the heart by emotion, but also wastes the time required to present the content (play, appreciation, reading, listening).

本発明はこうした事情を鑑みて成されたものであり、その目的とするところはユーザ(プレーヤ)に所望する情動をより確実に感じてもらえるコンテンツの提供を実現することである。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide content that allows a user (player) to feel a desired emotion more reliably.

上記の課題を解決する第1の発明は、コンピュータを、プレーヤに回答操作入力を求める質疑応答形式の処理を実行し、前記回答操作入力に基づいて、予め定められた複数種類のプレーヤ類型のうちプレーヤに適合するプレーヤ類型を判定するプレーヤ類型判定処理手段(例えば、図1の第1液晶ディスプレイ1406、第2液晶ディスプレイ1408、タッチパネル1407、1409、メモリカード1440、制御ユニット1450、図9の制御部100、プレーヤ類型判定部102、図23のステップS6、ステップS12)、
前記判定されたプレーヤ類型に基づいて、前記各プレーヤ類型毎の相性度が定められた複数のコンテンツの中からコンテンツを選択するコンテンツ選択手段(例えば、図1の制御ユニット1450、メモリカード1440、図9の制御部100、コンテンツ選択部104、図23のステップS14)、
前記選択されたコンテンツをプレーヤに提供するコンテンツ提供手段(例えば、図1の第1液晶ディスプレイ1406、第2液晶ディスプレイ1408、スピーカ1410、図9の制御部100、画像表示部210、音出力部220、図23のステップS18)、
前記プレーヤ類型判定処理手段と、前記コンテンツ選択手段と、前記コンテンツ提供手段とを一連に繰り返し実行させる進行制御手段(例えば、図1の制御ユニット1450、メモリカード1440、図9の制御部100)、として機能させるとともに、
前記プレーヤ類型判定処理手段が、今回及び過去の前記回答操作入力に基づいて、プレーヤに適合するプレーヤ類型を絞り込んで判定していくように前記コンピュータを機能させるためのプログラムである。
According to a first invention for solving the above-mentioned problem, a computer executes a question-and-answer process that requests a player to input an answer operation, and based on the answer operation input, Player type determination processing means (for example, the first liquid crystal display 1406, the second liquid crystal display 1408, the touch panels 1407 and 1409 in FIG. 1, the memory card 1440, the control unit 1450, the control unit in FIG. 9) 100, player type determination unit 102, step S6 in FIG. 23, step S12),
Based on the determined player type, content selecting means (for example, the control unit 1450, the memory card 1440, FIG. 1) for selecting content from a plurality of contents for which the degree of compatibility for each player type is determined. 9 control unit 100, content selection unit 104, step S14 in FIG. 23),
Content providing means for providing the selected content to the player (for example, first liquid crystal display 1406, second liquid crystal display 1408, speaker 1410 in FIG. 1, control unit 100 in FIG. 9, image display unit 210, sound output unit 220) , Step S18 in FIG.
Progress control means (for example, the control unit 1450, the memory card 1440, the control unit 100 of FIG. 9) that repeatedly executes the player type determination processing means, the content selection means, and the content providing means in series. As well as
The player type determination processing means is a program for causing the computer to function so as to narrow down and determine a player type suitable for a player based on the current and past answer operation inputs.

また、第27の発明は、プレーヤに回答操作入力を求める質疑応答形式の処理を実行し、前記回答操作入力に基づいて、予め定められた複数種類のプレーヤ類型のうちプレーヤに適合するプレーヤ類型を判定するプレーヤ類型判定処理手段と、前記判定されたプレーヤ類型に基づいて、前記各プレーヤ類型毎の相性度が定められた複数のコンテンツの中からコンテンツを選択するコンテンツ選択手段と、前記選択されたコンテンツをプレーヤに提供するコンテンツ提供手段と、前記プレーヤ類型判定処理手段と、前記コンテンツ選択手段と、前記コンテンツ提供手段とを一連に繰り返し実行させる進行制御手段と、を備えるとともに、前記プレーヤ類型判定処理手段は、今回及び過去の前記回答操作入力に基づいて、プレーヤに適合するプレーヤ類型を絞り込んで判定していくことを特徴とするコンテンツ提供装置である。   In a twenty-seventh aspect of the present invention, a question-and-answer process that requests an answer operation input from the player is executed, and a player type that matches the player is selected from a plurality of predetermined player types based on the answer operation input. A player type determination processing unit for determining, a content selection unit for selecting a content from a plurality of contents in which the degree of compatibility for each player type is determined based on the determined player type, and the selected Content providing means for providing content to a player; player type determination processing means; content selection means; and progress control means for repeatedly executing the content providing means in series. Based on the answer operation input at this time and in the past, A content providing apparatus characterized by going to determine refine the Ya type.

プレーヤ類型とは、予め定められたプレーヤの特徴に基づく分類である。分類は、例えば性格や血液型、年齢、性別、職業、生年月日から導かれる西洋占星術の星座、人種、食品の嗜好、身体の強靱度、所定経験の有無など適宜設定可能である。また、コンテンツとは、画像・動画・音楽・文章などのソフトウェアであり単独又は複数の組み合わせであっても良い。
第1及び第27の発明によれば、プレーヤに質疑応答してプレーヤの類型を判定し、プレーヤ類型との相性度が定められた複数のコンテンツの中から判定した類型に基づいて適当なコンテンツを選択し提示することを繰り返し実行することができる。例えば、コンテンツがゲームであればゲームを実行し、映画であれば映像とともに音声を出力し、文章であれば画面にテキストを表示してプレーヤに提示することができる。加えて、今回及び過去のプレーヤ類型判定に係る質疑応答への回答操作入力に基づいて、プレーヤ類型を絞り込んで判定していくことができる。よって、よりプレーヤ類型と相性の良いコンテンツを提示して、プレーヤ(ユーザ)に所望する情動をより確実に感じてもらうことができる。
The player type is a classification based on predetermined player characteristics. The classification can be set as appropriate, such as Western astrological constellation derived from personality, blood type, age, gender, occupation, date of birth, race, food preference, physical strength, presence or absence of predetermined experience. Further, the content is software such as an image, a moving image, music, and text, and may be a single or a plurality of combinations.
According to the first and twenty-seventh aspects, the player type is determined by questioning and answering the player, and an appropriate content is determined based on the type determined from the plurality of types of content determined to be compatible with the player type. Selection and presentation can be performed repeatedly. For example, if the content is a game, the game can be executed. If the content is a movie, audio can be output together with video, and if the content is text, the text can be displayed on the screen and presented to the player. In addition, the player type can be narrowed down and determined based on the answer operation input to the question and answer regarding the current and past player type determination. Therefore, it is possible to present content more compatible with the player type and to make the player (user) feel the desired emotion more reliably.

プレーヤ類型の判定に関しては、前記プレーヤ類型判定処理手段が、ダミー質問を含む複数の質問の中から今回質問する所定数の質問を選択して出力し、該出力した質問のうちのダミー質問を除く質問に対するプレーヤの回答操作入力に基づいてプレーヤに適合するプレーヤ類型を判定する構成とするとより好適である(第2の発明)。
すなわち、ダミー質問を適当に織り交ぜて質疑応答をすることによって、正規の質問の内容を覚えられて意図的な回答がされてしまうことを未然に防ぎ、類型判定の精度を維持することができる。
Regarding player type determination, the player type determination processing means selects and outputs a predetermined number of questions to be asked this time from a plurality of questions including dummy questions, and excludes dummy questions from the output questions. It is more preferable that the player type suitable for the player is determined based on the player's answer operation input to the question (second invention).
In other words, by properly intermingling dummy questions and answering questions, it is possible to prevent the intentional answer from being remembered from the contents of the legitimate question and maintain the accuracy of the type determination. .

更に、前記プレーヤ類型判定処理手段が、前記進行制御手段により繰り返し実行される度に新たな質問を出力し、この新たな質問及び従前の質問のうちの前記ダミー質問を除く質問に対するプレーヤの回答操作入力に基づいてプレーヤに適合するプレーヤ類型を判定する構成とすることもできる(第3の発明)。
この場合、更にプレイを繰り返す毎に新たな質問が出力されてプレーヤの類型判定が進行する構成とすることができる。プレーヤに対していかにも性格診断のようなものを受けていると言った印象を与えるのを抑制することができるので、プレーヤがコンテンツ提示前に緊張したり構えたりしてコンテンツ提示に伴う情動反応の誘発に影響を与える事態を予防できる。
Further, each time the player type determination processing means is repeatedly executed by the progress control means, a new question is output, and the player's answer operation to the new question and the question other than the dummy question of the previous questions A configuration in which a player type suitable for the player is determined based on the input can also be configured (third invention).
In this case, each time the play is repeated, a new question is output and the player type determination proceeds. Since it is possible to suppress the impression that the player is receiving a kind of personality diagnosis, the player is nervous or ready before presenting the content, You can prevent situations that affect triggering.

また更には、プレーヤの操作入力に基づいてゲームプレイの基準時間を設定する基準時間設定手段として前記コンピュータを更に機能させ、前記プレーヤ類型判定処理手段が、前記設定された基準時間に応じて前記出力する質問の数を変更するように構成すると更に好適である(第4の発明)。
この場合、基準時間の長さに応じてプレーヤ類型の判定処理に要する質問数を変えることができる。例えば、プレーヤが望むゲームプレイの基準時間がある基準値より短い場合に、一度の質疑応答のタイミングでより多くの判定用の質問を多く出す構成としたり、ダミー質問の割合を低くする構成とすることで、初回のゲームプレイからプレーヤ類型の決定に至る時間を短縮し、より短時間でプレーヤ類型に相性の良いコンテンツを選択的に提示可能な状態とすることができる。よってプレーヤ毎に異なる余暇時間の長短・頻度に適したプレイ形態を実現できる。
あるいは、一度の質疑応答のタイミングで複数の質問を出す構成とした場合には、質問数を減らしてゲームプレイの所要時間を短くするように配慮する構成としても良い。
Still further, the computer is further caused to function as a reference time setting means for setting a game play reference time based on a player's operation input, and the player type determination processing means outputs the output according to the set reference time. It is more preferable that the number of questions to be changed is changed (fourth invention).
In this case, the number of questions required for the player type determination process can be changed according to the length of the reference time. For example, when the reference time of the game play desired by the player is shorter than a certain reference value, a structure in which a larger number of questions for determination are made at the timing of a single question and answer or a structure in which the ratio of dummy questions is reduced is set. As a result, the time from the first game play to the determination of the player type can be shortened, and it becomes possible to selectively present content compatible with the player type in a shorter time. Therefore, it is possible to realize a play mode suitable for the length and frequency of leisure time that differs for each player.
Or when it is set as the structure which asks a several question at the timing of one question and answer, it is good also as a structure which considers reducing the number of questions and shortening the time required for game play.

更に好適には、第1〜第4の何れかの発明のプログラムであって、前記コンテンツが、提供所要時間の長短に応じた分類がなされており、プレーヤの操作入力に基づいてゲームプレイの基準時間を設定する基準時間設定手段として前記コンピュータを更に機能させ、前記コンテンツ選択手段が、前記設定された基準時間に応じた提供所要時間のコンテンツを選択するように前記コンピュータを機能させると良い(第5の発明)。
この場合、第1〜第4の発明の何れかと同様の効果を奏するとともに、プレーヤが希望する時間に近い所要時間でプレイを終わらせることができる。よって、より一層プレーヤ毎に異なる余暇時間の長短に適したプレイ形態を実現できる。
More preferably, in the program according to any one of the first to fourth inventions, the content is classified according to the length of time required for providing, and a game play standard based on an operation input of the player The computer may further function as reference time setting means for setting time, and the content selection means may cause the computer to function so as to select a content having a required required time corresponding to the set reference time (first). 5 invention).
In this case, the same effect as any of the first to fourth inventions can be obtained, and the play can be ended in a required time close to the time desired by the player. Therefore, it is possible to realize a play mode suitable for the length of leisure time that is different for each player.

また、前記プレーヤ類型には、プレーヤの現在及び/又は過去の事実関係に関する類型である事実関係類型と、プレーヤの個性に関する類型である個性類型とが少なくとも含まれ、前記プレーヤ類型判定処理手段が、プレーヤに適合する前記事実関係類型及び前記個性類型を判定することで、プレーヤに適合するプレーヤ類型を判定するように前記コンピュータを機能させる構成とすると更に好適である(第6の発明)。
プレーヤの現在及び/又は過去の事実関係とは、一例としては家族構成や所定事項の経験の有無が挙げられる。例えば、『親の気持ちは子を持った経験のある者にしか分らない』に例えられるように、プレーヤの個性とは別に環境要因や経験要因によっても情動反応を示す対象が変化したり反応の程度が変化するものである。よって、プレーヤ類型に事実関係類型と個性類型とを含めることで、所望する情動反応誘発の観点から見たよりプレーヤ類型と相性の良いコンテンツとをより的確に選択することができるようになる。
The player type includes at least a fact-related type that is a type related to a player's current and / or past factual relationship, and a personality type that is a type related to a player's individuality, and the player type determination processing means includes: It is more preferable that the computer is made to function so as to determine the player type that matches the player by determining the fact type and the individuality type that match the player (sixth invention).
Examples of the factual relationship between the player's current and / or past facts include family structure and presence / absence of predetermined matters. For example, as compared to the fact that the feelings of parents can only be understood by those who have experience with children, in addition to the individuality of the player, the subject that shows emotional reaction changes or reacts depending on environmental factors and experience factors. The degree will vary. Therefore, by including the fact-related type and the individuality type in the player type, it becomes possible to more accurately select the content that is more compatible with the player type from the viewpoint of the desired emotional reaction induction.

コンテンツの選択過程については、前記プレーヤ類型判定処理手段が、前記プレーヤ類型に対するプレーヤの適合度を算出することで、プレーヤに適合するプレーヤ類型を判定し、前記コンテンツ選択手段が、前記各プレーヤ類型それぞれに対する前記算出された適合度と前記コンテンツの相性度との相関値を、前記複数のコンテンツそれぞれについて算出する相関算出手段(例えば、図1の制御ユニット1450、図9の制御部100、コンテンツ選択部104、図26のステップS94、S96)を有し、該算出された相関値に基づいてコンテンツを選択するように前記コンピュータを機能させる構成とするとより好適である(第7の発明)。
プレーヤ類型の判定は、必ずしも一回の質問で何れかの類型が確定するわけではなく、幾つかの質問を経る毎に何れかの類型の適合度(確度)が徐々に高まってゆく。コンテンツの選択過程において各プレーヤ類型に対するプレーヤの適合度に応じてコンテンツの相性度との相関値を求め、この相関値に基づいてコンテンツを選択することで、プレーヤ類型が確定されていない状態においてもその時々に応じたレベルで常に相性の良いコンテンツを選択することができる。
Regarding the content selection process, the player type determination processing means determines the player type suitable for the player by calculating the player's suitability with respect to the player type, and the content selection means determines each player type. Correlation calculation means for calculating the correlation value between the calculated fitness and the compatibility of the content for each of the plurality of contents (for example, the control unit 1450 in FIG. 1, the control unit 100 in FIG. 9, the content selection unit) 104, steps S94 and S96 in FIG. 26, and it is more preferable that the computer is configured to function so as to select content based on the calculated correlation value (seventh invention).
In determining the player type, one type is not necessarily determined by a single question, and the suitability (accuracy) of any type gradually increases with each question. Even in a state where the player type is not determined by obtaining a correlation value with the compatibility degree of the content according to the player's suitability for each player type in the content selection process, and selecting the content based on this correlation value It is possible to select content that is always compatible with the level according to the occasion.

更に、前記コンテンツ選択手段が、前記相関算出手段により算出された相関値が所与の閾値条件を満たすコンテンツの中から、プレーヤに提供するコンテンツを選択するように前記コンピュータを機能させるとともに、前記閾値条件を可変する閾値条件可変手段(例えば、図1の制御ユニット1450、図9の制御部100、閾値条件可変部108、図23のステップS20〜S28、図26のステップS106)として前記コンピュータを機能させるとより効果的である(第8の発明)。
すなわち、コンテンツ選択の条件を可変することで、選択されるコンテンツの母集団が備えるプレーヤ類型との相性の良さを変更することができる。例えば、所望する情動反応が得られやすいことを重点とする母集団としたり、情動反応の得られやすさをやや緩くしてもコンテンツのバリエーションを増やした母集団としたり、と言った調整が可能になる。よって、コンテンツの選択にある程度の目的を持たせることができるようになる。
Further, the content selection unit causes the computer to function so as to select content to be provided to a player from content in which the correlation value calculated by the correlation calculation unit satisfies a given threshold value, and the threshold value The computer functions as threshold condition varying means for varying the conditions (for example, the control unit 1450 in FIG. 1, the control unit 100 in FIG. 9, the threshold condition varying unit 108, steps S20 to S28 in FIG. 23, and step S106 in FIG. 26). This is more effective (eighth invention).
That is, by changing the content selection condition, it is possible to change the compatibility with the player type included in the selected content population. For example, it is possible to make adjustments such as a population that focuses on easily obtaining the desired emotional response, or a population with increased content variations even if the ease of obtaining emotional responses is slightly relaxed. become. Therefore, the content selection can have a certain purpose.

具体的には、前記閾値条件可変手段が、今回提供されるコンテンツの前記コンテンツ選択手段による選択の前に、現在のプレーヤの情況の操作入力を求める質疑応答形式の処理を実行して、前記情況の操作入力に基づいて前記閾値条件を可変する今回条件可変手段(例えば、図1の制御ユニット1450、図9の制御部100、今回条件可変部110、図26のステップS106)を有するように前記コンピュータを機能させると良い(第9の発明)。
プレーヤの状況とは、プレーヤの心理状態や肉体的な疲労度、その日の睡眠時間など心身のストレス状態を左右する内容が該当する。プレーヤの状況に応じてコンテンツ選択の閾値条件を可変することで、疲れている時にはより相性が高くて所望する情動反応が得られやすい母集団からコンテンツを選択し、元気な時には相性をやや低くしてもよりバリエーション豊かな母集団からコンテンツを選択して情動反応が誘発される内容に幅を持たせるように仕向けると言った対応が可能になる。
Specifically, the threshold condition variable means executes a question-and-answer format process for requesting an operation input of the current player situation before selecting the content provided this time by the content selection means, and The current condition variable means (for example, the control unit 1450 in FIG. 1, the control unit 100 in FIG. 9, the current condition variable unit 110, and step S106 in FIG. 26) that varies the threshold condition based on the operation input of It is good to make a computer function (9th invention).
The situation of the player corresponds to contents that influence the physical and mental stress state such as the player's psychological state, physical fatigue level, and sleeping time of the day. By changing the threshold conditions for content selection according to the situation of the player, select content from a population that is more compatible and easily obtains the desired emotional response when you are tired, and slightly lower compatibility when you are fine However, it is possible to respond by selecting content from a more varied population and providing a range of content that induces emotional responses.

更に好適には、前記閾値条件可変手段が、前記コンテンツ提供手段により提供されたコンテンツに対する感想の操作入力を求める質疑応答形式の処理を実行して、前記感想の操作入力に基づいて、次回提供するコンテンツを選択する際の前記閾値条件を可変する次回条件可変手段(例えば、図1の制御ユニット1450、図9の制御部100、次回条件可変部112、図23のステップS20〜S28)を有するように前記コンピュータを機能させると良い(第10の発明)。
設計思想によるが、例えば、今回提示したコンテンツの感想が所望する情動反応が得られた肯定的な回答である場合、今回の反応でより心がほぐれたことにより情動反応がより誘発されやすくなったと判断する。そして、次回のコンテンツ選択に適用される閾値条件を広く又は緩くして、相性をやや低くしてもよりバリエーション豊かな中からコンテンツを選択して情動反応が誘発される内容に幅を持たせるように仕向けると言った対応が可能になる。反対に否定的な反応が有った場合には、次回適用される閾値条件を狭く又は厳しくして、次回こそは確実に情動反応を誘発できるように相性度の高い母集団からコンテンツを選抜するようにすることもできる。
More preferably, the threshold condition variable means executes a question-and-answer format process for requesting an impression operation input for the content provided by the content providing means, and provides the next time based on the impression operation input. Next time variable means (for example, the control unit 1450 in FIG. 1, the control unit 100 in FIG. 9, the next condition variable unit 112, and steps S20 to S28 in FIG. 23) for changing the threshold condition when selecting content is provided. It is preferable to cause the computer to function (tenth invention).
Depending on the design philosophy, for example, if the impression of the content presented this time is an affirmative answer that gives the desired emotional response, the emotional response is more likely to be triggered by the relaxation of the current response. to decide. Then, widen or loosen the threshold conditions applied to the next content selection, so that even if the compatibility is slightly reduced, the content can be selected from a richer variety and the range in which the emotional reaction is induced is widened. It is possible to respond to the request to go to. On the contrary, if there is a negative response, the threshold condition to be applied next time is narrowed or tightened, and the next time, the content is selected from a highly compatible population so that the emotional reaction can be surely triggered. It can also be done.

また更には、前記コンテンツ提供手段が、プレーヤの進行指示操作入力に従って、前記選択されたコンテンツを順次提供していく処理を実行するように前記コンピュータを機能させ、前記コンテンツ提供手段によりコンテンツが提供されている際の前記進行指示操作入力に基づいて、当該コンテンツに対するプレーヤの反応を分析する反応分析手段(例えば、図9の制御部100、情動反応分析部130、図31のステップS236、図54のステップS242)として前記コンピュータを機能させ、前記閾値条件可変手段が、前記反応分析手段の分析結果に基づいて次回提供するコンテンツを選択する際の前記閾値条件を可変する反応結果反映手段(例えば、図9の制御部100、閾値条件可変部108、図32のステップS320〜S324、図54のステップS270〜S276)を有するように前記コンピュータを機能させるとより好適である(第11の発明)。   Still further, the content providing means causes the computer to function so as to execute a process of sequentially providing the selected content in accordance with a player's progress instruction operation input, and the content providing means provides the content. Reaction analysis means for analyzing the player's response to the content based on the progress instruction operation input (for example, the control unit 100, the emotion reaction analysis unit 130 in FIG. 9, steps S236 in FIG. 31, and FIG. 54). In step S242), the computer is caused to function, and the threshold value condition changing unit changes the threshold value condition when the content to be provided next time is selected based on the analysis result of the reaction analysis unit (for example, FIG. 9 control unit 100, threshold condition variable unit 108, steps S320 to S3 in FIG. 4, it is more preferable that the causes the computer to function so as to have a step S270~S276) of FIG. 54 (eleventh aspect).

コンテンツ提示中に於けるプレーヤの反応を分析することで目的通りプレーヤに情動反応を誘発させることができているかどうかを推測することができる。そして、その分析結果に基づいて次回のコンテンツ選択時に適用される閾値条件を可変することで実際の反応をフィードバックしてより情動反応を得やすいコンテンツ選択を実現したり、今回のコンテンツ提示で誘発された情動反応による効果をふまえ、次回以降のコンテンツ選択において情動反応が誘発される内容に幅を持たせて心を豊かにするように仕向ける、と言った対応をより精度良く実現することができるようになる。   By analyzing the player's reaction during the content presentation, it can be estimated whether the player can induce an emotional reaction as intended. Based on the analysis result, the threshold condition applied at the time of next content selection can be changed to feed back the actual reaction to realize the content selection that can easily get the emotional reaction, or it is induced by the present content presentation. Based on the effect of the emotional response, it is possible to achieve a more accurate response that the emotional response is induced in the next and subsequent content selections, so that the emotional response is broadened and the mind is enriched. become.

また、前記コンテンツ提供手段が、プレーヤの進行指示操作入力に従って、前記選択されたコンテンツを順次提供していく処理を実行するように前記コンピュータを機能させ、前記コンテンツ提供手段によりコンテンツが提供されている際の前記進行指示操作入力に基づいて、当該コンテンツに対するプレーヤの反応を分析する反応分析手段として前記コンピュータを機能させ、前記プレーヤ類型判定手段が、前記反応分析手段の分析結果を更に加味してプレーヤ類型を判定するように前記コンピュータを機能させるとしても良い(第12の発明)。
例えば、コンテンツ提示中のプレーヤの反応が現時点におけるプレーヤ類型判定の傾向に否定的であれば、パーソナリティ判定の決定木の分岐点を遡って質問を変えてやり直す、或いは決定木そのものを変更する、パーソナリティの適合度(確度)を変更すると言った処理を実行して、プレーヤ類型判定の精度をより高めることができる。
Further, the content providing means causes the computer to function so as to execute a process of sequentially providing the selected content in accordance with a player's progress instruction operation input, and the content providing means provides the content. The computer is made to function as reaction analysis means for analyzing a player's reaction to the content based on the progress instruction operation input at the time, and the player type determination means further takes into account the analysis result of the reaction analysis means, The computer may function so as to determine the type (a twelfth aspect).
For example, if the player's reaction during the presentation of content is negative to the current player type determination tendency, the personality determination decision tree is traced back and the question is changed, or the decision tree itself is changed. The accuracy of the player type determination can be further increased by executing the process of changing the fitness (accuracy) of the player.

反応分析の方法としては、前記コンテンツ提供手段が、前記進行指示操作入力がなされる毎に、コンテンツを順次提供していき、前記反応分析手段が、前記進行指示操作入力の入力間隔に基づいてプレーヤの反応を分析するように前記コンピュータを機能させるとしても良い(第13の発明)。
更には、前記コンテンツ提供手段が、前記進行指示操作入力を受け付ける受付タイミング期間をコンテンツの提供途中に設け、コンテンツの提供が該受付タイミングに至った際にコンテンツの提供を一時中断し、該受付タイミング時に前記進行指示操作入力がなされることでコンテンツの提供を継続し、前記反応分析手段が、前記受付タイミング期間以外における前記進行指示操作入力の有無、及び/又は、前記受付タイミング期間の開始から前記進行指示操作入力がなされるまでの時間、に基づいてプレーヤの反応を分析するように前記コンピュータを機能させる構成としても良い(第14の発明)。
As a method of reaction analysis, the content providing means sequentially provides the content every time the progress instruction operation input is made, and the reaction analysis means is a player based on the input interval of the progress instruction operation input. The computer may be caused to function so as to analyze the reaction (the thirteenth invention).
Further, the content providing means provides a reception timing period for accepting the progress instruction operation input in the middle of providing the content, and temporarily stops the provision of the content when the content provision reaches the reception timing. Sometimes, the progress instruction operation input is continued to provide the content, and the reaction analysis means includes the presence / absence of the progress instruction operation input outside the reception timing period and / or the start of the reception timing period. The computer may be configured to function so as to analyze the player's reaction based on the time until the progress instruction operation input is made (fourteenth invention).

また、反応分析の方法はボタンスイッチの操作などに限らない。
前記コンピュータは、マイクを備えており、前記反応分析手段が、更に、前記マイクに入力された音声に基づいてプレーヤの反応を分析するように前記コンピュータを機能させる構成としても良い(第15の発明)。
なお、この時、前記進行指示操作入力が前記マイクへの音声入力(例えば「次へ」と音声入力する。)であってもよい(第16の発明)。その場合には、半ば強制的に音声入力させることが可能となる。
The method of reaction analysis is not limited to the operation of button switches.
The computer may include a microphone, and the reaction analysis means may further cause the computer to function so as to analyze a player's reaction based on a sound input to the microphone (fifteenth invention). ).
At this time, the progress instruction operation input may be voice input to the microphone (for example, voice input of “next”) (sixteenth invention). In that case, it is possible to force voice input halfway.

或いは、前記コンピュータは、加速度センサ及び/又はジャイロセンサでなる検知器を内蔵したコントローラを備えており、前記反応分析手段が、更に、前記検知器の検知結果に基づいてプレーヤの反応を分析するように前記コンピュータを機能させる構成としても良い(第17の発明)。
なお、この時、前記進行指示操作入力が、前記コントローラの位置及び/又は姿勢を変化させる所定の動作操作入力(例えば「コントローラ」を傾ける操作)であってもよい(第18の発明)。その場合には、半ば強制的に動作操作入力をさせることが可能となる。
或いはまた、前記進行指示操作入力は、ボタン押下操作入力であり、前記コンテンツ提供手段が、ボタン押下操作入力がなされている間にコンテンツの提供を継続し、前記反応分析手段が、ボタン押下操作入力の継続時間、断続間隔、断続回数及び中断時間のうち少なくとも1つに基づいてプレーヤの反応を分析するように前記コンピュータを機能させる構成としても良い(第19の発明)。
これらの構成の場合、反応分析をより多面的に実現するとともに分析精度を高めることができる。
Alternatively, the computer includes a controller with a built-in detector composed of an acceleration sensor and / or a gyro sensor, and the reaction analysis means further analyzes the player's reaction based on the detection result of the detector. Further, the computer may be configured to function (seventeenth invention).
At this time, the progress instruction operation input may be a predetermined operation operation input for changing the position and / or posture of the controller (for example, an operation of tilting the “controller”) (18th invention). In this case, it becomes possible to force the operation operation input halfway.
Alternatively, the progress instruction operation input is a button press operation input, the content providing means continues to provide content while the button press operation input is being made, and the reaction analysis means is a button press operation input. The computer may be configured to function so as to analyze the player's reaction based on at least one of the duration, the intermittent interval, the intermittent count, and the interrupt time (19th invention).
In the case of these configurations, it is possible to realize reaction analysis from various aspects and improve analysis accuracy.

次に、コンテンツの提示方法については、前記コンピュータは、上下2つの表示装置を備えており、前記コンテンツは、喜怒哀楽等の情動反応のうち所定の情動反応を誘発するために予め用意されたコンテンツであって、1つのコンテンツが前記表示装置それぞれに表示される表示用のソフトウェア群でなり、前記コンテンツ提供手段が、前記コンテンツ選択手段により選択されたコンテンツのソフトウェア群に従った表示を、前記上下2つの表示装置に交互に行うように前記コンピュータを機能させるとするとより好適である(第20の発明)。
特にコンテンツ提示によって「泣き」を誘発する場合には、眼球の上下運動を誘発することで涙が出易い状態となるので「泣き」をより効果的に誘発することが可能になる。
Next, regarding the content presentation method, the computer includes two upper and lower display devices, and the content is prepared in advance to induce a predetermined emotional reaction among emotional reactions such as emotions. The content is a software group for display in which one content is displayed on each of the display devices, and the content providing unit displays the content according to the software group of the content selected by the content selecting unit. It is more preferable that the computer is caused to function alternately on the upper and lower display devices (a twentieth invention).
In particular, in the case of inducing “crying” by presenting content, it is possible to induce “crying” more effectively because the eyeballs are easily brought up by inducing vertical movement of the eyeball.

更に、前記コンテンツ提供手段が、前記プレーヤ類型判定処理手段により判定されたプレーヤ類型に基づき、前記選択されたコンテンツのソフトウェア群に従った表示画像の色調補正及び/又は前記交互表示時のトランジション処理の変更を行うように前記コンピュータを機能させると、所望する情動反応を誘発しやすくなるのでより好適である(第21の発明)。   Further, the content providing means performs color tone correction of a display image according to the software group of the selected content and / or transition processing at the time of the alternate display based on the player type determined by the player type determination processing means. It is more preferable to make the computer function so as to make a change, because it makes it easier to induce a desired emotional reaction (the twenty-first invention).

また更に、前記コンテンツには、表示用コンテンツと音声用コンテンツとの2種類があり、前記コンテンツ選択手段が、プレーヤに提供するコンテンツとして前記2種類のコンテンツそれぞれについて選択し、前記コンテンツ提供手段が、前記選択された表示用コンテンツを提供する表示用コンテンツ提供手段と、前記選択された音声用コンテンツを提供する音声用コンテンツ提供手段とを有するように前記コンピュータを機能させると、より一層所望する情動反応を誘発し易くなるので好適である(第22の発明)。   Furthermore, the content includes two types of content for display and audio content, the content selection unit selects each of the two types of content as content to be provided to the player, and the content providing unit includes: When the computer is made to function so as to have the display content providing means for providing the selected display content and the audio content providing means for providing the selected audio content, a more desired emotional reaction This is preferable (22nd invention).

また、前記音声用コンテンツが、当該音声のジャンルや音律等による複数の音声種別に予め分類されており、前記コンテンツ選択手段が、プレーヤに提供する音声用コンテンツの音声種別を選択し、該選択した音声種別に属する音声用コンテンツの中から所定の演算を用いて音声用コンテンツを選択するように前記コンピュータを機能させる構成とすることで、音声の提示に伴う情動反応の誘発性をより一層高めることで効果を高めることができる(第23の発明)。   The audio content is pre-classified into a plurality of audio types according to the audio genre, temperament, etc., and the content selection means selects the audio type of the audio content to be provided to the player, and the selected By further configuring the computer to function so as to select the audio content from the audio content belonging to the audio type using a predetermined calculation, the inductiveness of the emotional reaction associated with the presentation of the audio is further enhanced. Thus, the effect can be enhanced (23rd invention).

更に付け加えるならば、前記音声用コンテンツ提供手段が、前記プレーヤ類型判定処理手段により判定されたプレーヤ類型に基づき、出力される音の特性を変更するフィルタリング処理を施して音声用コンテンツを出力するように前記コンピュータを機能させる構成とするとより好適である(第24の発明)。
これによって、更に音声の提示に伴う情動反応の誘発性を高めることができる。
In addition, the audio content providing means performs a filtering process to change the characteristics of the output sound based on the player type determined by the player type determination processing means, and outputs the audio content. It is more preferable to make the computer function (24th invention).
As a result, it is possible to further increase the inductiveness of the emotional reaction that accompanies voice presentation.

選択するコンテンツの元情報は、プログラムと同時に提供される形態としても良いし、前記コンテンツ選択手段が、前記コンテンツを多数記憶するデータベース又はサーバシステムにアクセスして、前記コンテンツを選択するように前記コンピュータを機能させる構成とすることができる(第25の発明)。
この場合、コンテンツの内容を随時追加更新することが可能になるので、飽きのこないコンテンツ提供を実現することができる。
The original information of the content to be selected may be provided at the same time as the program, or the content selection means may access the database or server system storing a large number of the content and select the content. (25th invention).
In this case, it becomes possible to add and update the content as needed, so that it is possible to provide timeless content provision.

第26の発明は、第1〜第25の何れかの発明のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。ここで言う「情報記憶媒体」とは、例えば磁気ディスクや光学ディスク、ICメモリなどを含む。第26の発明によれば、第1〜第25の発明の何れかのプログラムをコンピュータに読み取らせて実行させることによって、コンピュータに第1〜第25の発明の何れかと同様の効果を発揮させることができる。   A twenty-sixth invention is a computer-readable information storage medium storing a program according to any one of the first to twenty-fifth inventions. The “information storage medium” mentioned here includes, for example, a magnetic disk, an optical disk, an IC memory, and the like. According to the twenty-sixth invention, by causing a computer to read and execute any one of the programs of the first to twenty-fifth inventions, causing the computer to exhibit the same effects as any of the first to twenty-fifth inventions. Can do.

本発明によれば、プレーヤに質疑応答してプレーヤの類型を判定し、プレーヤ類型との相性度が定められた複数のコンテンツの中から判定した類型に基づいて適当なコンテンツを選択し提示することを繰り返し実行することができる。例えば、コンテンツがゲームであればゲームを実行し、映画であれば映像とともに音声を出力し、文章であれば画面にテキストを表示してプレーヤに提示することができる。加えて、今回及び過去のプレーヤ類型判定に係る質疑応答への回答操作入力に基づいて、プレーヤ類型を絞り込んで判定していくことができる。よって、よりプレーヤ類型と相性の良いコンテンツを提示して、プレーヤ(ユーザ)に所望する情動をより確実に感じてもらうことができる。   According to the present invention, a player's type is determined by asking and answering a player, and an appropriate content is selected and presented based on the determined type from among a plurality of contents determined to be compatible with the player type. Can be executed repeatedly. For example, if the content is a game, the game can be executed. If the content is a movie, audio can be output together with video, and if the content is text, the text can be displayed on the screen and presented to the player. In addition, the player type can be narrowed down and determined based on the answer operation input to the question and answer regarding the current and past player type determination. Therefore, it is possible to present content more compatible with the player type and to make the player (user) feel the desired emotion more reliably.

〔第1実施形態〕
次に、本発明を適用した第1実施形態として、携帯ゲーム装置でプレーヤの類型を判定するとともに、判定した類型に応じて「泣く」という情動反応が得られ易いコンテンツを選択・提供する例を挙げて説明する。
尚、本実施形態では携帯ゲーム装置でプレイする形態に限らず、コンテンツの再生装置でコンテンツの選択と再生をする形態であっても良い。
[First Embodiment]
Next, as a first embodiment to which the present invention is applied, an example in which a portable game device determines a type of a player and selects / provides content that can easily obtain an emotional reaction of “crying” according to the determined type. I will give you a description.
In the present embodiment, the embodiment is not limited to a mode in which the game is played on the portable game device, but may be a mode in which content is selected and played on the content playback device.

[ゲーム装置の構成]
図1は、携帯ゲーム装置の構成例を説明する構成図である。本実施形態における携帯ゲーム装置1400は、プレーヤがゲーム操作を入力するための方向入力キー1402およびボタンスイッチ1404と、第1液晶ディスプレイ1406と、第2液晶ディスプレイ1408と、スピーカ1410と、無線通信モジュール1412と、制御ユニット1450とを、ヒンジ1414で開閉自在なフリップフロップ型の装置本体1401と一体に備えている。更に、第1液晶ディスプレイ1406及び第2液晶ディスプレイ1408の表面には、スタイラスペン1416などで触れることによって表示範囲内の任意位置を入力することのできるタッチパネル1407、1409が装着されている。
[Configuration of game device]
FIG. 1 is a configuration diagram illustrating a configuration example of a portable game device. A portable game apparatus 1400 according to the present embodiment includes a direction input key 1402 and a button switch 1404 for a player to input a game operation, a first liquid crystal display 1406, a second liquid crystal display 1408, a speaker 1410, and a wireless communication module. 1412 and a control unit 1450 are provided integrally with a flip-flop type apparatus main body 1401 that can be opened and closed by a hinge 1414. Furthermore, touch panels 1407 and 1409 that can input arbitrary positions within the display range by touching with a stylus pen 1416 or the like are mounted on the surfaces of the first liquid crystal display 1406 and the second liquid crystal display 1408.

また、装置本体1401には、コンピュータ読み出し可能な情報記憶媒体であるメモリカード1440の読取装置1418が備えられている。メモリカード1440には、携帯ゲーム装置1400の制御ユニット1450が各種演算処理を実行するために必要なプログラムや各種設定データ、並びに提示するコンテンツに係るデータが記憶されている。
その他、図示しない内臓バッテリーや電源ボタン、音量調節ボタン等が設けられている。
Further, the apparatus main body 1401 is provided with a reader 1418 of a memory card 1440 that is a computer-readable information storage medium. The memory card 1440 stores programs and various setting data necessary for the control unit 1450 of the portable game apparatus 1400 to execute various arithmetic processes, and data related to the content to be presented.
In addition, a built-in battery, a power button, a volume control button, and the like (not shown) are provided.

制御ユニット1450は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)及びDSP(Digital Signal Processor)などの各種マイクロプロセッサ、ASIC(Application Specific Integrated Circuit)、ICメモリ、液晶ディスプレイのドライバ回路、音出力用のアンプ回路などを備える。そして、読取装置1418により読み出されたメモリカード1440に格納されているプログラムやデータに基づいて、制御ユニット1450は、種々の演算処理を実行する。そして、方向入力キー1412やボタンスイッチ1404、タッチパネル1407及び1409からの操作入力に応じて装置各部を制御する。   The control unit 1450 includes various microprocessors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), an IC memory, a driver circuit for a liquid crystal display, and a sound output. For example. Then, based on the program and data stored in the memory card 1440 read by the reading device 1418, the control unit 1450 executes various arithmetic processes. Then, each part of the apparatus is controlled in accordance with operation inputs from the direction input key 1412, the button switch 1404, and the touch panels 1407 and 1409.

また、携帯ゲーム装置1400は、マイクロフォン1420と、3軸加速度センサ1422とを備える。
マイクロフォン1420は、プレイ中にプレーヤが立てる音や声を集音し、集音した音の信号を制御ユニット1450へ出力する。同図のように一体型のマイクロフォンに限らず、外部マイクロフォンを接続可能な接続端子を備える構成としても良い。
3軸加速度センサ1422は、携帯ゲーム装置1400の姿勢変化や位置変化を検出するために垂直交差するX軸・Y軸・Z軸の3軸方向の加速度を検出し、検出信号を制御ユニット1450へ出力する。尚、加速度センサの代わり、又は更なる機能追加としてジャイロセンサを備える構成としても良い。或いは地磁気を基準として位置や姿勢変化を検出するならば磁気センサによって置き換えることもできる。
In addition, the portable game device 1400 includes a microphone 1420 and a triaxial acceleration sensor 1422.
The microphone 1420 collects sounds and voices made by the player during play and outputs the collected sound signals to the control unit 1450. It is good also as a structure provided with the connecting terminal which can connect an external microphone not only to an integrated microphone like the figure.
The triaxial acceleration sensor 1422 detects the acceleration in the three axis directions of the X axis, the Y axis, and the Z axis that intersect perpendicularly in order to detect the posture change and the position change of the portable game apparatus 1400, and sends the detection signal to the control unit 1450. Output. In addition, it is good also as a structure provided with a gyro sensor as a function addition instead of an acceleration sensor. Alternatively, if a change in position or orientation is detected with reference to geomagnetism, it can be replaced by a magnetic sensor.

尚、本実施形態では、携帯ゲーム装置1400は必要なプログラムや各種設定データ、並びにコンテンツに係るデータをメモリカード1440から読み出す構成であるが、無線通信モジュール1412を介して、インターネットやLAN(Local Area Network)、WAN(Wide Area Network)と言った通信回線1に接続して外部の装置からデータ通信によって取得する構成としても良い。   In the present embodiment, the portable game device 1400 is configured to read out necessary programs, various setting data, and data related to contents from the memory card 1440, but via the wireless communication module 1412, the Internet or LAN (Local Area) Network) and WAN (Wide Area Network) may be connected to a communication line 1 and acquired from an external device by data communication.

図2は、本実施形態で実現されるプレーヤの類型判定とコンテンツ提示との関連を示す概念図である。本実施形態の携帯ゲーム装置1400は、大きくわけて、プレーヤの類型判定に係る処理2と、判定されたプレーヤ類型に応じてより「泣きやすい」コンテンツの選択に係る処理4と、選択されたコンテンツの提示・出力に係る処理6と、提示されたコンテンツへのプレーヤの感想を次回以降のコンテンツ選択へフィードバックする処理8とを行う。   FIG. 2 is a conceptual diagram showing the relationship between player type determination and content presentation realized in the present embodiment. The mobile game device 1400 of the present embodiment is roughly divided into a process 2 related to determination of a player type, a process 4 related to selection of content more easily crying according to the determined player type, and a selected content And a process 8 for feeding back a player's impression of the presented content to a subsequent content selection.

プレーヤの類型の判定は、コンテンツ提示の前段階として実施される。具体的には、例えば図3に示すようなパーソナリティ判定に用いる質問と、それらの質問を分岐点に対応づけた図4に示すようなパーソナリティ判定の決定木を予め用意する。質問の内容及び決定木は、公知の性格診断テストの技術を利用することで実現できる。但し、本実施形態におけるパーソナリティ判定は、既存の性格判定よりも多様な局面におけるプレーヤの価値観や行動パターンの判定を重視した内容とする意味で単なる性格判定とは異なる。そして、コンテンツの提示前に質疑応答形式のパーソナリティ判定テストを実行し、本実施形態では最終的に7つのパーソナリティタイプ(PS1〜PS7)に分類する(図5参照)。   The determination of the player type is performed as a pre-stage of content presentation. Specifically, for example, a question used for personality determination as shown in FIG. 3 and a personality determination decision tree as shown in FIG. 4 in which those questions are associated with branch points are prepared in advance. The contents of the question and the decision tree can be realized by using a known personality diagnostic test technique. However, the personality determination in the present embodiment is different from a simple personality determination in the sense that it emphasizes the determination of the player's values and behavior patterns in various situations rather than the existing personality determination. Then, before the content is presented, a question and answer personality determination test is executed. In the present embodiment, the personality determination test is finally classified into seven personality types (PS1 to PS7) (see FIG. 5).

また、携帯ゲーム装置1400は、パーソナリティ判定テストとともにプレーヤ属性に係る情報として未婚/既婚、子供の有無、ペットの飼育経験の有無と言った所定事項を質疑応答形式で取得する。これらパーソナリティタイプ及びプレーヤ属性に係る情報が、本実施形態におけるプレーヤの特性値となる。   Also, the portable game device 1400 acquires, in a question-and-answer format, predetermined items such as unmarried / married, presence / absence of children, presence / absence of pet breeding as information related to the player attributes together with the personality determination test. Information related to the personality type and the player attribute is a characteristic value of the player in the present embodiment.

また、携帯ゲーム装置1400はプレーヤにコンテンツを提示するためのデータをメモリカード1440から読み出す、或いは通信回線1を介して外部装置とデータ通信することにより(具体的には、コンテンツを多数記憶するデータベース又はサーバシステムにアクセスして)取得する。
コンテンツは、予め多数(例えば、数百程度)用意されている。一つのコンテンツは、映像、テキスト、音声などによって構成されており、プレーヤによる進行操作の入力によって提示が進行する形式である。そして各コンテンツは、予め物語の内容から見たシナリオ分類と、登場するキャラクタや物などの登場アイテムのアイテム分類とでラベリングされている。ここで、「アイテム」とは、当該コンテンツのストーリや登場人物等を客観的な事象・事柄・事物で表した事項・項目の意味である。
Further, the portable game device 1400 reads out data for presenting content to the player from the memory card 1440 or performs data communication with an external device via the communication line 1 (specifically, a database that stores a large number of content). (Or access the server system)
Many contents (for example, about several hundreds) are prepared in advance. One content is composed of video, text, audio, and the like, and is presented in a format in which presentation proceeds by input of a progress operation by the player. Each content is labeled in advance according to the scenario classification viewed from the content of the story and the item classification of the appearance items such as characters and objects that appear. Here, the “item” means a matter / item that represents a story, a character, or the like of the content by an objective event / event / thing.

例えば、図6は本実施形態におけるシナリオ分類の例を示す図である。同図に示すように、情動反応誘導の観点から見た物語のテーマとキーワードとでSC1〜SC10の10種に分類されている。また、図7は本実施形態におけるアイテム分類の例を示す図である。同図に示すように、物語に登場する人物や事物、人間関係、病気や事故と言ったシチュエーションを要素としてIT1〜IT8の8種に分類されている。   For example, FIG. 6 is a diagram illustrating an example of scenario classification in the present embodiment. As shown in the figure, there are 10 types of SC1 to SC10 classified according to the theme and keywords of the story from the viewpoint of emotional reaction induction. FIG. 7 is a diagram showing an example of item classification in the present embodiment. As shown in the figure, it is classified into eight types of IT1 to IT8 with elements such as persons and things appearing in the story, human relations, situations such as illnesses and accidents as elements.

また、携帯ゲーム装置1400は、プレーヤのパーソナリティタイプや属性と言った特性値、シナリオ分類、登場アイテムとの相関情報をメモリカード1440から読み出す、或いは通信回線1を介して外部装置とデータ通信することで取得する構成とすることができる。   In addition, the portable game device 1400 reads out characteristic information such as a player's personality type and attributes, scenario classification, and correlation information with appearance items from the memory card 1440, or performs data communication with an external device via the communication line 1. It can be set as the structure acquired by.

なお、この相関情報は、プレーヤのパーソナリティや属性と言った特性値、シナリオ分類、登場アイテムとの相関関係について、「泣く」と言う情動反応の観点から実際に行った事前調査によって得られた統計的に有為性のある情報である。
この相関情報に関する事前調査は次のような調査である。例えば無作為抽出された統計的母数として十分に多数の被験者を対象として、パーソナリティ判定テストを実行してパーソナリティタイプを求めるとともに各種の属性に係る情報を入手する。そして各被験者にコンテンツ例を提示して、「泣く」と言う観点から評価をしてもらい、被験者のパーソナリティタイプ、被験者のプレーヤ属性、提示したコンテンツのシナリオ分類、登場アイテムの間での相関を取ることで得られる。例えば、図8は本実施形態における相関情報の元になるパーソナリティタイプと泣きやすいシナリオ及びアイテムとの関連性を説明するための図である。例えば、パーソナリティタイプ「PS1」では、「結果がすぐわかるようなシナリオで泣きやすい傾向」が事前調査によって得られる。本実施形態ではこの泣きやすい傾向を各パーソナリティタイプ別に対応するコンテンツの相性として指数化し、この指数に基づく所定の選択基準でコンテンツを選択する。
Note that this correlation information is statistical data obtained from a preliminary survey that was actually conducted from the viewpoint of emotional reaction of “crying” with respect to the correlation between characteristic values such as player personality and attributes, scenario classification, and appearance items. This information is meaningful.
The preliminary survey on this correlation information is as follows. For example, a personality determination test is performed on a sufficiently large number of subjects as a randomly extracted statistical parameter to obtain a personality type and obtain information on various attributes. Each subject is presented with an example of content and evaluated from the viewpoint of “crying”, and the personality type of the subject, the player attributes of the subject, the scenario classification of the presented content, and the correlation between the appearance items are taken. Can be obtained. For example, FIG. 8 is a diagram for explaining the relationship between the personality type that is the basis of the correlation information in this embodiment, the scenario and the item that are easy to cry. For example, in the personality type “PS1”, “a tendency to cry easily in a scenario in which the result is immediately known” is obtained by the preliminary survey. In the present embodiment, this tendency to cry is indexed as the compatibility of the content corresponding to each personality type, and the content is selected according to a predetermined selection criterion based on this index.

コンテンツの提示においては、選択されたコンテンツの映像やテキストが第1液晶ディスプレイ1406及び第2液晶ディスプレイ1408で表示され、スピーカ1410からそのBGMや効果音(SE)が放音される。プレーヤは、映像やテキストを見つつ、音声を聞いてコンテンツを楽しむ。そして、コンテンツの提示が終了したならば、プレーヤは提示されたコンテンツの感想を入力する。感想は、特定の情動反応が得られた度合いとして入力する。本実施形態では、「泣く」情動反応を目的としてコンテンツを提示するので「泣けた」〜「面白くない(全く泣けない)」まで肯定から否定までを指数化した度合いで入力される。   In the presentation of content, the video and text of the selected content are displayed on the first liquid crystal display 1406 and the second liquid crystal display 1408, and the BGM and sound effect (SE) are emitted from the speaker 1410. The player enjoys the content while listening to the sound while watching the video and text. Then, when the presentation of the content is finished, the player inputs an impression of the presented content. The impression is input as the degree to which a specific emotional reaction is obtained. In the present embodiment, content is presented for the purpose of emotional reaction of “crying”, and therefore, it is input in an indexed degree from positive to negative from “I could n’t cry” to “I could n’t cry”.

感想が入力されると、本実施形態の携帯ゲーム装置1400は感想入力結果をコンテンツの選択基準にフィードバックする処理を実行する。
フィードバックの仕方は、次回以降のコンテンツの選択に対する設計思想によって適宜設定する。例えば、とにかく泣きやすいコンテンツを提示することを主眼とする設計思想に基づくならば、肯定的な感想が入力された場合には選択基準をより厳しくしてパーソナリティタイプとコンテンツの相関のより高いものが選択されるようにフィードバックし、否定的な感想入力が為されたならば事前調査に基づく相関とはズレている可能性を考慮して選択基準を緩やかにすることができる。
また別の考え方としては、今回泣くことができたので選択されるコンテンツの幅を増やしてより心を柔軟にすることを狙う設計思想に基づくならば、肯定的な感想が入力されたならば選択基準を緩やかにしてコンテンツの選択幅を増やす。反対に、否定的な感想が入力された場合には、選択基準を厳しくして先ずは泣かせる可能性を高め、泣くことによる心のコリを解きほぐすことを優先するようにしても良い。
When an impression is input, the portable game device 1400 of the present embodiment executes a process of feeding back the impression input result to a content selection criterion.
The feedback method is appropriately set according to the design concept for the selection of the content after the next time. For example, based on a design philosophy that focuses on presenting easy-to-cry content anyway, if a positive impression is entered, the selection criteria will be stricter and the personality type and content will have a higher correlation. If feedback is made so that selection is made and a negative impression is input, the selection criterion can be relaxed in consideration of the possibility of deviation from the correlation based on the preliminary survey.
Another way of thinking is that it was possible to cry this time, so if it is based on a design philosophy that aims to increase the width of the content to be selected and make the mind more flexible, select if a positive impression is input Increase the selection of content by loosening the criteria. On the other hand, when a negative impression is input, the selection criteria may be tightened to increase the possibility of crying first, and priority may be given to unraveling the stiffness caused by crying.

[機能ブロックの説明]
図9は、本実施形態における携帯ゲーム装置1400の機能構成の一例を示す機能ブロック図である。同図に示すように本実施形態では、制御部100とバス240で信号送受可能に接続された操作入力部200、位置・姿勢変化検出部202、音検出部204、画像表示部210、音出力部220、通信部230、記憶部300の各部を備える。
[Description of functional block]
FIG. 9 is a functional block diagram illustrating an example of a functional configuration of the portable game device 1400 according to the present embodiment. As shown in the figure, in this embodiment, the operation input unit 200, the position / posture change detection unit 202, the sound detection unit 204, the image display unit 210, and the sound output, which are connected to the control unit 100 and the bus 240 so as to be able to transmit and receive signals. Each unit includes a unit 220, a communication unit 230, and a storage unit 300.

制御部100は、マイクロプロセッサやICメモリ、各種ドライバ回路などによって実現され、携帯ゲーム装置1400の動作を制御する。本実施形態では図1の制御ユニット1450がこれに該当する。そして本実施形態の制御部100は、プレーヤ類型判定部102と、コンテンツ選択部104と、コンテンツ提示制御部120と、進行制御部128と、情動反応分析部130とを備える。   The control unit 100 is realized by a microprocessor, an IC memory, various driver circuits, and the like, and controls the operation of the portable game device 1400. In this embodiment, the control unit 1450 in FIG. 1 corresponds to this. The control unit 100 of this embodiment includes a player type determination unit 102, a content selection unit 104, a content presentation control unit 120, a progress control unit 128, and an emotion reaction analysis unit 130.

プレーヤ類型判定部102は、プレーヤ(ユーザ)に回答操作入力を求めるパーソナリティ判定用の質疑応答形式の処理を実行し、今回及び過去の質疑に対するプレーヤによって為された回答操作入力に基づいて、予め定められた7つのパーソナリティタイプのうちプレーヤに適合するパーソナリティタイプを判定する機能を有する。また、プレーヤ属性に関する情報を取得するためにプレーヤに入力を要求する種々の処理を実行する。
パーソナリティ判定に係わる処理では、公知の性格診断テストなどと同様に、プレーヤが複数の質問に答える必要がある。本実施形態ではプレイをガイドする仮想キャラクタを画面に登場させ、コンテンツ提示前に1つのパーソナリティ判定用の質問に答えるように質疑応答形式の処理が実行される。これによって、性格診断テストのようなものを受けているあからさまな印象をプレーヤに与えないようにして、プレーヤとコンテンツを提供する側との間の親密度が高まり易くし、ひいてはプレーヤに未然に心構えを生じさせることによる情動反応の誘発への悪影響を抑制するように考慮されている。
The player type determination unit 102 executes a question / answer process for personality determination that asks the player (user) to input an answer operation, and determines in advance based on the answer operation input made by the player for the current and past questions. Of the seven personality types, the personality type that matches the player is determined. Also, various processes for requesting input from the player are executed in order to acquire information related to the player attributes.
In the process related to the personality determination, the player needs to answer a plurality of questions as in the known personality diagnostic test. In this embodiment, a virtual character that guides play appears on the screen, and a question-and-answer process is executed so as to answer one question for personality determination before content presentation. This avoids giving the player an overwhelming impression of receiving a personality test, making it easier to increase the intimacy between the player and the content provider, and thus keeping the player in mind. It is considered to suppress the adverse effect on the induction of emotional reaction caused by causing.

コンテンツ選択部104は、予め用意されている複数のコンテンツの中から、プレーヤ類型判定部102による類型判定結果に応じて所望する情動反応(本実施形態では「泣くこと」)を誘発させるコンテンツを選択する。そして、本実施形態のコンテンツ選択部104は相関算出部106と閾値条件可変部108とを含む。   The content selection unit 104 selects content that induces a desired emotional reaction (in this embodiment, “crying”) according to the type determination result by the player type determination unit 102 from a plurality of contents prepared in advance. To do. The content selection unit 104 according to this embodiment includes a correlation calculation unit 106 and a threshold condition variable unit 108.

相関算出部106は、コンテンツ毎にプレーヤの泣きやすさに相当する相性値を算出する。コンテンツ選択部104は、相関算出部106で算出された相性値が所定の閾値条件を満たすコンテンツを抽出して母集団を形成し、その母集団の中から今回提示するコンテンツを選択する。   The correlation calculation unit 106 calculates a compatibility value corresponding to the ease of crying by the player for each content. The content selection unit 104 extracts content whose compatibility value calculated by the correlation calculation unit 106 satisfies a predetermined threshold value to form a population, and selects content to be presented this time from the population.

閾値条件可変部108は、今回条件可変部110と、次回条件可変部112と、反応結果反映部114とを含み、閾値条件をコンテンツの提示を受けたプレーヤの反応やコンテンツ提示前のプレーヤの心的・身体的状態に応じて閾値条件を可変する。   The threshold condition varying unit 108 includes a current condition varying unit 110, a next condition varying unit 112, and a reaction result reflecting unit 114. The threshold condition varies according to the reaction of the player who received the content presentation or the player's mind before the content presentation. The threshold condition is varied according to the physical and physical conditions.

今回条件可変部110は、コンテンツ提示前のプレーヤの心的・身体的状態に関する質問応答形式の処理を実行し、プレーヤの心身がポジティブな状態に該当すると判定される場合にはより多くのコンテンツの中から今回提示するコンテンツが選ばれるように閾値条件を変更する。反対にプレーヤの心身がネガティブな状態に該当すると判定される場合には、より相性の高いつまりより高い確率でユーザに所望の情動反応を誘発させるコンテンツを選択するように閾値条件を変更する。   This time, the condition variable unit 110 executes a question-and-answer process related to the mental and physical state of the player before the content presentation, and if it is determined that the player's mind and body are in a positive state, more content is stored. The threshold condition is changed so that the content to be presented this time is selected from the inside. On the other hand, when it is determined that the player's mind and body are in a negative state, the threshold condition is changed so as to select content that is more compatible, that is, has a higher probability to induce a desired emotional reaction to the user.

次回条件可変部112は、提示されたコンテンツに対するプレーヤの反応に応じて次回以降のコンテンツ選択に適用される閾値条件を可変する。
より具体的には、感想の操作入力を求める質疑応答形式の処理を実行する。そして、コンテンツの提示によって所望する情動反応が得られたと判断される場合には、今回所望する情動反応が得られているのでコンテンツとの相性がそれほど高くなくとも情動反応が得られやすくなっていると判断し、より多くのコンテンツの中からコンテンツが選択できるように閾値条件を変更する。反対に所望する情動反応が得られなかったと判断される場合には所望の情動反応が得られやすくするようにより相性の高いコンテンツの中から選択されるように閾値条件を変更する。また、同様に後述する情動反応分析部130によって、コンテンツ提示中に所望する情動反応が誘発されたと判断された場合には、同様に次回に適用される閾値条件を変更する。
The next condition varying unit 112 varies the threshold condition applied to the next and subsequent contents selection according to the player's response to the presented contents.
More specifically, a question-and-answer format process for requesting an impression operation input is executed. If it is determined that the desired emotional reaction has been obtained by presenting the content, the desired emotional response has been obtained this time, so that the emotional response can be easily obtained even if the compatibility with the content is not so high. And the threshold condition is changed so that the content can be selected from more content. On the other hand, if it is determined that the desired emotional response has not been obtained, the threshold condition is changed so that the content is selected from more compatible contents so that the desired emotional response is easily obtained. Similarly, when the emotion reaction analysis unit 130 described later determines that a desired emotion reaction has been induced during the content presentation, the threshold condition to be applied next time is similarly changed.

コンテンツ提示制御部120は、画像出力制御部122と、音出力制御部124とを備え、コンテンツの提示・出力に係る制御を実行する。
具体的には、画像出力制御部122は、例えばGPUなどの画像処理用マイクロプロセッサや、液晶ディスプレイなどの画像表示装置のドライバ回路、生成された画像の各ピクセルの色や輝度などの情報を一時的に記憶するICメモリなどによって実現される。そして画像表示装置210にコンテンツの映像やテキストを表示させるための画像の生成やトランジェント処理、画像合成処理やエフェクト処理を実行する。
音出力制御部124は、DSPや、音の高さやテンポを変更するフィルタ回路、アンプ回路などによって実現され、音出力装置220にコンテンツの音声を出力するための音声信号の生成、音声信号のフィルタ処理などを実行する。
The content presentation control unit 120 includes an image output control unit 122 and a sound output control unit 124, and executes control related to content presentation / output.
Specifically, the image output control unit 122 temporarily stores information such as an image processing microprocessor such as a GPU, a driver circuit of an image display device such as a liquid crystal display, and the color and brightness of each pixel of the generated image. It is realized by an IC memory or the like that stores it automatically. Then, image generation, transient processing, image composition processing, and effect processing for displaying video and text of content on the image display device 210 are executed.
The sound output control unit 124 is realized by a DSP, a filter circuit that changes the pitch and tempo of the sound, an amplifier circuit, and the like. The sound output control unit 124 generates a sound signal for outputting the sound of the content to the sound output device 220, and filters the sound signal. Execute processing.

進行制御部128は、プレーヤ類型判定部102による類型判定に係る処理と、コンテンツ選択部104によるコンテンツの選択に係る処理と、コンテンツ提示制御部120によるコンテンツ出力制御に係る処理とを一連に実行するように制御する。   The progress control unit 128 executes a series of processing related to type determination by the player type determination unit 102, processing related to content selection by the content selection unit 104, and processing related to content output control by the content presentation control unit 120. To control.

情動反応分析部130は、コンテンツ提示中にプレーヤが、所望する情動反応(=製作サイドが狙っていた情動反応。本実施形態では「泣くこと」。)を示したか否かを分析・判定する処理を実行する。具体的には、本実施形態ではスタイラスペン1416による第2液晶ディスプレイ1408へのタッチ、又は特定のプッシュボタンスイッチ1404の押下による進行操作入力がされている間、自動的に本のページをめくるように自動的にコンテンツの映像や音声が順次出力され、進行操作入力が途絶えるとコンテンツの提示が中断される。そこで、情動反応分析部130は、進行操作入力の断続時間長さを計時し、所定基準時間以上の断続が発生した場合に所望する情動反応が誘発され(具体的にはプレーヤが泣いていることによって)連続的な進行操作入力が中断されたと判断する。   The emotional response analysis unit 130 analyzes and determines whether or not the player has shown a desired emotional response (= the emotional reaction targeted by the production side. In this embodiment, “crying”) during content presentation. Execute. Specifically, in the present embodiment, the page of the book is automatically turned while a progress operation input is made by touching the second liquid crystal display 1408 with the stylus pen 1416 or pressing a specific push button switch 1404. The video and audio of the content are automatically output sequentially, and the presentation of the content is interrupted when the progress operation input is interrupted. Therefore, the emotional response analysis unit 130 measures the length of the intermittent operation input time, and a desired emotional response is induced when the intermittent operation exceeds a predetermined reference time (specifically, the player is crying) It is determined that the continuous operation input has been interrupted.

操作入力部200は、例えば、十字キーや、ボタンスイッチ、ジョイスティック、マウス、キーボード、タッチパネル、加速度センサ、傾斜センサなどによって実現され、ユーザによる各種操作を受けて操作入力信号を制御部100に出力する。本実施形態では、図1の方向入力キー1402、ボタンスイッチ1404、タッチパネル1407及び1409がこれに該当する。   The operation input unit 200 is realized by, for example, a cross key, a button switch, a joystick, a mouse, a keyboard, a touch panel, an acceleration sensor, a tilt sensor, and the like, and outputs an operation input signal to the control unit 100 in response to various operations by the user. . In this embodiment, the direction input key 1402, the button switch 1404, and the touch panels 1407 and 1409 in FIG.

位置・姿勢変化検出部202は、例えば3軸加速度センサやジャイロ、距離センサ、傾斜センサ、地磁気検出センサなどによって実現され、携帯ゲーム装置1400と外部環境との相対姿勢や相対位置の変化を検出し、検出信号を制御部100へ出力する。
音検出部204は、例えばマイクロフォンなどによって実現され、プレイ中のプレーヤの立てる音や外部環境音を検出し、検出信号を制御部100へ出力する。
The position / posture change detection unit 202 is realized by, for example, a three-axis acceleration sensor, a gyro, a distance sensor, a tilt sensor, a geomagnetic detection sensor, or the like, and detects a change in relative posture or relative position between the mobile game device 1400 and the external environment. The detection signal is output to the control unit 100.
The sound detection unit 204 is realized by, for example, a microphone, detects a sound made by a player during play and an external environmental sound, and outputs a detection signal to the control unit 100.

画像表示部210は、例えばLCDやELD、PDPと言ったフラットパネルディスプレイ、電子インクディスプレイ、CRTなどの画像表示装置、及びドライバ回路などによって実現され、制御部100で生成された画像を表示出力する。本実施形態では、図1の第1液晶ディスプレイ1406に該当する第1画像表示部212と、図1の第2液晶ディスプレイ1408に該当する第2画像表示部214とを備える。   The image display unit 210 is implemented by an image display device such as a flat panel display such as an LCD, ELD, or PDP, an electronic ink display, a CRT, and a driver circuit, and displays and outputs an image generated by the control unit 100. . In the present embodiment, a first image display unit 212 corresponding to the first liquid crystal display 1406 in FIG. 1 and a second image display unit 214 corresponding to the second liquid crystal display 1408 in FIG. 1 are provided.

音出力部220は、スピーカや骨伝導素子などによって実現され、制御部100で生成された音信号に従って放音や音伝導出力する。本実施形態では、図1のスピーカ1410がこれに該当する。   The sound output unit 220 is realized by a speaker, a bone conduction element, or the like, and emits sound or outputs sound according to the sound signal generated by the control unit 100. In the present embodiment, this corresponds to the speaker 1410 of FIG.

通信部230は、モデム、ターミナルアダプタ、光回路終端装置、無線通信機などによって実現され、有線或いは無線によってインターネットやLANなどの通信回線と接続して外部装置とデータ通信する。本実施形態では、図1の無線通信モジュール1412がこれに該当する。   The communication unit 230 is realized by a modem, a terminal adapter, an optical circuit termination device, a wireless communication device, and the like, and is connected to a communication line such as the Internet or a LAN by wire or wireless to perform data communication with an external device. In the present embodiment, this corresponds to the wireless communication module 1412 of FIG.

記憶部300は、ICメモリや磁気ディスクドライブ、光ディスクドライブなどコンピュータ読み出し可能な情報記憶媒体、その読み出し/書き込み装置などによって実現される。本実施形態では、図1の制御ユニット1450に実装されたROMなどのICメモリ並びにメモリカード1440がこれに該当する。
また、本実施形態では、記憶部300はシステムプログラム302とアプリケーションプログラム304を記憶している。制御部100がアプリケーションプログラム304を読み出して実行することによって、プレーヤ類型判定部102やコンテンツ選択部104、コンテンツ提示制御部120の一部機能、進行制御部128、情動反応分析部130の機能を実現できる。
The storage unit 300 is realized by a computer-readable information storage medium such as an IC memory, a magnetic disk drive, and an optical disk drive, and a read / write device thereof. In this embodiment, an IC memory such as a ROM and a memory card 1440 mounted on the control unit 1450 in FIG.
In the present embodiment, the storage unit 300 stores a system program 302 and an application program 304. The control unit 100 reads out and executes the application program 304, thereby realizing the functions of the player type determination unit 102, the content selection unit 104, the content presentation control unit 120, the progress control unit 128, and the emotion reaction analysis unit 130. it can.

また、記憶部300はプレーヤ毎の情報管理ファイルとしてユーザ登録データ310を記憶する。
図10は、ユーザ登録データ310のデータ構成例を示す図である。同図に示すように、ユーザ登録データ310は、ユーザ名312と、ユーザ属性情報314と、パーソナリティタイプ情報326と、次回適用相性値範囲334と、プレイ履歴情報336とを格納する。
ユーザ属性情報314は、プレーヤ属性に相当する情報、つまり登録ユーザの家族構成や所定事項の経験の有無等の現在及び/又は過去の事実関係に関する情報を格納する。本実施形態では、性別316、年齢318を含む。また、ペット飼育経験フラグ320、子供有無フラグ322、既婚フラグ324を含んでおり、それぞれペット飼育経験がある場合、子供を持った経験がある場合、結婚経験がある場合にそれぞれ「1」が格納されてフラグが立てられる。
The storage unit 300 stores user registration data 310 as an information management file for each player.
FIG. 10 is a diagram illustrating a data configuration example of the user registration data 310. As shown in the figure, the user registration data 310 stores a user name 312, user attribute information 314, personality type information 326, next applied compatibility value range 334, and play history information 336.
The user attribute information 314 stores information corresponding to player attributes, that is, information on the current and / or past factual relationship such as the registered user's family structure and the presence / absence of predetermined matters. In the present embodiment, sex 316 and age 318 are included. In addition, a pet breeding experience flag 320, a child presence / absence flag 322, and a married flag 324 are included, and “1” is stored when there is a pet breeding experience, an experience with children, and a marriage experience, respectively. And flagged.

パーソナリティタイプ情報326は、現在該当するパーソナリティ判定の決定木の分岐点位置を示す決定木分岐点番号328と、各パーソナリティタイプ330毎の適合度である確度332とを含む。
本実施形態では、1回のコンテンツ提示の前段階としてパーソナリティ判定テストの質問が少なくとも一つ質疑応答され、何度かの質疑応答を経ることで最終的なパーソナリティタイプが判定される。決定木分岐点番号328は、パーソナリティ判定過程の現在位置を記憶することになる。よって、パーソナリティタイプ330毎の確度332は、当該パーソナリティタイプである確率に相当し、最大値「1」〜最小値「0」の範囲の値が格納される。
The personality type information 326 includes a decision tree branch point number 328 indicating the branch point position of the decision tree of the currently applicable personality determination, and a probability 332 that is a degree of fitness for each personality type 330.
In the present embodiment, at least one question of the personality determination test is asked and answered as a pre-stage of one content presentation, and the final personality type is determined through several questions and answers. The decision tree branch point number 328 stores the current position of the personality determination process. Therefore, the accuracy 332 for each personality type 330 corresponds to the probability of the personality type, and stores a value in the range from the maximum value “1” to the minimum value “0”.

次回適用相性値範囲334は、コンテンツ選択の閾値条件を格納する。本実施形態では、初期設定値としてコンテンツ毎の相性値の最大から相性値の全幅の25%内を選択範囲とする範囲が設定され、コンテンツの提示を繰り返す毎に制御部100の閾値条件可変部108によって範囲の拡大/縮小がなされる。   The next applied compatibility value range 334 stores a threshold condition for content selection. In the present embodiment, a range in which the selection range is within 25% of the full width of the compatibility value from the maximum of the compatibility value for each content is set as the initial setting value, and the threshold condition variable unit of the control unit 100 is repeated each time the content is presented. The range is enlarged / reduced by 108.

プレイ履歴情報336は、総プレイ回数338とコンテンツ提示履歴340とを含んでいる。コンテンツ提示履歴340は、例えば図11に示すように、コンテンツを提示した提示日時341と、コンテンツの識別情報であるコンテンツ番号342と、コンテンツジャンル343と、コンテンツの感想情報344と、反応箇所情報345と、秘密ノート情報346とを対応づけて格納する。   The play history information 336 includes a total number of plays 338 and a content presentation history 340. For example, as shown in FIG. 11, the content presentation history 340 includes a presentation date and time 341 when content is presented, a content number 342 that is content identification information, a content genre 343, content feedback information 344, and reaction point information 345. And the secret note information 346 are stored in association with each other.

感想情報344は、コンテンツ提示後にユーザが選択した感想に係る情報を格納する。本実施形態では「泣く」情動反応を誘発するためにコンテンツを提示することを目的とするので「泣けた」〜「面白くない(つまり泣けない)」までを5段階評価で感想入力できるようになっている。
反応箇所情報345は、コンテンツを見たユーザが情動反応を示したと判断された箇所を特定する情報が格納される。本実施形態ではコンテンツは予め定められたタイムラインに従って映像・テキスト・音声が出力される形式であり、言わば自動ページめくり機能付電子ブック形式の如く提示される。よって、反応箇所情報345には例えばタイムライン上のタイムカウンタが格納される。その他、コンテンツのデータ形式や制御形式に応じてフレーム番号や、シーン番号などを格納する構成としても良い。
秘密ノート情報346は、プレーヤが任意に書き込める日記や備忘録に該当するテキスト情報を格納する。
The impression information 344 stores information related to the impression selected by the user after content presentation. In this embodiment, since the purpose is to present content in order to induce an emotional reaction of “crying”, it is possible to input impressions from “I could not cry” to “I am not funny (that is, I can't cry)” in a five-step evaluation. ing.
The reaction location information 345 stores information for identifying a location where it is determined that the user who has viewed the content has shown an emotional reaction. In this embodiment, the content is in a format in which video, text, and audio are output according to a predetermined timeline, and is presented as an electronic book format with an automatic page turning function. Therefore, for example, a time counter on the timeline is stored in the reaction location information 345. In addition, the frame number, the scene number, and the like may be stored in accordance with the content data format and control format.
The secret note information 346 stores text information corresponding to a diary or memorandum that can be arbitrarily written by the player.

図9において、記憶部300はまた、プレーヤ類型判定に係る情報として予めパーソナリティ判定用質問データ350と、ダミー質問データ356と、分岐条件TBL(テーブル)360とを記憶している。   In FIG. 9, the storage unit 300 also stores personality determination question data 350, dummy question data 356, and branch condition TBL (table) 360 in advance as information related to player type determination.

パーソナリティ判定用質問データ350は、パーソナリティ判定用の質問内容を格納する。具体的には、例えば図12に示すように、パーソナリティ判定用の決定木(図4参照)の分岐点番号を格納する決定木分岐点番号352と対応づけてその分岐点で出される質問の内容を定義する質問データ354を格納している。   The personality determination question data 350 stores the question content for personality determination. Specifically, for example, as shown in FIG. 12, the contents of the question issued at the branch point in association with the decision tree branch point number 352 storing the branch point number of the decision tree for personality determination (see FIG. 4) Is stored.

ダミー質問データ356は、例えば図13に示すように、パーソナリティ判定用質問データ350の質問に適当に紛れ込ませて質疑される質問を設定する。この質問は、目的とするパーソナリティ判定には何ら影響を及ぼさない内容が設定されており、パーソナリティ判定に係る質疑内容があからさまにならないように、また質問内容が覚えられてしまわないように多数設定されている。   For example, as shown in FIG. 13, the dummy question data 356 sets a question that is questioned by being appropriately mixed with the question of the personality determination question data 350. This question has contents that do not affect the intended personality determination, and many questions are set so that the questions related to personality determination are not overtrayed and the question contents are not remembered. ing.

分岐条件TBL(テーブル)360は、例えば図14に示すように、決定木分岐点番号362と対応づけて、分岐条件364と、当該分岐条件を満たす場合の分岐先番号366と、分岐先の分岐点における各パーソナリティタイプ別確度値368とが格納されている。つまり、分岐条件TBL360はパーソナリティ判定用決定木を定義しているとも言える。   For example, as shown in FIG. 14, the branch condition TBL (table) 360 is associated with the decision tree branch point number 362, the branch condition 364, the branch destination number 366 when the branch condition is satisfied, and the branch destination branch. Each personality type accuracy value 368 at the point is stored. That is, it can be said that the branch condition TBL360 defines a personality determination decision tree.

また図9において、記憶部300はコンテンツ選択に係る情報として予めコンテンツ基礎パラメータ値TBL370と、シナリオ重み付け係数TBL390と、アイテム重み付け係数TBL400と、コンテンツデータ410とを記憶している。また、実際にコンテンツ選択に係る処理を実行する際には、コンテンツ選択部104がコンテンツ相性値算出TBL440を生成しながら選択を行う。   In FIG. 9, the storage unit 300 stores a content basic parameter value TBL370, a scenario weighting factor TBL390, an item weighting factor TBL400, and content data 410 as information related to content selection. Further, when the processing related to content selection is actually executed, the content selection unit 104 performs selection while generating the content compatibility value calculation TBL 440.

コンテンツ基礎パラメータ値TBL370は、例えば図15に示すように、コンテンツの識別情報であるコンテンツ番号372と対応付けて、属性フラグ374と、シナリオ分類376と、アイテム分類378と、作品レベル380と、コンテンツジャンル382と、所要時間383とを格納する。
属性フラグ374は、対応するコンテンツの内容がプレーヤ属性(ユーザ属性)と同じ観点から見て分類された結果がフラグで示されている。本実施形態ではコンテンツの内容が結婚に関する話である場合には結婚フラグに「1」が格納されフラグが立てられる。同様に、コンテンツに子供に関する話である場合には子供フラグに「1」が格納され、ペットに関する話である場合にはペットフラグに「1」が格納されている。
作品レベル380は、対応するコンテンツの一つの作品としての出来不出来を示す値を格納する。作品レベル380は予めコンテンツの評価に慣れた部外者(例えば評論家など)によって決定される。
For example, as shown in FIG. 15, the content basic parameter value TBL 370 is associated with a content number 372 that is content identification information, an attribute flag 374, a scenario classification 376, an item classification 378, a work level 380, a content The genre 382 and the required time 383 are stored.
The attribute flag 374 indicates the result of classification of the corresponding content from the same viewpoint as the player attribute (user attribute). In this embodiment, when the content is a story about marriage, “1” is stored in the marriage flag and the flag is set. Similarly, “1” is stored in the child flag when the content is a story about a child, and “1” is stored in the pet flag when the content is a story about a pet.
The work level 380 stores a value indicating whether or not the corresponding content is one work. The work level 380 is determined in advance by an outsider (for example, a critic) who has become accustomed to content evaluation.

シナリオ重み付け係数TBL390は、パーソナリティタイプとシナリオ分類との間で所望する情動反応(本実施形態では「泣く」と言う反応)を誘発する相性を示す係数を格納する。
例えば図16に示すように、適用条件392毎に一つのテーブルデータが形成される。記憶部300には、異なる適用条件392毎に複数のシナリオ重み付け係数TBL390が記憶されている。そして、一のシナリオ重み付け係数TBL390は、パーソナリティタイプ394毎にシナリオ分類396との対応関係で相性の度合いを示す値を最大「1」〜最小「0」の間で格納する。例えば同図の例では、パーソナリティタイプ394「PS2」に対応するシナリオ分類396「SC3」の値が「1.0」に設定され、「SC1」及び「SC2」は「0.5」に設定されている。従って、「SC3」のシナリオ分類が設定されたコンテンツは、適用条件392に合致するプレーヤに対して、「SC1」「SC2」よりもより所望する情動反応を誘発させ易い傾向にあることになる。
The scenario weighting coefficient TBL 390 stores a coefficient indicating compatibility that induces a desired emotional reaction (a reaction of “crying” in the present embodiment) between the personality type and the scenario classification.
For example, as shown in FIG. 16, one table data is formed for each application condition 392. The storage unit 300 stores a plurality of scenario weighting factors TBL 390 for different application conditions 392. Then, one scenario weighting coefficient TBL 390 stores a value indicating the degree of compatibility between the maximum “1” and the minimum “0” for each personality type 394 in correspondence with the scenario classification 396. For example, in the example of the figure, the value of the scenario classification 396 “SC3” corresponding to the personality type 394 “PS2” is set to “1.0”, and “SC1” and “SC2” are set to “0.5”. ing. Therefore, the content in which the scenario classification “SC3” is set tends to induce a desired emotional reaction more easily than the players “SC1” and “SC2” that match the application condition 392.

同様に、アイテム重み付け係数TBL400は、パーソナリティタイプとアイテム分類との間で所望する情動反応を誘発する相性を示す係数を格納する。
例えば図17に示すように、適用条件402毎に一つのテーブルデータが形成される。記憶部300には、異なる適用条件402毎に複数のアイテム重み付け係数TBL400が記憶されている。そして、一のアイテム重み付け係数TBL400は、パーソナリティタイプ404毎にアイテム分類406との対応関係で相性の度合いを示す値を最大「1」〜最小「0」の間で格納する。
Similarly, the item weighting coefficient TBL400 stores a coefficient indicating compatibility that induces a desired emotional reaction between the personality type and the item classification.
For example, as shown in FIG. 17, one table data is formed for each application condition 402. The storage unit 300 stores a plurality of item weighting factors TBL400 for different application conditions 402. Then, one item weighting coefficient TBL400 stores a value indicating the degree of compatibility in correspondence with the item classification 406 for each personality type 404 between a maximum “1” and a minimum “0”.

コンテンツデータ410は、コンテンツ毎に予め用意されその内容を定義する。
例えば図18は、コンテンツデータ410のデータ構成例を示す図である。同図に示すように、コンテンツデータ410は、コンテンツの識別情報に相当するコンテンツ番号412と、コンテンツジャンル414と、シーケンスデータ416と、表示データライブラリ426と、音声データライブラリ428とを含む。
The content data 410 is prepared in advance for each content and defines its contents.
For example, FIG. 18 is a diagram illustrating a data configuration example of the content data 410. As shown in the figure, the content data 410 includes a content number 412 corresponding to content identification information, a content genre 414, sequence data 416, a display data library 426, and an audio data library 428.

シーケンスデータ416は、コンテンツの内容をどのような順番でどのように出力するかを定義したデータである。本実施形態ではプレーヤが所定の進行操作入力をしている間、自動的に本のページをめくるようにしてコンテンツが自動的に先に進む構成となっている。よって、シーケンスデータ416には、提示開始からのタイムカウンタ又はフレーム番号など時間経過が示されるタイムライン418と、このタイムラインに対応づけて表示データID420と、当該表示画像の表示先422と、音声データID424とが格納されている。同図の例では、最初にファイル名「PICT_001」の画像が、第1ディスプレイ、つまり第1液晶ディスプレイ1406に表示され、同時にファイル名「BGM_001」がスピーカ1410から出力されるように設定されている。そして、開始後所定時間になると第2液晶ディスプレイ1408に「TEXT_001」が表示され・・・と言った具合にコンテンツが提示されてゆく。   The sequence data 416 is data defining how and in what order the contents are output. In the present embodiment, while the player inputs a predetermined progress operation, the content is automatically advanced by automatically turning the book page. Therefore, the sequence data 416 includes a time line 418 indicating the passage of time such as a time counter or a frame number from the start of presentation, a display data ID 420 associated with the time line, a display destination 422 of the display image, a voice Data ID 424 is stored. In the example shown in the figure, an image with a file name “PICT — 001” is initially displayed on the first display, that is, the first liquid crystal display 1406, and at the same time, the file name “BGM — 001” is set to be output from the speaker 1410. . Then, at a predetermined time after the start, “TEXT — 001” is displayed on the second liquid crystal display 1408... And the content is presented.

表示データID420に設定される内容は、表示データライブラリ426に格納されている。例えば、図19に示すような画像その物でも良いし、図20に示すようにテキスト表示用のテキストデータであっても良い。或いは、表示する画像を3DCG(3次元コンピュータグラフィックス)で生成する場合にはオブジェクトデータや光源、仮想カメラの設定情報などとしても良い。
同様に、音声データID424に設定される内容は、音声データライブラリ428に格納されている。
The contents set in the display data ID 420 are stored in the display data library 426. For example, the image itself as shown in FIG. 19 may be used, or text data for text display may be used as shown in FIG. Alternatively, when an image to be displayed is generated by 3DCG (three-dimensional computer graphics), object data, a light source, virtual camera setting information, or the like may be used.
Similarly, the contents set in the audio data ID 424 are stored in the audio data library 428.

コンテンツ相性値算出TBL440は、コンテンツ選択に際して、各コンテンツの提示によってプレーヤに対して所望する情動反応を誘発する度合いつまり相性値を算出するために利用される一時データ格納用のテーブルである。
例えば、図21に示すように、コンテンツ番号442に対応づけて、属性合致度444と、パーソナリティタイプ別基礎ストレスレベル446と、ストレスレベル448と、作品レベル450と、属性合致度指数452と、ストレスレベル指数454と、作品レベル指数456と、相性値458とを格納する。
The content compatibility value calculation TBL 440 is a temporary data storage table used for calculating a degree of inducing a desired emotional reaction to the player by the presentation of each content, that is, a compatibility value.
For example, as shown in FIG. 21, in correspondence with the content number 442, the attribute match degree 444, the personality type basic stress level 446, the stress level 448, the work level 450, the attribute match degree index 452, and the stress A level index 454, a work level index 456, and a compatibility value 458 are stored.

属性合致度444は、ユーザ属性の各項目とコンテンツの属性とのマッチ度を格納する。具体的には、図22の式で求められ、ユーザ登録情報310のユーザ属性情報314に格納されているプレーヤの属性に適合するほど高い値が算出・設定される。   The attribute matching degree 444 stores the matching degree between each item of the user attribute and the content attribute. Specifically, a value that is high enough to match the player attribute stored in the user attribute information 314 of the user registration information 310 is calculated and set by the equation of FIG.

パーソナリティタイプ別基礎ストレスレベル446は、対応するコンテンツ毎のパーソナリティタイプに対して所望の情動反応を誘発する度合い・基礎的な相性を示す値を格納する。
具体的には、各コンテンツについてコンテンツ基礎パラメータ値TBL370を参照して当該コンテンツに設定されているシナリオ分類376とアイテム分類378を取得する。そして、現時点に於けるユーザ登録データ310のユーザ属性情報314が適用条件に適合するシナリオ重み付け係数TBL390及びアイテム重み付け係数TBL400を参照して、全てのパーソナリティタイプ毎に当該コンテンツのシナリオ分類376に対応するコンテンツ重み付け係数Wsと、当該コンテンツのアイテム分類378に対応するアイテム重み付け係数Wiの積を算出し、これを当該コンテンツとパーソナリティタイプとの組み合わせに適用される基礎ストレスレベルとする。つまり、情動反応というストレスが誘発され得る予測の程度と言える。
The basic stress level 446 for each personality type stores a value indicating the degree and basic compatibility that induces a desired emotional response to the corresponding personality type for each content.
Specifically, the scenario classification 376 and the item classification 378 set for the content are acquired with reference to the content basic parameter value TBL370 for each content. Then, by referring to the scenario weighting coefficient TBL390 and the item weighting coefficient TBL400 that the user attribute information 314 of the user registration data 310 at the present time matches with the application condition, it corresponds to the scenario classification 376 of the content for every personality type. The product of the content weighting coefficient Ws and the item weighting coefficient Wi corresponding to the item classification 378 of the content is calculated, and this is set as the basic stress level applied to the combination of the content and the personality type. In other words, it can be said that it is the degree of prediction that can induce stress called emotional reaction.

ストレスレベル448は、現時点に於けるプレーヤのパーソナリティタイプの確度分布に応じてパーソナリティタイプ別基礎ストレスレベル446を重み付けした値を格納する。
作品レベル450は、コンテンツ基礎パラメータ値TBL370の作品レベル380で設定されている値を格納する。
属性合致度指数452は、属性合致度444を最大値「1」最小値「−1」平均値「0」となるように標準化して得られる値を格納する。同様に、ストレスレベル指数454はストレスレベル448の標準化によって得られる値、作品レベル指数456は作品レベル450の標準化によって得られる値を格納する。
そして、相性値458は、これら属性合致度指数452とストレスレベル指数454と作品レベル指数456との合計値を格納する。
The stress level 448 stores a value obtained by weighting the personality type basic stress level 446 according to the accuracy distribution of the personality type of the player at the present time.
The work level 450 stores the value set in the work level 380 of the content basic parameter value TBL370.
The attribute match degree index 452 stores a value obtained by standardizing the attribute match degree 444 so that the maximum value is “1”, the minimum value is “−1”, and the average value is “0”. Similarly, the stress level index 454 stores a value obtained by standardization of the stress level 448, and the work level index 456 stores a value obtained by standardization of the work level 450.
The compatibility value 458 stores the total value of the attribute match degree index 452, the stress level index 454, and the work level index 456.

図9において、本実施形態の記憶部300は、その他にプレイガイド表示用データ460と、今回適用相性値範囲462と、コンテンツ再選択回数464と、次回適用相性値変更回数466と、進行操作時間間隔カウンタ468などを随時記憶する。   In FIG. 9, the storage unit 300 of the present embodiment additionally includes play guide display data 460, current application compatibility value range 462, content reselection count 464, next application compatibility value change count 466, and progress operation time. An interval counter 468 and the like are stored as needed.

プレイガイド表示用データ460は、プレイガイドを画像表示部210で表示させるための各種データを格納している。本実施形態では、「泣ける」コンテンツを提供する“バー”にユーザが訪れると言う設定でプレイするものとし、プレイガイド役としてバーテンのキャラクタを表示する。よって、プレイガイド表示用データ460には、バーテンキャラクタの表示用データ、バーテンキャラクタの会話用のテキストや音声データ、背景画像データなどが格納されている。   The play guide display data 460 stores various data for displaying the play guide on the image display unit 210. In this embodiment, it is assumed that the user plays with the setting that the user visits a “bar” that provides “crying” content, and a bartender character is displayed as a play guide role. Therefore, the play guide display data 460 stores bartender character display data, bartender character conversation text and voice data, background image data, and the like.

今回適用相性値範囲462は、今回のコンテンツ選択に適用される閾値条件を格納する。
コンテンツ再選択回数464は、コンテンツ選択処理時に選択の禁則に該当してコンテンツの再選択を行った回数を格納する。当該回数を所定の基準値と比較することによって禁則に触れない他のコンテンツを選択できない状態に陥り、処理が無限ループすることを回避するのに用いられる。
The current application compatibility value range 462 stores threshold conditions applied to the current content selection.
The content reselection count 464 stores the number of times the content has been reselected in accordance with the selection prohibition during the content selection process. By comparing the number of times with a predetermined reference value, other contents that do not touch the prohibition can not be selected, and this is used to avoid an infinite loop of processing.

次回適用相性値範囲変更回数466は、閾値条件可変部108によって次回のコンテンツ選択時に適用される閾値条件が変更された回数を格納する。当該回数を所定基準値と比較することによって当該閾値条件の変更に制限をかけるのに用いられる。
進行操作時間間隔カウンタ468は、プレーヤによるコンテンツ提示の進行操作入力の入力時間から情動反応の有無や程度を予測するための計時カウント値を格納する。本実施形態では、所定のプッシュボタン1404を押し続ける、又はスタイラスペン1416で第2液晶ディスプレイ1408をタッチし続けると自動的にコンテンツ提示を進行する構成であるので、進行操作時間間隔カウンタ468はプッシュボタン1404又はスタイラスペン1416によるタッチ操作によるコンテンツ提示の進行操作入力が途絶したタイミングでリセットした後、カウントアップがスタートされ、再び進行操作入力が検知されるとカウントが停められる。
The next applied compatibility value range change count 466 stores the number of times the threshold value condition applied at the next content selection by the threshold value condition changing unit 108 is changed. It is used to limit the change of the threshold condition by comparing the number of times with a predetermined reference value.
The progress operation time interval counter 468 stores a time count value for predicting the presence / absence and extent of emotional reaction from the input time of the progress operation input for content presentation by the player. In the present embodiment, since the content presentation is automatically advanced when the predetermined push button 1404 is continuously pressed or the second liquid crystal display 1408 is continuously touched with the stylus pen 1416, the progress operation time interval counter 468 is pushed. After the progress operation input for content presentation by the touch operation with the button 1404 or the stylus pen 1416 is reset at a timing, the count-up is started, and the count is stopped when the progress operation input is detected again.

[処理の流れの説明]
次に、本実施形態における処理の流れについて説明する。
図23は、本実施形態における主たる処理の流れを説明するためのフローチャートである。同図に示すように、制御部100は先ずユーザの新規登録又は登録済みユーザのエントリーを要求する画面を表示する(ステップS2)。例えば図34(a)に示すように、第1液晶ディスプレイ1406に表示する画面W1では、新規登録選択用のボタン表示10と、登録済みユーザのユーザ名を入力する入力欄12を表示する。
[Description of process flow]
Next, the flow of processing in this embodiment will be described.
FIG. 23 is a flowchart for explaining the main processing flow in the present embodiment. As shown in the figure, the control unit 100 first displays a screen for requesting new registration of a user or entry of a registered user (step S2). For example, as shown in FIG. 34A, on the screen W1 displayed on the first liquid crystal display 1406, a button display 10 for selecting a new registration and an input field 12 for inputting the user name of a registered user are displayed.

ボタン表示10がタッチされて新規登録が選択された場合(ステップS4のYES)、制御部100はユーザ登録に係る第1質疑応答処理を実行する(ステップS6)。   When the button display 10 is touched and new registration is selected (YES in Step S4), the control unit 100 executes a first question and answer process related to user registration (Step S6).

図24は、本実施形態における第1質疑応答処理の流れを説明するためのフローチャートである。第1質疑応答処理では先ず、制御部100は新規のユーザ登録データ310を生成する(ステップS50)。次いで、ユーザ名・性別・年齢の入力画面を表示する(ステップS52)。例えば、図34(a)の入力画面W2のように、第2液晶ディスプレイ1408に名前入力欄14と、性別選択用プルダウンメニュー16と、年齢選択用プルダウンメニュー18とを表示する。名前入力欄14をタッチした場合には、画面内に仮想キーボードを表示し、スタイラスペン1416によるタッチ位置に応じてテキストを入力する所謂ソフトウェアキーボードによる入力を実行する。
そして、制御部100は入力画面W2で入力されたユーザ名・性別・年齢を先に生成したユーザ登録データ310に格納する(ステップS54)。
FIG. 24 is a flowchart for explaining the flow of the first question-and-answer process in the present embodiment. In the first question and answer process, first, the control unit 100 generates new user registration data 310 (step S50). Next, a user name / gender / age input screen is displayed (step S52). For example, as in the input screen W2 of FIG. 34A, the name input field 14, the gender selection pull-down menu 16, and the age selection pull-down menu 18 are displayed on the second liquid crystal display 1408. When the name input field 14 is touched, a virtual keyboard is displayed on the screen, and input is performed using a so-called software keyboard that inputs text according to the touch position with the stylus pen 1416.
Then, the control unit 100 stores the user name, sex, and age input on the input screen W2 in the user registration data 310 generated previously (step S54).

次に制御部100は、プレイガイド表示用データ460を参照して、プレイガイド役のバーテンキャラクタ及び入力画面を表示し、質疑応答形式でユーザ属性に関する情報の入力を促す(ステップS56)。例えば、図34(b)の画面W3のように、バーカウンターの向こうからバーテンキャラクタBTが話しかけているかのような画面を第1液晶ディスプレイ1406に表示するとともに、入力画面W4のように第2液晶ディスプレイ1408にバーテンキャラクタBTの台詞20と、ユーザ属性にかかる質問22及びその回答を入力するプルダウンメニュー24を表示する。
そして、制御部100は入力画面W4で入力された結果をユーザ登録データ310のユーザ属性情報314に格納し、パーソナリティタイプ情報326を初期化する(ステップS58)。パーソナリティタイプ情報326の初期化では、決定木分岐番号328に「DV1」を格納し、各パーソナリティタイプ330の確度332を全て所定値、例えば「0.143」に設定する。そして、第1質疑応答処理を終了する。
Next, the control unit 100 refers to the play guide display data 460 to display the play guide role bartender character and the input screen, and prompts the user to input information on the user attribute in a question and answer format (step S56). For example, a screen as if the bartender character BT is speaking from the other side of the bar counter as shown in the screen W3 in FIG. 34B is displayed on the first liquid crystal display 1406, and the second liquid crystal is displayed as in the input screen W4. The display 1408 displays a line 20 of the bartender character BT, a question 22 concerning the user attribute, and a pull-down menu 24 for inputting the answer.
Then, the control unit 100 stores the result input on the input screen W4 in the user attribute information 314 of the user registration data 310, and initializes the personality type information 326 (step S58). In the initialization of the personality type information 326, “DV1” is stored in the decision tree branch number 328, and the accuracy 332 of each personality type 330 is set to a predetermined value, for example, “0.143”. Then, the first question and answer process is terminated.

図23のフローチャートに戻って、制御部100はプレイガイド役のバーテンキャラクタを画面表示して(ステップS10)、第2質疑応答処理を実行する(ステップS12)。   Returning to the flowchart of FIG. 23, the control unit 100 displays a bartender character serving as a play guide on the screen (step S10), and executes a second question-and-answer process (step S12).

図25は、本実施形態における第2質疑応答処理の流れを説明するためのフローチャートである。第2質疑応答処理では先ず、制御部100は新規登録されたユーザ又は入力画面W2で登録済みのユーザ名を入力してエントリーしたプレーヤのユーザ登録データ310を読み出して、パーソナリティタイプ情報326を参照する(ステップS60)。そして、何れかのパーソナリティタイプの確度332が基準値(例えば、「0.9」)以上で在るか否かつまりパーソナリティタイプの診断結果がほぼ確実であるか否かを判定する(ステップS62)。
何れかの確度値332が基準値未満の場合(ステップS62のNO)、制御部100はパーソナリティ判定用の正規の質問をするかダミー質問をするかを、例えば乱数を発生させ、その乱数が所定の基準を満たすか否かを判定するなどしてランダムに決定する(ステップS64)。
FIG. 25 is a flowchart for explaining the flow of the second question-and-answer process in the present embodiment. In the second question-and-answer process, first, the control unit 100 reads the user registration data 310 of the newly registered user or the entered player by inputting the registered user name on the input screen W2, and refers to the personality type information 326. (Step S60). Then, it is determined whether or not the accuracy 332 of any personality type is greater than or equal to a reference value (for example, “0.9”), that is, whether or not the personality type diagnosis result is almost certain (step S62). .
If any one of the accuracy values 332 is less than the reference value (NO in step S62), the control unit 100 generates a random number, for example, whether to ask a regular question for personality determination or a dummy question, and the random number is predetermined. It is determined at random by determining whether or not the above criteria are satisfied (step S64).

その結果、ダミー質問を採用しないと決定した場合には(ステップS66のNO)、
パーソナリティ判定用質問データ350を参照し、現在の決定木分岐番号328に対応する質問データ354を抽出して(ステップS68)、バーテンキャラクタが抽出した質問をするように画面表示制御する(ステップS70)。例えば、図34(c)のように、第1液晶ディスプレイ1406にはバーテンキャラクタBTの画像W5を表示し、第2液晶ディスプレイ1408にはバーテンの台詞26と、パーソナリティ判定用の質問28と、質問への応答入力部29とを表示する画面W6を表示する。本実施形態では、パーソナリティ判定用の質問へは合致度を5段階で答える形式をとる。よって、応答入力部29では同図のように5段階の入力位置を表示し、スタイラスペン1416によるタッチ位置から入力結果を判定する。
As a result, when it is decided not to adopt the dummy question (NO in step S66),
With reference to the personality determination question data 350, the question data 354 corresponding to the current decision tree branch number 328 is extracted (step S68), and the screen display control is performed so as to ask the question extracted by the bartender character (step S70). . For example, as shown in FIG. 34 (c), the first liquid crystal display 1406 displays the image W5 of the bartender character BT, and the second liquid crystal display 1408 displays the bartender dialogue 26, the personality determination question 28, the question A screen W6 for displaying the response input unit 29 is displayed. In the present embodiment, the question for personality determination takes a form in which the degree of match is answered in five stages. Therefore, the response input unit 29 displays five levels of input positions as shown in the figure, and determines the input result from the touch position by the stylus pen 1416.

次に制御部100は、分岐条件TBL360の現在のユーザ登録データ310の決定木分岐点番号328に格納されている分岐点番号に対応する分岐条件364を参照して、画面W6で入力された質問への回答入力に応じて、分岐先番号366、パーソナリティタイプ別確度値368を読み出す(ステップS72)。そして、ユーザ登録データ310の決定木分岐点番号328を、読み出した分岐先番号366の設定に変更し、各パーソナリティタイプの確度332を、読み出したパーソナリティタイプ別確度値368の値に変更し(ステップS74)、第2質疑応答処理を終了する。   Next, the control unit 100 refers to the branch condition 364 corresponding to the branch point number stored in the decision tree branch point number 328 of the current user registration data 310 of the branch condition TBL 360, and the question input on the screen W6 The branch destination number 366 and the personality type-specific accuracy value 368 are read in response to the answer input to (Step S72). Then, the decision tree branch point number 328 of the user registration data 310 is changed to the setting of the read branch destination number 366, and the accuracy 332 of each personality type is changed to the read personality type-specific accuracy value 368 (step) S74), the second question and answer process is terminated.

一方、ステップS62において、確度332の何れかの値が基準値以上に達している場合(ステップS62のYES)、及びステップS64のランダム決定処理においてダミー質問を採用すると決定した場合(ステップS66のYES)、制御部100はダミー質問データ356を参照して、何れか一つの質問をランダムに選択して(ステップS76)、ステップS70と同様に選択したダミー質問をバーテンキャラクタがユーザに質問するように画面表示制御する(ステップS78)。ダミー質問は、パーソナリティ判定に何ら影響を及ぼさない内容に設定されているので、回答の入力結果如何に係わらず、パーソナリティタイプ情報326の変更は行わずに、そのまま第2質疑応答処理を終了する。   On the other hand, if any value of the accuracy 332 has reached or exceeded the reference value in step S62 (YES in step S62), and if it is determined to adopt a dummy question in the random determination process in step S64 (YES in step S66) ), The control unit 100 refers to the dummy question data 356 and randomly selects any one question (step S76) so that the bartender character asks the user the selected dummy question in the same manner as in step S70. The screen display is controlled (step S78). Since the dummy question is set to a content that does not affect the personality determination, the second question and answer process is terminated without changing the personality type information 326 regardless of the input result of the answer.

図23のフローチャートに戻って、制御部100は次にコンテンツ選択処理を実行する(ステップS14)。
図26は、本実施形態におけるコンテンツ選択処理の流れを説明するためのフローチャートである。コンテンツ選択処理では、制御部100は先ずコンテンツ基礎パラメータ値TBL370を参照して(ステップS90)、各コンテンツについて図22の算出式に従って属性合致度の値を算出し、コンテンツ相性値算出TBL440の属性合致度444に格納する(ステップS92)。
Returning to the flowchart of FIG. 23, the control unit 100 next executes content selection processing (step S14).
FIG. 26 is a flowchart for explaining the flow of content selection processing in the present embodiment. In the content selection process, the control unit 100 first refers to the content basic parameter value TBL370 (step S90), calculates the value of attribute matching degree according to the calculation formula of FIG. 22 for each content, and matches the attribute match of the content compatibility value calculation TBL440. It stores in degree 444 (step S92).

次に、制御部100は基礎ストレスレベル算出処理を実行する(ステップS94)。
図27は、本実施形態における基礎ストレスレベル算出処理の流れを説明するためのフローチャートである。基礎ストレスレベル算出処理は、プレーヤの性別や年齢に基づいて、同じような事実類型を持つ人が各コンテンツに対して示す情動反応の程度の予測基準値を求める処理である。
基礎ストレスレベル算出処理では先ず、制御部100は記憶部300に予め記憶されている複数のシナリオ重み付け係数TBL390及びアイテム重み付け係数TBL400の中から、現在のユーザ属性情報314に登録されている属性が適用条件392,402に該当するシナリオ重み付け係数TBL390及びアイテム重み付け係数TBL400を選択する(ステップS130)。そして、全コンテンツについてループAの処理を実行する(ステップS132〜S146)。
Next, the control part 100 performs a basic stress level calculation process (step S94).
FIG. 27 is a flowchart for explaining the flow of basic stress level calculation processing in the present embodiment. The basic stress level calculation process is a process for obtaining a prediction reference value of the degree of emotional reaction shown to each content by a person having a similar fact type based on the gender and age of the player.
In the basic stress level calculation process, first, the control unit 100 applies an attribute registered in the current user attribute information 314 from a plurality of scenario weighting factors TBL390 and item weighting factors TBL400 stored in the storage unit 300 in advance. The scenario weighting coefficient TBL390 and item weighting coefficient TBL400 corresponding to the conditions 392 and 402 are selected (step S130). Then, the process of loop A is executed for all contents (steps S132 to S146).

ループAの処理では、制御部100はコンテンツ基礎パラメータ値TBL370から処理対象のコンテンツのシナリオ分類376及びアイテム分類378を読み出す(ステップS134)。そして、全パーソナリティタイプについてループBの処理を実行する(ステップSS136〜S144)。
ループBでは、ステップS130で選択したシナリオ重み付け係数TBL390を参照して、処理対象のパーソナリティタイプに対応するステップS134で読み出したシナリオ分類に設定された係数Wsを読み出し(ステップS138)、ステップS130で選択したアイテム重み付け係数TBL400を参照して、処理対象のパーソナリティタイプに対応するステップS134で読み出したアイテム分類に設定された係数Wiを読み出す(ステップS140)。そして、読み出した係数Wsと係数Wiとの積を算出し、これを処理対象コンテンツに対する処理対象パーソナリティタイプの人が所望する情動反応を示す相性の基礎値、すなわち基礎ストレスレベルとして、コンテンツ相性値算出TBL440のパーソナリティタイプ別基礎ストレスレベル446の該当記憶領域に格納する(ステップS142)。
全パーソナリティタイプについてループBを実行すると、処理対象コンテンツのパーソナリティタイプ別基礎ストレスレベル446が求まったことになるので、次のコンテンツを処理対象としてループAの処理を実行し、基礎ストレスレベル算出処理を終了する。
In the process of loop A, the control unit 100 reads the scenario classification 376 and the item classification 378 of the content to be processed from the content basic parameter value TBL 370 (step S134). Then, the process of loop B is executed for all personality types (steps SS136 to S144).
In loop B, referring to the scenario weighting coefficient TBL390 selected in step S130, the coefficient Ws set in the scenario classification read in step S134 corresponding to the personality type to be processed is read (step S138), and selected in step S130. With reference to the item weighting coefficient TBL400, the coefficient Wi set in the item classification read in step S134 corresponding to the personality type to be processed is read (step S140). Then, the product of the read coefficient Ws and the coefficient Wi is calculated, and the content compatibility value is calculated as the basic value of compatibility indicating the emotional reaction desired by the person of the processing target personality type with respect to the processing target content, that is, the basic stress level. It is stored in the corresponding storage area of the basic stress level 446 by personality type of TBL 440 (step S142).
When loop B is executed for all personality types, the basic stress level 446 for each personality type of the content to be processed is obtained, so the processing of loop A is executed for the next content as the processing target, and the basic stress level calculation processing is performed. finish.

図26のフローチャートに戻って、制御部100は次にストレスレベル算出処理を実行する(ステップS96)。ストレスレベル算出処理は、先に算出した基礎ストレスレベルに基づいて、現時点におけるプレーヤのパーソナリティタイプの確からしさ(適合度)に基づいて各コンテンツに対する所望する情動反応を誘発する見込み値を求める処理である。   Returning to the flowchart of FIG. 26, the control unit 100 next executes a stress level calculation process (step S96). The stress level calculation process is a process for obtaining a probable value for inducing a desired emotional response to each content based on the certainty (fitness) of the player's personality type at the current time based on the previously calculated basic stress level. .

図28は、本実施形態におけるストレスレベル算出処理の流れを説明するためのフローチャートである。ストレスレベル算出処理では、制御部100は全コンテンツについてループCの処理を実行する(ステップS160〜S172)。
ループCではユーザ登録データ310のパーソナリティタイプ情報326を参照して、何れかのパーソナリティタイプの確度332が、パーソナリティ判定が確定したと判断できる所定の基準値以上であるか否かを判定する(ステップS162)。何れの確度332も基準値に満たない場合(ステップS162のNO)、制御部100はプレーヤ履歴情報336の総プレイ回数338を参照する。そして、総プレイ回数が「1」の場合(ステップS166の「1」)、制御部100はパーソナリティタイプ毎に現時点における確度332とコンテンツ相性値算出TBL440に処理対象コンテンツに対応づけて格納されているパーソナリティタイプ別基礎ストレスレベル446との積を求める。そして、コンテンツ毎に求めた積の平均値を算出し、これを処理対象コンテンツのストレスレベルとしてコンテンツ相性値算出TBL440のストレスレベル448に格納し(ステップS168)、処理対象コンテンツに対するループCの処理を終了する。
FIG. 28 is a flowchart for explaining the flow of the stress level calculation processing in the present embodiment. In the stress level calculation process, the control unit 100 executes the process of loop C for all contents (steps S160 to S172).
In loop C, the personality type information 326 of the user registration data 310 is referred to, and it is determined whether or not the accuracy 332 of any personality type is equal to or greater than a predetermined reference value with which it can be determined that the personality determination is confirmed (step). S162). When any accuracy 332 does not satisfy the reference value (NO in step S162), the control unit 100 refers to the total number of plays 338 in the player history information 336. If the total number of plays is “1” (“1” in step S166), the control unit 100 stores the current accuracy 332 and content compatibility value calculation TBL 440 in association with the processing target content for each personality type. The product with the basic stress level 446 by personality type is obtained. Then, the average value of the products obtained for each content is calculated, and this is stored in the stress level 448 of the content compatibility value calculation TBL 440 as the stress level of the processing target content (step S168), and the processing of the loop C for the processing target content is performed. finish.

総プレイ回数が2回以上の場合には(ステップS166の「2」以上)、制御部100はパーソナリティタイプ毎に現時点における確度332とコンテンツ相性値算出TBL440に処理対象コンテンツに対応づけて格納されているパーソナリティタイプ別基礎ストレスレベル446との積を求める。そして、コンテンツ毎に求めた積の和を算出し、これを処理対象コンテンツのストレスレベルとしてコンテンツ相性値算出TBL440のストレスレベル448に格納し(ステップS170)、処理対象コンテンツに対するループCの処理を終了する。   When the total number of plays is 2 or more (“2” or more in step S166), the control unit 100 stores the current accuracy 332 and content compatibility value calculation TBL 440 in association with the processing target content for each personality type. The product with the basic stress level 446 for each personality type. Then, the sum of the products obtained for each content is calculated, and this is stored in the stress level 448 of the content compatibility value calculation TBL 440 as the stress level of the processing target content (step S170), and the processing of the loop C for the processing target content is completed. To do.

一方、ステップS162において何れかの確度332が基準値に達している場合には(ステップS162のYES)、制御部100はコンテンツ相性値算出TBL440において処理対象コンテンツに対応づけて格納されているパーソナリティタイプ別基礎ストレスレベル446であって、確度332が基準値以上になっているパーソナリティタイプに対応するパーソナリティタイプ別基礎ストレスレベル446の値を、処理対象コンテンツのストレスレベルとしてコンテンツ相性値算出TBL440のストレスレベル448に格納し(ステップS164)、処理対象コンテンツに対するループCの処理を終了する。
そして、全てのコンテンツについてループCの処理を実行したならば、ストレスレベル算出処理を終了する。
On the other hand, if any accuracy 332 has reached the reference value in step S162 (YES in step S162), the control unit 100 stores the personality type stored in association with the processing target content in the content compatibility value calculation TBL440. The stress level of the content compatibility value calculation TBL 440 using the value of the basic stress level 446 by personality type corresponding to the personality type with the accuracy 332 equal to or higher than the reference value as the stress level of the processing target content. The process is stored in 448 (step S164), and the process of loop C for the processing target content is terminated.
If the process of loop C is executed for all the contents, the stress level calculation process is terminated.

図26のフローチャートに戻って、制御部100は次にコンテンツ相性値算出TBL440の現在の属性合致度444、ストレスレベル448、作品レベル450をそれぞれ標準化する(ステップS98)。ここで言う標準化とは、最大「1」最小「−1」平均「0」とする標準化である。標準化された値は、それぞれコンテンツ相性値算出TBL440の属性合致度指数452、ストレスレベル指数454、作品レベル指数456に格納される。   Returning to the flowchart of FIG. 26, the control unit 100 next standardizes the current attribute match degree 444, stress level 448, and work level 450 of the content compatibility value calculation TBL 440 (step S98). The standardization referred to here is standardization with maximum “1”, minimum “−1”, and average “0”. The standardized values are stored in the attribute matching index 452, the stress level index 454, and the work level index 456 of the content compatibility value calculation TBL440, respectively.

次に、制御部100は全てのコンテンツについて、属性合致度指数452とストレスレベル指数454と作品レベル指数456との合計を求め、合計値をそのコンテンツがユーザに所望の情動反応を誘発する期待値としてコンテンツ相性値算出TBL440の相性値458に格納する(ステップS100)。
そして、総プレイ回数338が「1」の場合(ステップS102のYES)、制御部100はコンテンツ相性値算出TBL440において相性値458が最大となるコンテンツを一つ選択して(ステップS104)、コンテンツ選択処理を終了する。一方、総プレイ回数338が「2」以上である場合には(ステップS104の「2」以上)、第3質疑応答処理を実行して(ステップS106)、コンテンツ選択処理を終了する。
Next, the control unit 100 obtains the sum of the attribute match index 452, the stress level index 454, and the work level index 456 for all the contents, and the total value is an expected value that induces a desired emotional reaction to the user. Is stored in the compatibility value 458 of the content compatibility value calculation TBL 440 (step S100).
When the total number of plays 338 is “1” (YES in step S102), the control unit 100 selects one content having the maximum compatibility value 458 in the content compatibility value calculation TBL440 (step S104), and selects the content. The process ends. On the other hand, when the total number of plays 338 is “2” or more (“2” or more in step S104), the third question and answer process is executed (step S106), and the content selection process is terminated.

第3質疑応答処理は、ユーザの現在の心身状態に関する質疑応答を実行して、心身状態に応じてコンテンツの選択基準を可変する処理である。
図29は、本実施形態における第3質疑応答処理の流れを説明するためのフローチャートである。同図に示すように、第3質疑応答処理では先ず、制御部100はバーテンキャラクタBTが今日の心身状態を尋ねる画面を表示制御するとともに(ステップS190)、心身状態を「ネガティブ(疲れている)=1」〜「ポジティブ(元気)=5」の間の5段階評価で回答入力する入力画面を表示制御する(ステップS192)。
例えば、図35(a)に示すように、第1液晶ディスプレイ1406に画面W7のようにお客に話しかけるバーテンキャラクタBTの画像を表示制御するとともに、第2液晶ディスプレイ1408に入力画面W8のように心身状態を尋ねる質問30と、心身状態をネガティブな状態からポジティブな状態まで5段階評価で入力する入力欄32を表示制御する。プレーヤは入力欄32で該当する位置をスタイラスペン1416によるタッチで入力する。
The third question-and-answer process is a process of executing a question-and-answer session related to the user's current psychosomatic state, and changing the content selection criteria according to the psychosomatic state.
FIG. 29 is a flowchart for explaining the flow of the third question-and-answer process in the present embodiment. As shown in the figure, in the third question-and-answer process, first, the control unit 100 controls the display of the screen where the bartender character BT asks about the current state of mind and body (step S190), and the state of mind and body is “negative (tired). = 1 ”to“ Positive (Energetic) = 5 ”The input screen for inputting answers in a five-step evaluation is controlled (step S192).
For example, as shown in FIG. 35A, the first liquid crystal display 1406 controls the display of the image of the bartender character BT that speaks to the customer as the screen W7, and the second liquid crystal display 1408 displays the mind and body as the input screen W8. Display control is performed for a question 30 for inquiring about a state and an input field 32 for inputting the mind and body state from a negative state to a positive state in a five-step evaluation. The player inputs the corresponding position in the input field 32 by touching with the stylus pen 1416.

次に制御部100は、ユーザ登録データ310の次回適用相性値範囲334を参照してこれを今回適用相性値範囲462に格納して今回適用相性値範囲を次回適用相性値範囲と同じくする(ステップS194)。
そして、心身状態への回答入力がネガティブと判断される場合には(ステップS196の「2」以下)、心身が疲れていて特に「泣く」と言った細やかな情動反応を起こし難い状態にあると判断して、今回適用相性値範囲462を所定幅小さく変更し、コンテンツ選択の閾値基準を厳しくする(ステップS198)。
反対に、回答入力がポジティブと判断される場合には(ステップS196の「4」以上)、心身に余裕があって物事を好意的にとらえることができると判断して、今回適用相性値範囲462を所定幅大きく変更し、コンテンツ選択の閾値条件を緩くする(ステップS200)。
心身状態を尋ねる質問への回答入力が特にネガティブでもポジティブでもない所謂普通レベルであると判断される場合には(ステップS196の「3」)、今回適用相性値範囲462は変更せずに次回適用相性値範囲334に格納されている設定をコピーしたままとする。
Next, the control unit 100 refers to the next applied compatibility value range 334 of the user registration data 310 and stores it in the current applied compatibility value range 462 so that the current applied compatibility value range is the same as the next applied compatibility value range (step S194).
If it is determined that the answer input to the psychosomatic state is negative (step S196: "2" and below), it is difficult to cause a detailed emotional reaction such as "crying" especially when the body and mind are tired. Judgment is made, the current compatibility value range 462 is changed by a predetermined width, and the threshold criteria for content selection are tightened (step S198).
On the other hand, if it is determined that the answer input is positive (“4” or more in step S196), it is determined that there is room in the mind and body so that things can be captured favorably. Is greatly increased by a predetermined width to loosen the threshold condition for content selection (step S200).
When it is determined that the answer input to the question asking the mind and body state is a so-called normal level that is neither negative nor positive (“3” in step S196), the current compatibility value range 462 is not changed and is applied next time. The settings stored in the compatibility value range 334 are kept copied.

次に、制御部100はコンテンツ再選択回数464に「0」を格納してリセットし(ステップS204)、今回適用相性値範囲462の範囲内に相性値が合致するコンテンツを抽出して何れかのコンテンツを選択する(ステップS206)。
図30は、本実施形態における相性値を利用したコンテンツ選択方法の概念を説明するための図である。但し、横軸のコンテンツ数を限定して表示しているが、実際には全コンテンツを対象とする。
コンテンツ選択に際しては、制御部100は、コンテンツ相性値算出TBL440における各コンテンツの相性値458を参照する。そして、全相性値の最大と最小値を抽出し、最大値〜最小値までの相性値最大幅Lを求める。本実施形態では、今回適用相性値範囲462(及び次回適用相性値範囲334)は、最大相性値からの範囲で規定する。同図の例では、初期設定状態の相性値最大幅Lの25%が今回適用相性値範囲として示されている。制御部100は、この今回適用相性値範囲462の設定範囲内に相性値458が合致するコンテンツを選択候補の母集団要素として抽出する。そして、抽出した母集団の中から乱数を利用したランダム抽選によって所定数(本実施形態では一つ)のコンテンツを選択する。尚、選択候補から最終的なコンテンツを選択する方法は、ランダム抽選に限らず、選択候補コンテンツの相性値の平均値に相性値が最も近いコンテンツを選択するなどとしても良い。
Next, the control unit 100 stores “0” in the content reselection count 464 and resets it (step S204), extracts content whose compatibility value matches within the current applicable compatibility value range 462, and selects either A content is selected (step S206).
FIG. 30 is a diagram for explaining the concept of the content selection method using the compatibility value in the present embodiment. However, although the number of contents on the horizontal axis is limited and displayed, in reality, all contents are targeted.
When selecting content, the control unit 100 refers to the compatibility value 458 of each content in the content compatibility value calculation TBL 440. Then, the maximum and minimum values of all compatibility values are extracted, and the compatibility value maximum width L from the maximum value to the minimum value is obtained. In the present embodiment, the current applied compatibility value range 462 (and the next applied compatibility value range 334) is defined as a range from the maximum compatibility value. In the example of FIG. 25, 25% of the compatibility value maximum width L in the initial setting state is shown as the compatibility value range applied this time. The control unit 100 extracts contents whose compatibility values 458 match within the setting range of the current compatibility value range 462 as selection candidate population elements. Then, a predetermined number (one in this embodiment) of contents is selected from the extracted population by random lottery using random numbers. Note that the method of selecting the final content from the selection candidates is not limited to random lottery, and content having a compatibility value closest to the average value of the compatibility values of the selection candidate content may be selected.

コンテンツを選択したならば、制御部100は選択したコンテンツが所定の選択禁則に該当するか否かを判定する。具体的には、ユーザ登録データ310のコンテンツ提示履歴340(図11)を参照して、ステップS206で選択されたコンテンツが提示済か否かを判定する(ステップS208)。すでに提示されたことがある場合には(ステップS208のYES)、記憶部300のコンテンツ再選択回数464を「1」加算する(ステップS218)。そして、加算されたコンテンツ再選択回数464の値が所定の上限回数(例えば「10」)に達していなければ(ステップS220のNO)、ステップS206に戻ってコンテンツの選択をやり直す。コンテンツ再選択回数464の値が所定の上限回数に達していれば予め用意されているコンテンツを提示し尽くしており、再提示やむなしと判断して再選択は行わずにコンテンツ選択処理を終了する。   If the content is selected, the control unit 100 determines whether or not the selected content corresponds to a predetermined selection prohibition rule. Specifically, with reference to the content presentation history 340 (FIG. 11) of the user registration data 310, it is determined whether or not the content selected in step S206 has been presented (step S208). If it has already been presented (YES in step S208), “1” is added to the content reselection count 464 in the storage unit 300 (step S218). If the value of the added content reselection count 464 has not reached a predetermined upper limit count (for example, “10”) (NO in step S220), the process returns to step S206 to select the content again. If the value of the content reselection count 464 reaches the predetermined upper limit count, the prepared content has been completely presented, and it is determined that re-presentation is unavoidable, and the content selection process is terminated without performing reselection.

ステップS206で選択されたコンテンツが未提示であったとしても(ステップS208のNO)、コンテンツ基礎パラメータ値TBL370のコンテンツジャンル382とコンテンツ提示履歴340とを参照して、今回選択されたコンテンツのジャンルと前回提示されたコンテンツのジャンルとを比較する。そして、両者のコンテンツジャンルが同じ場合には(ステップS210のYES)、制御部100は選択されたコンテンツが提示済であった場合と同様にコンテンツの再選択を行う(ステップS218〜S220)。
一方、両者のコンテンツジャンルが異なる場合には(ステップS210のNO)、制御部100は今回選択されたコンテンツを決定してコンテンツ選択処理を終了する。
尚、コンテンツ選択の禁止則にかかる処理は、ステップS208とステップS210の条件判定に限るものではなく適宜設定可能である。例えば、コンテンツ基礎パラメータ値TBL440に映画等の年齢制限コードと同様の情報を予め設定しておけば、コンテンツの選択時にレイティングシステムと同様の機能を実現することもできる。
Even if the content selected in step S206 has not been presented (NO in step S208), the content genre 382 of the content basic parameter value TBL370 and the content presentation history 340 are referred to, and the content genre selected this time Compare with the genre of the previously presented content. If the two content genres are the same (YES in step S210), the control unit 100 reselects the content in the same manner as when the selected content has been presented (steps S218 to S220).
On the other hand, if the two content genres are different (NO in step S210), the control unit 100 determines the currently selected content and ends the content selection process.
The processing related to the content selection prohibition rule is not limited to the condition determination in step S208 and step S210, and can be set as appropriate. For example, if information similar to an age restriction code such as a movie is previously set in the content basic parameter value TBL440, a function similar to that of the rating system can be realized at the time of content selection.

コンテンツ選択処理を終了したならば図23のフローチャートに戻って、制御部100は次にバーテンキャラクタBTによってコンテンツの提示案内の画像を表示制御する(ステップS16)。例えば、図35(b)に示すように、第1液晶ディスプレイ1406に画面W9のようなお客に話しかけるバーテンキャラクタBTの画像を表示制御するとともに、第2液晶ディスプレイ1408に画面W10のように、これからコンテンツを提示する旨述べる台詞34と、コンテンツ提示中にコンテンツを進行させるための進行操作入力についての説明36とを表示する。本実施形態では、所定のボタンスイッチ1404を押し続ける、またはスタイラスペン1416でタッチパネル1407,1409をタッチし続けるとコンテンツが提供され続け、ボタンスイッチ1404から指を放す或いはタッチを中断するとコンテンツの提示が一時停止するように制御されるので、同図では説明36でその旨表示されている。   If the content selection processing is completed, the control unit 100 returns to the flowchart of FIG. 23, and next controls the display of the content presentation guidance image by the bartender character BT (step S16). For example, as shown in FIG. 35 (b), the first liquid crystal display 1406 is controlled to display the image of the bartender character BT that speaks to the customer such as the screen W9, and the second liquid crystal display 1408 is displayed as the screen W10. A dialogue 34 indicating that the content is to be presented, and a description 36 of a progress operation input for advancing the content during the content presentation are displayed. In the present embodiment, the content continues to be provided if the predetermined button switch 1404 is continuously pressed or the touch panel 1407 or 1409 is continuously touched with the stylus pen 1416, and the content is presented when the button switch 1404 is released or the touch is interrupted. Since it is controlled so as to be temporarily stopped, this is displayed in the explanation 36 in FIG.

次に制御部100は、コンテンツ提示処理を実行する(ステップS18)。提示案内の画像表示から所定時間後に自動的にコンテンツ提示処理を実行するとしても良いし、所定の開始操作入力を要求するとしても良い。コンテンツが提示されると例えば図35(c)のように第1液晶ディスプレイ1406と第2液晶ディスプレイ1408の両方を用いてコンテンツの映像が表示される。   Next, the control unit 100 executes content presentation processing (step S18). The content presentation process may be automatically executed after a predetermined time from the image display of the presentation guidance, or a predetermined start operation input may be requested. When the content is presented, the video of the content is displayed using both the first liquid crystal display 1406 and the second liquid crystal display 1408 as shown in FIG. 35C, for example.

図31は、本実施形態におけるコンテンツ提示処理の流れを説明するためのフローチャートである。コンテンツ提示処理では先ず、制御部100はコンテンツ提示履歴情報340を新規登録する(ステップS230)。ここでは、提示日時341と、コンテンツ番号342と、コンテンツジャンル343とを登録し、他のパラメータは「0」などを格納して初期化する。   FIG. 31 is a flowchart for explaining the flow of content presentation processing in the present embodiment. In the content presentation process, first, the control unit 100 newly registers content presentation history information 340 (step S230). Here, the presentation date / time 341, the content number 342, and the content genre 343 are registered, and other parameters are initialized by storing “0” or the like.

次に、制御部100はコンテンツ提示の初期化作業として、今回適用相性値範囲変更回数466に「0」を格納し、進行操作時間間隔カウンタ468をリセットする(ステップS232)。そして、コンテンツ選択処理で選択されたコンテンツのコンテンツデータ410を参照して、シーケンスデータに従ってコンテンツの映像の表示制御及び音声の出力制御をスタートし(ステップS234)、情動反応分析反映処理を実行する(ステップS236)。   Next, the control unit 100 stores “0” in the current applied compatibility value range change count 466 as the content presentation initialization work, and resets the progress operation time interval counter 468 (step S232). Then, referring to the content data 410 of the content selected in the content selection process, the video display control and audio output control of the content are started according to the sequence data (step S234), and the emotion reaction analysis reflection process is executed (step S234). Step S236).

図32は、本実施形態における情動反応分析反映処理の流れを説明するためのフローチャートである。情動反応分析反映処理は、コンテンツ提示中にユーザが所望する情動反応を示しているか否かを判定し、判定結果に基づいて次回に適用される閾値条件(次回適用相性値範囲)を変更し情動反応結果を反映する為の処理である。
本実施形態では所定のボタンスイッチ1404を押し続ける、又はスタイラスペン1416によるタッチパネルへのタッチ操作をし続けることによってコンテンツ提示が自動進行する。従って、制御部100はコンテンツの提示を開始したならば、制御部100は進行操作入力の有無を監視する。そして、進行操作入力がされていなければ(ステップS310のNO)、進行操作時間間隔カウンタ468を用いた計時をスタートさせる(ステップS312)。一方、進行操作入力が為されている場合には(ステップS310のYES)、制御部110は進行操作時間間隔カウンタ468を用いた計時を停止する(ステップS314)。つまり、進行操作時間間隔カウンタ468は、進行操作入力の途絶時間をカウントする。
FIG. 32 is a flowchart for explaining the flow of emotion reaction analysis reflection processing in the present embodiment. The emotion reaction analysis reflection process determines whether or not the emotion reaction desired by the user is indicated during content presentation, and changes the threshold condition (next applied compatibility value range) to be applied next time based on the determination result. This is a process for reflecting the reaction result.
In the present embodiment, the content presentation is automatically advanced by continuing to press a predetermined button switch 1404 or continuously touching the touch panel with the stylus pen 1416. Therefore, when the control unit 100 starts to present content, the control unit 100 monitors whether there is a progress operation input. If no progress operation input has been made (NO in step S310), timing using the progress operation time interval counter 468 is started (step S312). On the other hand, when the advance operation input is made (YES in step S310), the control unit 110 stops timing using the advance operation time interval counter 468 (step S314). That is, the advance operation time interval counter 468 counts the interruption time of the advance operation input.

次に制御部100は、進行操作時間間隔カウンタ468のカウント値と所定の途絶基準値(例えば、10秒相当)と比較する。カウント値が途絶基準値に達していれば(ステップS316のYES)、「泣く」などの情動反応によって進行操作入力が続けられなくなって途絶したと判断して、進行操作入力の途絶時点(現在のタイムラインのカウンタ値より途絶基準値時間相当前)のタイムラインのカウント値(タイムカウンタ)をコンテンツ提示履歴340の反応箇所情報345に格納する(ステップS318)。
尚、本実施形態では進行操作時間の断続時間によって、情動反応が誘発されていることを分析・予測する構成としているが、断続時間の長さに限らず断続間隔、断続回数に基づいて分析・予測する構成としても良い。例えば、所定の時間条件を満たす(例えば1秒未満の)断続間隔が所定基準回数(例えば3回)連続して検出された場合には、進行操作の入力を続けたいが泣いて手先が震えて安定してタッチを続けられない状態にあると判断する構成とすることもできる。
Next, the control unit 100 compares the count value of the progress operation time interval counter 468 with a predetermined interruption reference value (for example, equivalent to 10 seconds). If the count value has reached the disruption reference value (YES in step S316), it is determined that the progress operation input cannot be continued due to an emotional reaction such as “crying”, and the progress operation input is interrupted (current The count value (time counter) of the timeline that is before the interruption reference value time) is stored in the reaction location information 345 of the content presentation history 340 (step S318).
In this embodiment, it is configured to analyze and predict that the emotional reaction is induced by the intermittent time of the progress operation time, but it is not limited to the length of the intermittent time and is analyzed based on the intermittent interval and the number of intermittent times. It is good also as a structure to predict. For example, when an intermittent interval that satisfies a predetermined time condition (for example, less than 1 second) is detected continuously for a predetermined reference number (for example, 3 times), the user wants to continue the input of the progress operation, but crying and the hand trembles It can also be set as the structure which judges that it is in the state which cannot continue a touch stably.

次いで制御部100は、次回適用相性範囲変更回数466が所定の変更可能上限に達しているか否かを判定する。
そして、変更可能上限に達していなければ(ステップS320のNO)、進行操作入力を途絶させるほど情動反応があった、つまりはパーソナリティタイプの診断が正しく機能しており情動反応が予測通り誘発されていると判断して、また今回泣いているので次回以降はもっと心が洗われた状態となっていてより情動反応を示しやすいと判断して、ユーザ登録データ310の次回適用相性値範囲334を所定幅だけ拡大変更し(ステップS322)、次回適用相性値範囲変更回数466を「1」加算し(ステップS324)、情動反応分析反映処理を終了する。
Next, the control unit 100 determines whether or not the next applicable compatibility range change count 466 has reached a predetermined changeable upper limit.
If the changeable upper limit is not reached (NO in step S320), there is an emotional reaction that interrupts the progress operation input, that is, the personality type diagnosis is functioning correctly and the emotional reaction is induced as expected. Since it is crying this time, it is determined that the emotional reaction is more likely to be shown after the next time and the emotional reaction is more likely to be indicated, and the next applied compatibility value range 334 of the user registration data 310 is determined in advance. The change is expanded by the width (step S322), the next applied compatibility value range change count 466 is incremented by "1" (step S324), and the emotion reaction analysis reflection process is terminated.

但し、次回適用相性値範囲334を適切な範囲に収めるために、次回適用相性値範囲変更回数466が変更可能上限に達している場合には(ステップS320のYES)、次回適用相性値範囲334の拡大は行わずに情動反応分析反映処理を終了する。また、ステップS316において進行操作入力の途絶がなかったと判定された場合(ステップS316のNO)も同様である。
このように進行操作時間間隔カウンタ468及びそれに係るステップS310〜S324の処理は、コンテンツ選択の閾値条件の次回条件可変機能を果たす。この処理によって例えば、次回はより広い相性値の範囲内からコンテンツが選択され得るようにして、より感動の幅を広げより多面的にユーザの心を揺り動かして心をきれいにできるようにフィードバックするといったことが実現される。
However, in order to keep the next applicable compatibility value range 334 within an appropriate range, if the next applicable compatibility value range change count 466 has reached the changeable upper limit (YES in step S320), the next applied compatibility value range 334 The emotion reaction analysis reflection process is terminated without enlarging. The same applies to the case where it is determined in step S316 that there has been no interruption in the progress operation input (NO in step S316).
As described above, the progress operation time interval counter 468 and the processing in steps S310 to S324 related to it perform the next condition variable function of the threshold condition for content selection. By this processing, for example, next time the content can be selected from within a wider range of compatibility values, feedback is made so that the range of emotions can be expanded more and the user's mind can be shaken in many ways and the mind can be cleaned. Is realized.

情動反応分析反映処理を終了したならば、図31のフローチャートに戻って、進行操作入力が有る場合(ステップS246のYES)、制御部100は次いでコンテンツデータ410のシーケンスデータ416(図18)を参照して、コンテンツが終了したか否かを判定する(ステップS248)。
コンテンツが提示途中であれば(ステップS248のNO)、シーケンスデータ416に従って次の画像・映像を第1液晶ディスプレイ1406及び第2液晶ディスプレイ1408に表示させるとともに(ステップS250)、コンテンツの音声をスピーカ1410から音出力させるように制御する(ステップS252)。そして、ステップS234に戻る。
When the emotional reaction analysis reflection process is completed, the process returns to the flowchart of FIG. 31, and when there is a progress operation input (YES in step S246), the control unit 100 then refers to the sequence data 416 (FIG. 18) of the content data 410. Then, it is determined whether or not the content has ended (step S248).
If the content is being presented (NO in step S248), the next image / video is displayed on the first liquid crystal display 1406 and the second liquid crystal display 1408 according to the sequence data 416 (step S250), and the audio of the content is displayed on the speaker 1410. So that the sound is output from (step S252). Then, the process returns to step S234.

さて、本実施形態ではより泣きやすくするために、コンテンツの提示順番が工夫されている。図36〜図37は、本実施形態におけるコンテンツの提示例を示す画面図である。図中上段が第1液晶ディスプレイ1406の画面、図中下段が第2液晶ディスプレイ1408の画面に相当し、(a)、(b)、(c)・・・(f)の順に時間経過している。本実施形態では、基本的に第1液晶ディスプレイ1406に映像、第2液晶ディスプレイ1408にテキストを表示するように、また表示順番が画面W50〜画面W55・・・の順に表示制御が行われるようにコンテンツが作成されている。
具体的には、第1液晶ディスプレイ1406に画面W50を表示した後、数秒経過してから第2液晶ディスプレイ1408に画面W51が表示される。そして、画面W51が表示されて数秒経過してから第1液晶ディスプレイ1406に画面W52が表示される、と言った具合に上下の画像表示位置に交互に新しい画像やテキストを表示するようにコンテンツが作成されている。これによって、プレーヤは上から下、下から上と言った具合に目を上下に動かすこととなり、眼球周りの組織を刺激してより涙を流しやすい、泣きやすい状態を作り出す効果が得られる。
Now, in this embodiment, in order to make it easier to cry, the content presentation order is devised. 36 to 37 are screen diagrams illustrating examples of content presentation in the present embodiment. The upper part of the figure corresponds to the screen of the first liquid crystal display 1406, and the lower part of the figure corresponds to the screen of the second liquid crystal display 1408. Time passes in the order of (a), (b), (c). Yes. In the present embodiment, basically, video is displayed on the first liquid crystal display 1406, text is displayed on the second liquid crystal display 1408, and display control is performed in the order of screen W50 to screen W55. Content has been created.
Specifically, after the screen W50 is displayed on the first liquid crystal display 1406, the screen W51 is displayed on the second liquid crystal display 1408 after several seconds have elapsed. Then, after a few seconds have passed since the screen W51 was displayed, the screen W52 is displayed on the first liquid crystal display 1406, and the contents are displayed so that new images and text are alternately displayed at the upper and lower image display positions. Has been created. As a result, the player moves his / her eyes up and down in a manner such as from top to bottom and from bottom to top, so that an effect of creating a state of being able to shed tears and cry more easily by stimulating the tissue around the eyeball.

さて、図31のフローチャートにおいて、コンテンツが終了したと判定した場合には(ステップS248のYES)、制御部100は次回適用相性値範囲変更回数466が「0」で有るか否か、つまり今回のコンテンツ提示において一度でも泣いたと思われる反応が有ったか否かを判定する(ステップS254)。そして、次回適用相性値範囲変更回数466が「0」の場合(ステップS254のYES)、制御部100は今回所望する情動反応を得られなかったので、次回はより相性値の高い中から提示するコンテンツを選択して情動反応が得られ易くなるように、次回適用相性値範囲334を所定量縮小し(ステップS256)、コンテンツ提示処理を終了する。   Now, if it is determined in the flowchart of FIG. 31 that the content has ended (YES in step S248), the control unit 100 determines whether or not the next applied compatibility value range change count 466 is “0”, that is, this time. In the content presentation, it is determined whether or not there is a reaction that seems to cry even once (step S254). Then, when the next applied compatibility value range change count 466 is “0” (YES in step S254), the control unit 100 cannot obtain the desired emotional reaction this time, so the next time, it will be presented from the higher compatibility value. The next applied compatibility value range 334 is reduced by a predetermined amount so that the emotional reaction can be easily obtained by selecting the content (step S256), and the content presentation processing is ended.

図23のフローチャートに戻って、制御部100は次にバーテンキャラクタBTが提示したコンテンツの感想を尋ねる画面表示と、感想を入力する入力画面とを表示制御する(ステップS20)。
例えば、図38(a)に示すように、第1液晶ディスプレイ1406には画面W11のようにバーテンキャラクタBTが感想を尋ねる様子を表示制御し、第2液晶ディスプレイ1408には入力画面W12のようにバーテンキャラクタBTの台詞40と、入力する感想の入力選択肢42とを表示制御する。本実施形態の例では「泣けた」「泣きそうになった」「普通」「面白くない」の4段階の入力選択肢が表示され、プレーヤは何れかをスタイラスペン1416によりタッチ操作することで入力する。
Returning to the flowchart of FIG. 23, the control unit 100 next controls the display of the screen for asking the impression of the content presented by the bartender character BT and the input screen for inputting the impression (step S20).
For example, as shown in FIG. 38 (a), the first liquid crystal display 1406 controls the display of the bartender character BT asking for feedback as in the screen W11, and the second liquid crystal display 1408 as in the input screen W12. The display 40 controls the line 40 of the bartender character BT and the input option 42 of the impression to be input. In the example of the present embodiment, four-stage input options of “I could cry”, “I was about to cry”, “Normal”, and “Not interesting” are displayed, and the player inputs one by touching with the stylus pen 1416 .

入力画面W12における感想の入力結果が所望する情動反応の誘発に肯定的とされる所定基準を満たす場合、具体的には本実施形態では「泣けた」又は「泣きそうになった」が入力された場合(ステップS22のYES)、制御部100は、プレーヤは今回泣いたので心に余裕が生まれ次回以降はパーソナリティタイプとの相性値がやや低くても所望する情動反応を得やすくなっていると判断する。そしてユーザ登録データ310の次回適用相性値範囲334を、所定の上限範囲を超えないようにして所定割合だけ拡大し、コンテンツ選択の際により多くの選択肢の中からコンテンツが選ばれるようにする(ステップS24)。   When the input result of the impression on the input screen W12 satisfies a predetermined criterion that is positive for the induction of a desired emotional reaction, specifically, “I was crying” or “I was about to cry” is input in this embodiment. If this happens (YES in step S22), the control unit 100 finds that the player cryed this time, so that he / she can afford his / her heart and the desired emotional response can be easily obtained from the next time even if the compatibility value with the personality type is slightly lower. to decide. Then, the next applied compatibility value range 334 of the user registration data 310 is expanded by a predetermined ratio so as not to exceed a predetermined upper limit range, and content is selected from more options when selecting content (step) S24).

入力画面W12における感想の入力結果が所望する情動反応の誘発に否定的とされる所定基準を満たす場合、具体的には本実施形態では「面白くない」が入力された場合には(ステップS22のNO→ステップS26のYES)、制御部100は次回適用相性値範囲334を所定の下限範囲を超えて小さくならないようにして所定割合だけ縮小し、次回のコンテンツ選択の際にはより相性値が高くより泣きやすいコンテンツを選択するようにする(ステップS28)。
感想結果の入力が肯定的でも否定的でもない場合、具体的には「普通」が入力された場合には(ステップS26のNO)、制御部100は次回適用相性値範囲334を特に変更はしない。
When the input result of the impression on the input screen W12 satisfies a predetermined standard that is negative for the induction of the desired emotional reaction, specifically, when “not interesting” is input in the present embodiment (in step S22) NO → YES in step S26), the control unit 100 reduces the next applied compatibility value range 334 by a predetermined ratio so as not to become smaller than a predetermined lower limit range, and the compatibility value becomes higher at the next content selection. The content that is more likely to cry is selected (step S28).
When the input of the impression result is neither positive nor negative, specifically, when “normal” is input (NO in step S <b> 26), the control unit 100 does not particularly change the next applied compatibility value range 334. .

次に、制御部100はバーテンキャラクタBTが今日の出来事の記入(本実施形態では秘密ノートの記入と呼ぶ。)を勧める画面表示と入力画面の表示制御を実行する(ステップS30)。例えば図38(b)に示すように、第1液晶ディスプレイ1406には画面W13のようにバーテンキャラクタBTの画像を表示制御し、第2液晶ディスプレイ1408には入力画面W14を表示制御する。入力画面W14には、秘密ノートの記入を勧めるバーテンキャラクタBTの台詞44と、選択肢表示46とを表示制御する。プレーヤはスタイラスペン1416によるタッチ操作で何れかの選択肢表示46の位置をタッチして選択入力する。   Next, the control unit 100 executes screen display and input screen display control in which the bartender character BT recommends entry of today's event (referred to as secret note entry in this embodiment) (step S30). For example, as shown in FIG. 38B, the first liquid crystal display 1406 controls the display of the image of the bartender character BT like the screen W13, and the second liquid crystal display 1408 controls the display of the input screen W14. On the input screen W14, display control of the dialogue 44 of the bartender character BT that recommends the entry of a secret note and an option display 46 are performed. The player touches and selects and inputs the position of any option display 46 by a touch operation with the stylus pen 1416.

入力画面W14で「書きます」が選択入力されたならば(ステップS32のYES)、制御部100は公知のテキスト入力制御を実行する(ステップS34)。例えば第2液晶ディスプレイ1408にソフトウェアキーボードを表示制御して、スタイラスペン1416によるタッチ位置に応じて入力されたテキストを判定し、記憶部300に入力テキストを一時記憶し、第1液晶ディスプレイ1406に入力されたテキストを表示する。そして、所定の入力終了操作で入力を終了する。   If “write” is selected and input on the input screen W14 (YES in step S32), the control unit 100 executes known text input control (step S34). For example, display control of a software keyboard is performed on the second liquid crystal display 1408, text input according to the touch position by the stylus pen 1416 is determined, input text is temporarily stored in the storage unit 300, and input to the first liquid crystal display 1406 To display the text. Then, the input is ended by a predetermined input end operation.

次に、制御部100はユーザ登録データ310のコンテンツ提示履歴情報340を更新する(ステップS36)。この時、ステップS32においてテキスト入力制御が実行されている場合には、秘密ノート情報346に入力されたテキスト情報を格納する。   Next, the control unit 100 updates the content presentation history information 340 of the user registration data 310 (step S36). At this time, if the text input control is executed in step S32, the text information input in the secret note information 346 is stored.

次いで、制御部100はバーテンキャラクタBTがプレイを終了するかを尋ねる画面表示と入力画面の表示制御をする(ステップS38)。例えば、図38(c)に示すように、第1液晶ディスプレイ1406には画面W15のようにバーテンキャラクタBTを表示させて、第2液晶ディスプレイ1408には入力画面W16のようにバーテンキャラクタBTの台詞48と、プレイ終了か継続かの選択肢表示50とを表示するように制御する。プレーヤはスタイラスペン1416によるタッチ操作で何れかの選択肢表示50の位置をタッチして選択入力する。   Next, the control unit 100 controls the display of the screen for asking whether the bartender character BT ends the play and the display of the input screen (step S38). For example, as shown in FIG. 38 (c), the first liquid crystal display 1406 displays the bartender character BT as the screen W15, and the second liquid crystal display 1408 displays the bartender character BT as the input screen W16. 48 and an option display 50 indicating whether play ends or continues are controlled. The player touches and selects and inputs the position of any option display 50 by a touch operation with the stylus pen 1416.

選択肢表示50で継続に相当する位置がタッチされた場合には(ステップS50のNO)、制御部100はステップS10に移行して、第2質疑応答処理以下の処理を繰り返す。一方、選択肢表示50で終了に相当する位置がタッチされた場合、つまり本実施形態では「帰ります」の選択肢表示の位置がタッチされた場合(ステップS50のYES)、制御部100は一連の処理を終了する。   When the position corresponding to continuation is touched on the option display 50 (NO in step S50), the control unit 100 proceeds to step S10 and repeats the processes after the second question and answer process. On the other hand, when the position corresponding to the end in the option display 50 is touched, that is, in the present embodiment, the position of the option display of “return” is touched (YES in step S50), the control unit 100 performs a series of processes. Exit.

さて、2回目以降のプレイにおいてはプレーヤのユーザ登録は済んでいる。従って、ステップS4において、登録済みユーザのユーザ名を入力する入力欄12(図34(a)参照)の表示位置がスタイラスペン1416によってタッチされたのを検出すると(ステップS4のNO)、制御部100は登録済ユーザのエントリー処理を実行する(ステップS42)。例えば、図39(a)に示すように、第2液晶ディスプレイ1408に公知の手書き入力欄52又はソフトウェアキーボードを表示した入力画面W18を表示制御してテキスト入力を可能にする。そして、公知技術と同様にして入力欄12に入力されたユーザ名とユーザ登録データ310との照合等を実行し、登録済ユーザに合致すれば該当するユーザ登録データ310を読み出す。   In the second and subsequent play, the user registration of the player has been completed. Accordingly, in step S4, when it is detected that the display position of the input field 12 (see FIG. 34A) for inputting the user name of the registered user is touched by the stylus pen 1416 (NO in step S4), the control unit 100 executes the registered user entry process (step S42). For example, as shown in FIG. 39A, the second liquid crystal display 1408 controls the display of an input screen W18 on which a known handwriting input field 52 or a software keyboard is displayed, thereby enabling text input. Then, the user name input in the input field 12 is collated with the user registration data 310 in the same manner as in the known technique, and if the registered user matches, the corresponding user registration data 310 is read out.

次に、制御部100はバーテンキャラクタBTがプレイ履歴を見るか尋ねる画面表示と入力画面の表示制御を行う(ステップS44)。例えば、図39(b)に示すように、第1液晶ディスプレイ1406にバーテンキャラクタBTの画面W19を表示し、第2液晶ディスプレイ1408にバーテンキャラクタBTの台詞54と、コンテンツを楽しむか(「お勧めの話を楽しむ」)、プレイ履歴を見るか(「秘密のノートを見たい」)の選択肢表示56を表示した入力画面W20を表示制御する。プレーヤはスタイラスペン1416によるタッチ操作で何れかの選択肢表示56の位置をタッチして選択入力する。   Next, the control unit 100 controls the display of the screen and the input screen for asking whether the bartender character BT sees the play history (step S44). For example, as shown in FIG. 39 (b), the screen W19 of the bartender character BT is displayed on the first liquid crystal display 1406, and the line 54 of the bartender character BT and the content are enjoyed on the second liquid crystal display 1408 (“recommended” The input screen W20 on which the option display 56 for viewing the play history (“I want to see a secret note”) is displayed is controlled. The player touches the position of any option display 56 by a touch operation with the stylus pen 1416 to select and input.

入力画面W20で「秘密のノートを見たい」の選択肢表示56が入力された場合、制御部100はプレイ履歴を参照すると判断して(ステップS46のYES)、ユーザ登録データ310のプレイ履歴情報336のコンテンツ提示履歴340を参照してプレイ履歴参照処理を実行する(ステップS48)。   When the option display 56 “I want to see a secret note” is input on the input screen W20, the control unit 100 determines to refer to the play history (YES in step S46), and the play history information 336 of the user registration data 310 is determined. The play history reference process is executed with reference to the content presentation history 340 (step S48).

図33は、本実施形態におけるプレイ履歴参照処理の流れを説明するためのフローチャートである。プレイ履歴参照処理では、制御部100は先ず履歴表示する日付を指定するための入力画面を表示制御する。(ステップS280)。例えば、図39(c)に示すように、日付指定のためのカレンダー58と、プレイ履歴参照形態を選択する選択肢表示60とを含む入力画面W21を第1液晶ディスプレイ1406に表示制御する。カレンダー58では、秘密ノート情報346にテキストが格納されている日付を選択可能に強調表示する。同図の例では、10月18日及び20日がこれに相当する。プレーヤはカレンダー58の何れかの強調表示された日付位置をスタイラスペン1416によるタッチ操作で選択する。   FIG. 33 is a flowchart for explaining the flow of the play history reference process in the present embodiment. In the play history reference process, the control unit 100 first controls display of an input screen for designating a date for history display. (Step S280). For example, as shown in FIG. 39 (c), an input screen W21 including a calendar 58 for specifying a date and an option display 60 for selecting a play history reference form is displayed on the first liquid crystal display 1406. In the calendar 58, the date on which the text is stored in the secret note information 346 is highlighted so that it can be selected. In the example of the figure, October 18 and 20 correspond to this. The player selects any highlighted date position on the calendar 58 by a touch operation with the stylus pen 1416.

次いで、制御部100はカレンダー58でタッチされた日付をユーザによって選択されたと判定して、選択日付を記憶部300に一時的に記憶するとともに、選択された日付を更に異なる形態で強調表示する(ステップS282)。同図では、10月20日が選択された状態にあり、10月18日の日付とは異なる強調表示がされている。   Next, the control unit 100 determines that the date touched on the calendar 58 has been selected by the user, temporarily stores the selected date in the storage unit 300, and further highlights the selected date in a different form ( Step S282). In the figure, October 20 is selected and highlighted differently from the date of October 18.

制御部100は更にコンテンツ提示履歴340を参照して、選択された日付に対応する参照選択肢60を第1液晶ディスプレイ1406に追加表示する(ステップS284)。
具体的には、選択された日付に対応する反応箇所情報345にタイムカウンタが格納されている場合、つまりその日に提示されたコンテンツで所望する情動反応が誘発された履歴が有る場合は、図40の入力画面W23に示すように参照選択肢60として情動反応を示した場面を部分的に再生することのできる「リプレイ」の選択肢を含めて表示する。同様に、選択された日付に対応する秘密ノート情報346にテキストデータが格納されている場合には、秘密ノートの記載があったと判断して、秘密ノートの記載を表示できる「ノート表示」の選択肢を参照選択肢60に含めて表示する。プレーヤは何れかの参照選択肢60の表示位置をスタイラスペン1416によってタッチして選択入力する。
The control unit 100 further refers to the content presentation history 340 and additionally displays a reference option 60 corresponding to the selected date on the first liquid crystal display 1406 (step S284).
Specifically, when the time counter is stored in the reaction location information 345 corresponding to the selected date, that is, when there is a history in which a desired emotional reaction is induced in the content presented on that day, FIG. As shown in the input screen W23, a scene showing an emotional reaction is displayed as a reference option 60 including a “replay” option that can partially reproduce the scene. Similarly, when text data is stored in the secret note information 346 corresponding to the selected date, it is determined that the secret note has been described, and a “note display” option that can display the description of the secret note Is included in the reference option 60 and displayed. The player selects and inputs the display position of any reference option 60 by touching with the stylus pen 1416.

参照選択肢60の「リプレイ」が選択された場合には、(ステップS286の「リプレイ」)、制御部100はステップS282で選択・強調表示された日付に対応するコンテンツ番号342と反応箇所情報345とを参照して、反応箇所情報345に格納されているタイムカウンタを挟んで前後所定カウント数の分だけ、コンテンツ番号342に格納されているコンテンツを部分提示処理する(ステップS288)。
一方、参照選択肢60の「ノート表示」が選択された場合には(ステップS286の「ノート表示」)、制御部100は選択・強調表示された日付に対応する秘密ノード情報346を参照して、格納されているテキストデータに基づいて、図40に示すように、第2液晶ディスプレイ1408にテキスト表示する(ステップS290)。
また、参照選択肢60の「しまう」が選択された場合には(ステップS286の「しまう」)、制御部100はプレイ履歴参照処理を終了する。
そして、図23のフローチャートに戻って、プレイ履歴参照処理を終了したならば制御部100はステップS10に移行する。
When “replay” is selected as the reference option 60 (“replay” in step S286), the control unit 100 sets the content number 342 corresponding to the date selected and highlighted in step S282, the reaction point information 345, and the like. With reference to, the content stored in the content number 342 is partially presented for a predetermined count number before and after the time counter stored in the reaction location information 345 (step S288).
On the other hand, when “note display” of the reference option 60 is selected (“note display” in step S286), the control unit 100 refers to the secret node information 346 corresponding to the selected / highlighted date, Based on the stored text data, the text is displayed on the second liquid crystal display 1408 as shown in FIG. 40 (step S290).
In addition, when “success” is selected as the reference option 60 (“success” in step S286), the control unit 100 ends the play history reference process.
Then, returning to the flowchart of FIG. 23, if the play history reference process is completed, the control unit 100 proceeds to step S10.

[効果の説明]
次に、本実施形態を用いた実証試験の結果について述べる。試験では、泣けることを意図したコンテンツを3タイプ用意した。
コンテンツAは、誰もが泣けることを意図したシナリオ分類とアイテム分類とを備える。コンテンツBは、ペット飼育経験者が泣けることを意図したシナリオ分類とアイテム分類とを備える。コンテンツCは、育児経験者が泣けることを意図したシナリオ分類とアイテム分類とを備える。実際にコンテンツの提示を受けて泣けたかどうかは、公知の生理・情動反応の計測によって判定する。
[Description of effects]
Next, the result of the verification test using this embodiment will be described. In the test, three types of content intended to cry were prepared.
The content A includes a scenario classification and an item classification intended for everyone to cry. The content B includes a scenario classification and an item classification intended for a pet breeding experience person to cry. The content C includes a scenario classification and an item classification that are intended for a child-rearing experience person to cry. Whether or not the user is actually crying after receiving the presentation of content is determined by measuring known physiological and emotional responses.

一つの実験では有意の多数の被験者に対してそれぞれ次の手順で実施した。
(1)電極及びプローブを被験者に装着。
(2)POMS(Profile of Mood States)による気分プロフィール検査。
(3)アミラーゼによるストレス値測定。
(4)コンテンツの提示とともに皮膚電位水準及び脳機能計測
(5)アミラーゼによるストレス値測定
(6)POMSによる気分プロフィール検査。
(7)内省報告調査
POMSは、緊張・抑鬱・怒り・疲労・混乱・活気の心的因子を同時に測定する公知のテストであり、被験者の一時的な気分や感情の状態を測定する。アミラーゼは、唾液中の消化酵素の一種であり、ストレスマーカとして利用できることが知られている。
In one experiment, a significant number of subjects were each subjected to the following procedure.
(1) An electrode and a probe are attached to a subject.
(2) Mood profile inspection by POMS (Profile of Mood States).
(3) Stress value measurement by amylase.
(4) Measurement of skin potential level and brain function as well as presentation of content (5) Stress value measurement by amylase (6) Mood profile test by POMS.
(7) Introspection Survey POMS is a well-known test that simultaneously measures the mental factors of tension, depression, anger, fatigue, confusion, and vitality, and measures the subject's temporary mood and emotional state. Amylase is a kind of digestive enzyme in saliva and is known to be usable as a stress marker.

第1の実証試験では、事前に被験者に心的ストレスを与えた後にコンテンツを提示して、コンテンツ提示前後の生理・情動反応の比較を行った。
図41は「緊張・不安」「混乱」の心的因子に着目してコンテンツ別の変化率を示したグラフである。同図に示すように、コンテンツ提示前後のPOMS検査の結果からは、「緊張・不安」「混乱」の改善が見られた。被験者の自覚的には「泣いてスッキリ」と言う気分によく対応するものと解釈される。
また、図42はコンテンツ提示前後のアミラーゼ活性の変化率をコンテンツ別に示したグラフである。図42で示したように、何れのコンテンツにおいても気分プロフィールの改善が見られたが、生理指標の観点からみると「誰でも泣ける」ことを意図したコンテンツAにおける減少率が最も高く、「ペットの飼育経験者が泣ける」「育児経験者が泣ける」ことをそれぞれ意図したコンテンツB及びコンテンツCでは個人差が見られ、トータルではコンテンツAほどの減少率には至らなかった。
In the first demonstration test, content was presented after a mental stress was applied to the subject in advance, and the physiological and emotional responses before and after content presentation were compared.
FIG. 41 is a graph showing the rate of change by content, focusing on the mental factors of “tension / anxiety” and “confused”. As shown in the figure, the results of the POMS inspection before and after the content presentation showed improvement in “tension / anxiety” and “confused”. Subject's consciousness is interpreted to correspond well to the feeling of “crying and refreshing”.
FIG. 42 is a graph showing the rate of change in amylase activity before and after content presentation for each content. As shown in FIG. 42, although the mood profile was improved in any content, from the viewpoint of the physiological index, the decrease rate in the content A intended to be “everyone can cry” is the highest, and “Pet The content B and the content C, which were intended to be able to cry, and “children who experienced child-rearing” respectively, showed individual differences, and the total reduction rate was not as high as that of the content A.

図43及び図44は、コンテンツB及びコンテンツCの提示中に於ける一被験者の皮膚電位活動の皮膚電位水準(SPL)の時間変化を示すグラフである。
皮膚電位活動(Skin Potential Activity : SPA)は、精神性発汗現象を電気的に測定した指標(皮膚電気活動)の一つであって、緊張したときに「手に汗握る」に例えられる精神性発汗現象を皮膚電位として測定したものである。皮膚電位活動は、交感神経の緊張や覚醒水準の高さを反映する。その直流成分を特に皮膚電位水準(Skin Potential Level : SPL)と言い、電位が低いほど覚醒水準が高いとされる。
図43に示すように、コンテンツBの提示中のSPLでは破線で囲まれたストーリの暗転部に対応して顕著な変動が見られた。また図44に示すように、コンテンツCの提示中のSLPでも破線で囲まれた「夫の病気発覚」や「妊娠の発覚(子供の存在)」と言ったアイテムやプレーヤ属性(ユーザ属性)との相関性の高い場面で顕著な変動が見られた。これらは、「泣ける」ポイントにおいて情動反応が誘発されていることを示した結果と解釈できる。
FIGS. 43 and 44 are graphs showing temporal changes in the skin potential level (SPL) of the skin potential activity of one subject during the presentation of the content B and the content C. FIG.
Skin Potential Activity (SPA) is an index (electrical skin activity) that is an electrical measurement of mental sweating, and is likened to “sweat in your hand” when you are nervous. The sweating phenomenon was measured as skin potential. Skin potential activity reflects sympathetic tone and high arousal levels. The DC component is called skin potential level (SPL), and the lower the potential, the higher the arousal level.
As shown in FIG. 43, in the SPL during the presentation of the content B, a significant change was observed corresponding to the dark part of the story surrounded by a broken line. In addition, as shown in FIG. 44, in the SLP in which the content C is being presented, the items such as “husband's disease detection” and “pregnancy detection (child presence)” surrounded by broken lines and player attributes (user attributes) There were significant fluctuations in the highly correlated scenes. These can be interpreted as results showing that an emotional reaction is induced at the “crying” point.

以上、本実施形態によれば、プレーヤ属性(ユーザ属性)に係る情報を質疑応答形式で取得し、また質疑応答形式のパーソナリティ判定テストを実施することでプレーヤのパーソナリティタイプを判定することで、プレーヤを予め定められた類型の何れかに特定することができる。そして、プレーヤ属性(ユーザ属性)及びプレーヤのパーソナリティタイプに応じて所望する情動反応を誘発するコンテンツを提供することができる。そして、本実施形態では情動反応として「泣き」を誘発するように設定されているので、プレーヤに泣く機会を提供して「泣く」ことによる心のストレスの解放を促す癒し効果を得ることができる。   As described above, according to the present embodiment, the player attribute (user attribute) information is acquired in the question-and-answer format, and the player's personality type is determined by performing the question-and-answer format personality determination test. Can be specified as one of predetermined types. Then, it is possible to provide content that induces a desired emotional reaction according to the player attribute (user attribute) and the personality type of the player. In the present embodiment, since it is set to induce “crying” as an emotional reaction, it is possible to provide the player with an opportunity to cry and to obtain a healing effect that promotes the release of mental stress by “crying” .

また、本実施形態では、今回のコンテンツ選択の際に供される閾値条件(今回適用相性値範囲)を、プレーヤのその日の心身状態に応じて可変できる。心身に強いストレスが掛かっている状態では閾値条件をより厳しく変更して、プレーヤ類型と相性の高いコンテンツ、つまり泣きやすいコンテンツを選択するようにして、1プレイでより確実な癒し効果を得られるようにできる。また、心身のストレスが軽微な場合には閾値条件を緩やかに変更して、相性重視にこだわらずに、所望する情動反応が得られる範囲内でより多様なコンテンツの中から選択するようにして、プレーヤにより心の潤いを与えることができるようにもなる。   Further, in the present embodiment, the threshold condition (current applicable compatibility value range) provided at the time of content selection this time can be changed according to the mental and physical state of the player on that day. In a state where a strong mental and physical stress is applied, the threshold condition is changed more severely, and a content that is highly compatible with the player type, that is, a content that is easy to cry, is selected, so that a more reliable healing effect can be obtained in one play Can be. In addition, when the mental and physical stress is slight, the threshold condition is changed gently so that it can be selected from a variety of content within the range where the desired emotional reaction can be obtained without focusing on compatibility. The player can also be motivated by the heart.

また、コンテンツ提示中はコンテンツの進行操作入力に基づいて、情動反応が誘発されたか否かを分析し、次回のコンテンツ選択時に適用される閾値条件(次回適用相性値範囲)を可変することができる。よって、今回所望する情動反応が得られたならば、閾値条件を緩く変更して、プレーヤに所望する情動反応が得られる範囲内でより多様なコンテンツの中から選択するようにして、より心の潤いを与えることができるようになる。反対に今回所望する情動反応が得られていないならば、閾値条件をより厳しく変更して、プレーヤ類型と相性の高いコンテンツを選択するようにして、次のプレイでより確実に癒し効果を得られるようにできる。また、同様の効果はコンテンツ提示後の感想の入力結果に基づく次回のコンテンツ選択時に適用される閾値条件の変更に係る処理でも発揮される。   In addition, during the content presentation, it is possible to analyze whether or not an emotional reaction has been induced based on the input operation of the content, and to change the threshold condition (next compatibility value range) applied at the next content selection. . Therefore, if the emotional reaction desired this time is obtained, the threshold condition is changed loosely so that the player can select from a variety of contents within a range where the desired emotional reaction is obtained. It will be able to moisturize. On the other hand, if the desired emotional response is not obtained this time, the threshold condition is changed more rigorously, and the content highly compatible with the player type is selected, so that the healing effect can be obtained more reliably in the next play. You can The same effect is also exhibited in the process related to the change of the threshold condition applied at the next content selection based on the input result of the impression after the content is presented.

尚、本実施形態では、1回のプレイでパーソナリティ判定用又はダミー質問が一つ出される構成となっているがこれに限らない。
例えば、プレイ開始当初(例えば、ステップS10)にバーテンキャラクタがプレーヤにプレイ所要時間の希望を尋ねる画像を表示させるとともにその回答入力画面を表示制御し、回答されたプレイ所要時間を記憶部300に記憶させる。そして、回答されたプレイ所要時間が基準値(例えば、10分未満)の場合には、プレーヤはより速やかなパーソナリティ判定及びコンテンツ提示を望んでいると判断して、第2質疑応答処理を2回実行するなどして、一回のプレイで複数のパーソナリティ判定に係る質問が出力される構成とすることもできる。この場合、プレーヤの余暇時間の程度に応じたプレイ進行を実現できる。あるいは、現在提供可能なコンテンツの再生時間と基準時間との差が所定基準値より大きい場合に、ダミー質問の混入割合を増すようにしてゲームプレイ全体の所要時間を延ばす構成とすることもできる。
In the present embodiment, one personality determination or one dummy question is issued in one play, but the present invention is not limited to this.
For example, at the beginning of play (for example, step S10), the bartender character displays an image asking the player for the desired play time, and controls the display of the answer input screen. Let If the requisite play time is a reference value (for example, less than 10 minutes), it is determined that the player desires quicker personality determination and content presentation, and the second question and answer process is performed twice. For example, a plurality of questions related to personality determination may be output in one play. In this case, it is possible to realize play progress according to the degree of leisure time of the player. Alternatively, when the difference between the playback time of content that can be currently provided and the reference time is greater than a predetermined reference value, the time required for the entire game play can be extended by increasing the mixing ratio of dummy questions.

〔第2実施形態〕
次に、本発明を適用した第2実施形態について説明する。本実施形態は基本的には第1実施形態と同様の構成を有するが、(1)ユーザがコンテンツ提示の所要時間を設定できる、(2)コンテンツを構成する音声には予め複数種のカテゴリが設定されており、プレーヤ類型に対応したカテゴリから提示する音声を選択する、(3)コンテンツ提示時に再生される音声に対してプレーヤ類型に応じたフィルタ処理を実行する、(4)コンテンツ提示時の映像に対してプレーヤ類型に応じたトランジッション処理やフィルタ処理を実行する、の4点の特徴を有する。尚、第1実施形態と同様の構成については同じ符号を付与して説明は省略するものとする。
[Second Embodiment]
Next, a second embodiment to which the present invention is applied will be described. This embodiment basically has the same configuration as that of the first embodiment, but (1) the user can set the time required for content presentation. (2) There are a plurality of categories in advance for the audio constituting the content. Is set and the audio to be presented from the category corresponding to the player type is selected, (3) the filtering process according to the player type is performed on the audio reproduced at the time of content presentation, (4) at the time of content presentation There are four features of performing transition processing and filtering processing according to the player type on the video. In addition, about the structure similar to 1st Embodiment, the same code | symbol is provided and description shall be abbreviate | omitted.

図45は、本実施形態におけるコンテンツデータ410Bのデータ構成例を示す図である。本実施形態のシーケンスデータ416では、音声データID424に再生対象候補となる音声データを複数格納するフォルダの識別情報が定義可能になっている。同図の例では、「SFLD_001」「SFLD_002」がそれに当たる。そして、これらの設定に対応するフォルダは音声データライブラリ428Bに含まれている。   FIG. 45 is a diagram illustrating a data configuration example of the content data 410B in the present embodiment. In the sequence data 416 of the present embodiment, identification information of a folder that stores a plurality of audio data that are candidates for reproduction can be defined in the audio data ID 424. In the example shown in the figure, “SFLD — 001” and “SFLD — 002” correspond to this. Folders corresponding to these settings are included in the audio data library 428B.

音声データライブラリ428Bには、複数の音声データを格納する複数の主フォルダ430(SFLD_001、SFLD_002・・・)と、効果音などの音声データ432(SE_001、SE_002・・・)とが含まれている。
一つの主フォルダ430には、音声のジャンルや音律などでカテゴリ分類された複数のサブフォルダ431(カテゴリα、カテゴリβ・・・)を含み、各サブフォルダ431には複数の音データが格納されている。本実施形態では全ての主フォルダ430に含まれるサブフォルダ431のカテゴリ分類は共通であるが、異なるカテゴリ分類を含む構成としても良いのは勿論である。
そして、これらのカテゴリ分類は、何れも第1実施形態において前提とした事前調査と同様の調査を経てプレーヤ類型に特定の情動反応誘発の観点から相関が取られており、音カテゴリ選択TBL434として記憶部300に記憶されている。
The audio data library 428B includes a plurality of main folders 430 (SFLD_001, SFLD_002...) For storing a plurality of audio data, and sound data 432 (SE_001, SE_002...) Such as sound effects. .
One main folder 430 includes a plurality of subfolders 431 (category α, category β,...) Classified according to the genre or temperament of audio, and each subfolder 431 stores a plurality of sound data. . In the present embodiment, the category classification of the subfolders 431 included in all the main folders 430 is common, but it is needless to say that the category classification may include different category classifications.
These category classifications are correlated with the player type from the viewpoint of inducing a specific emotional reaction through the same investigation as the pre-investigation assumed in the first embodiment, and stored as the sound category selection TBL434. Stored in the unit 300.

図46は、本実施形態における音カテゴリ選択TBL434のデータ構成例を示す図である。同図に示すように、音カテゴリ選択TBL434は、パーソナリティタイプ436毎に所望する情動反応を誘発するのに適当な選択カテゴリ438が対応付けて格納されている。   FIG. 46 is a diagram showing a data configuration example of the sound category selection TBL 434 in the present embodiment. As shown in the figure, the sound category selection TBL 434 stores a selection category 438 appropriate for inducing a desired emotional reaction for each personality type 436.

図47は、本実施形態において記憶部300に追加記憶されているフィルタTBL480のデータ構成例を示す図である。フィルタTBL480は、プレーヤ類型に応じてコンテンツの映像及び音声に適用するフィルタ処理の設定を定義する。
具体的には、パーソナリティタイプ482に対応付けて音声に適用するフィルタ処理設定として音高変更設定484と、テンポ変更設定486とを対応付けて格納している。また、映像に適用するフィルタ処理設定として画面の切り換え時に適用される映像効果を設定するトランジッション設定488と、色調変更設定489とを対応付けて格納している。これらのフィルタ処理の設定は、何れも第1実施形態で前提とした事前調査と同様の調査に基づいて得られたパーソナリティタイプ482毎に所望する情動反応を誘発し易くする相性に基づいて設定されている。
FIG. 47 is a diagram illustrating a data configuration example of the filter TBL 480 additionally stored in the storage unit 300 in the present embodiment. The filter TBL 480 defines settings for filter processing to be applied to content video and audio according to the player type.
Specifically, a pitch change setting 484 and a tempo change setting 486 are stored in association with each other as filter processing settings applied to the sound in association with the personality type 482. In addition, a transition setting 488 for setting a video effect applied at the time of screen switching and a color tone change setting 489 are stored in association with each other as filter processing settings to be applied to the video. All of these filter processing settings are set based on compatibility that facilitates inducing a desired emotional response for each personality type 482 obtained based on the same survey as the preliminary survey assumed in the first embodiment. ing.

例えば、パーソナリティタイプ「PS1」では音の高さ(音程)を少し高く、またテンポを僅かに速くすると同じ音楽であっても所望する情動反応(例えば「泣き」)を誘発しやすい傾向にあり、反対にパーソナリティ「PS2」では音程とテンポを僅かに下げると所望する情動反応を誘発しやすい傾向に有ることになる。また、パーソナリティタイプ「PS1」では画面切り換えの際にオーバラップを用いる場合、また色調を僅かにぼかしを入れてソフトにした場合には同じ映像であっても所望する情動反応を誘発しやすい傾向にあり、パーソナリティタイプ「PS2」では短時間でフェードアウト(F/O)→黒画面→フェードイン(F/I)の連続を用いる場合、また色調をセピアカラーにした場合に所望する情動反応を誘発しやすい傾向に有ることになる。そして、本実施形態における制御部100の音出力制御124(図9参照)は、音フィルタTBL480で設定されている音高変更やテンポ変更を実現するための公知の音変換フィルタ機能を備えるものとする。   For example, the personality type “PS1” tends to induce a desired emotional reaction (for example, “crying”) even if the music is the same when the pitch (pitch) is slightly higher and the tempo is slightly faster. On the other hand, in personality “PS2”, if the pitch and tempo are slightly lowered, the desired emotional reaction tends to be induced. The personality type “PS1” tends to induce a desired emotional reaction even when the same image is used when overlapping is used when switching screens, or when the color tone is slightly blurred and softened. Yes, the personality type “PS2” induces the desired emotional response when using a continuous fade-out (F / O) → black screen → fade-in (F / I) in a short time, or when the tone is set to sepia. It tends to be easy. The sound output control 124 (see FIG. 9) of the control unit 100 in this embodiment has a known sound conversion filter function for realizing the pitch change and tempo change set in the sound filter TBL480. To do.

図48は、本実施形態における第3質疑応答処理(第3質疑応答処理B)の流れを説明するためのフローチャートである。基本的には第1実施形態における第3質疑応答処理と同様であるが、ステップS196〜S200におけるプレーヤの心身状態に関する回答入力に基づく今回適用相性値範囲の変更処理の後、制御部100は第1液晶ディスプレイ1406にバーテンキャラクタBTがコンテンツ提供の希望所要時間を尋ねる画面を表示制御し、また第2液晶ディスプレイ1408に希望所要時間を入力する入力画面を表示制御する(ステップS202)。第2液晶ディスプレイ1408の入力画面で入力された結果は、希望所要時間として記憶部300に一時的に記憶される。   FIG. 48 is a flowchart for explaining the flow of the third question-and-answer process (third question-and-answer process B) in the present embodiment. Basically, it is the same as the third question and answer process in the first embodiment, but after the process of changing the current compatibility value range based on the response input regarding the player's mental and physical state in steps S196 to S200, the control unit 100 Display control is performed on the screen on which the bartender character BT asks the desired required time for content provision on the first liquid crystal display 1406, and the input screen for inputting the desired required time is displayed on the second liquid crystal display 1408 (step S202). The result input on the input screen of the second liquid crystal display 1408 is temporarily stored in the storage unit 300 as the desired required time.

制御部100は続いて第1実施形態と同様にステップS204以降、今回提示するコンテンツの具体的な選択処理を実行する。但し、本実施形態ではコンテンツの選択禁則に希望所要時間を超過しないことを含むので、コンテンツ基礎パラメータ値TBL370の所要時間383を参照して、ステップS206で選択されたコンテンツの所要時間が希望所要時間未満であるか否かを判定する(ステップS216)。そして、希望所要時間を超過する場合には(ステップS216のNO)、ステップS218〜S220へ移行する。
この結果、本実施形態によればユーザが希望する時間内でコンテンツの提示を終了することができる。換言するとユーザが認めた余暇時間に合わせて適当なコンテンツを提示することができる。
Subsequently, similarly to the first embodiment, the control unit 100 executes a specific selection process for the content to be presented this time after step S204. However, in the present embodiment, the content selection prohibition includes not exceeding the desired required time, so the required time of the content selected in step S206 is referred to with reference to the required time 383 of the content basic parameter value TBL370. It is determined whether it is less than (step S216). When the desired required time is exceeded (NO in step S216), the process proceeds to steps S218 to S220.
As a result, according to the present embodiment, the presentation of content can be completed within the time desired by the user. In other words, appropriate content can be presented in accordance with the leisure time allowed by the user.

図49は、本実施形態におけるコンテンツ提示処理(コンテンツ提示処理B)の流れを説明するためのフローチャートである。基本的には第1実施形態と同様に処理を実行するが、本実施形態ではコンテンツの映像及び音声に現時点において最も確度の高いユーザのパーソナリティタイプに合ったフィルタ処理を行う。
具体的には、コンテンツが終了していなければ(ステップS248のNO)、制御部100は提示対象となっているコンテンツのコンテンツデータ310Bを参照して、表示するべき画像(映像)を生成し、現時点におけるパーソナリティタイプ情報326の確度332(図10参照)を参照して最も確度の高いパーソナリティタイプ330を判定する。そして、フィルタTBL480を参照して判定したパーソナリティタイプに対応する色調変更設定489の設定に従って先に生成した画像の色調を変更し、色調変更した画像へトランジッション設定486の設定に従った画面切り換え方法で画面切り換え処理する(ステップS260)。
FIG. 49 is a flowchart for explaining the flow of content presentation processing (content presentation processing B) in the present embodiment. Basically, the processing is executed in the same manner as in the first embodiment, but in this embodiment, filtering processing suitable for the user's personality type with the highest accuracy at present is performed on the video and audio of the content.
Specifically, if the content has not ended (NO in step S248), the control unit 100 refers to the content data 310B of the content to be presented, generates an image (video) to be displayed, The personality type 330 with the highest accuracy is determined with reference to the accuracy 332 (see FIG. 10) of the personality type information 326 at the present time. Then, the color tone of the previously generated image is changed according to the setting of the color tone change setting 489 corresponding to the personality type determined with reference to the filter TBL 480, and the screen change method according to the setting of the transition setting 486 to the color changed image. Screen switching processing is performed (step S260).

次に、制御部100はシーケンスデータ416を参照し、再生対象とされる音声データが変更、且つ再生対象に音フォルダが設定されている場合(ステップS262のYES)、音カテゴリ選択TBL434から現時点において最も確度の高いパーソナリティタイプに対応する選択カテゴリ438の設定を参照し、参照したカテゴリのサブフォルダ431に格納されている複数の音声データの中から再生するものを一つランダム選択する(ステップS264)。
そして更に、フィルタTBL480を参照して、現時点において最も確度の高いパーソナリティタイプに対応する音高変更設定484に従って再生する音声の音の高さ(音程)を変更処理し、音程が変更された音声をテンポ変更設定486で設定されたテンポへ再生速度変更処理を実行して音出力する(ステップS266)。
尚、ステップS260及びS266で実行される各種フィルタ処理は適宜公知の画像処理や公知の音変換処理を用いることで実現できる。
Next, the control unit 100 refers to the sequence data 416, and when the audio data to be reproduced is changed and the sound folder is set as the reproduction object (YES in step S262), the sound category selection TBL 434 is referred to at the present time. With reference to the setting of the selection category 438 corresponding to the personality type with the highest degree of accuracy, one to be reproduced is randomly selected from a plurality of audio data stored in the subfolder 431 of the referenced category (step S264).
Further, with reference to the filter TBL480, the pitch (pitch) of the sound to be reproduced is changed according to the pitch change setting 484 corresponding to the personality type with the highest accuracy at the present time, and the voice whose pitch has been changed is processed. Playback speed change processing is executed to the tempo set in the tempo change setting 486, and sound is output (step S266).
The various filter processes executed in steps S260 and S266 can be realized by appropriately using known image processing and known sound conversion processing.

よって本実施形態によれば、コンテンツそのものに加えてコンテンツの画像・映像の切り換え処理や画像の色調などをプレーヤ類型に応じてより一層所望する情動反応を誘発するように後処理した上で表示させることができる。また、コンテンツの音声についても同様にプレーヤ類型に応じたフィルタ処理を施して出力することで、より情動反応を誘発し易くすることができる。   Therefore, according to the present embodiment, in addition to the content itself, the content image / video switching processing and the color tone of the content are post-processed and displayed so as to induce a more desired emotional reaction according to the player type. be able to. Similarly, the audio of the content can be filtered and output according to the player type, thereby making it easier to induce an emotional reaction.

〔第3実施形態〕
次に、本発明を適用した第3実施形態について説明する。本実施形態は、基本的には第2実施形態と同様の構成を有するが、コンテンツの進行操作入力方法が異なる。また、コンテンツ提示中におけるユーザの情動反応の分析手法が異なっている。
尚、本実施形態では第1及び第2実施形態と同様の構成要素については同じ符号を付与して説明は省略するものとする。
[Third Embodiment]
Next, a third embodiment to which the present invention is applied will be described. This embodiment basically has the same configuration as that of the second embodiment, but the content progression operation input method is different. Moreover, the analysis method of the user's emotional reaction during content presentation is different.
In the present embodiment, the same components as those in the first and second embodiments are denoted by the same reference numerals, and description thereof is omitted.

では先ず、コンテンツの進行操作入力方法について述べる。
図50は、本実施形態におけるコンテンツの画面構成と制御側の進行操作入力の受付タイミングとの関係を示す概念図であって、第1及び第2液晶ディスプレイへの表示画像例を表示順に縦配置した図である。同図に示すように、本実施形態のコンテンツも、第1実施形態と同様に予め設定された画面や映像の区切りを順次表示して進行する(PICT_001→TEXT_001→PICT_002→TEXT_002→・・・)。提示進行の一区切りの単位を便宜上本明細書では「カット」と呼ぶこととするが、提示単位は映像業界用語でいうところの「カット」に限るものではなく「シーン」であっても良いのは勿論である。
First, a method for inputting a content progression operation will be described.
FIG. 50 is a conceptual diagram showing the relationship between the screen structure of content and the timing of accepting a forward operation input on the control side in the present embodiment, and is vertically arranged in the display order of display image examples on the first and second liquid crystal displays. FIG. As shown in the figure, the content of the present embodiment also proceeds by sequentially displaying preset screens and video breaks in the same manner as in the first embodiment (PICT_001 → TEXT_001 → PICT_002 → TEXT_002 →...). . A unit of presentation progress is referred to as “cut” in this specification for the sake of convenience, but the presentation unit is not limited to “cut” in terms of video industry terms, but may be “scene”. Of course.

さて本実施形態では、一のカットを表示完了(提示完了)した後、進行操作入力の受付タイミングが開始され、制御部100は進行操作入力の有無を監視する。つまり、所定のボタンスイッチ1404の押下、又はスタイラスペン1416によるタッチ操作の有無の判定を開始する。そして、受付タイミング中に進行操作入力が有ったと判定したならば、制御部100はコンテンツが終了するまで次のカットの提示処理つまり表示制御を実行する構成となっている。   Now, in this embodiment, after the display of one cut is completed (presentation completion), the reception timing of a progress operation input is started, and the control part 100 monitors the presence or absence of a progress operation input. That is, it is determined whether or not a predetermined button switch 1404 is pressed or a stylus pen 1416 is touched. If it is determined that there is a progress operation input during the reception timing, the control unit 100 is configured to execute the next cut presenting process, that is, display control until the content ends.

また、本実施形態のコンテンツで、1カットの提示完了に要する提示所要時間は概ね同じとなるように設定されている。これを標準カットと呼ぶ。しかし、その一方で本実施形態では標準カットよりも意図的に長く(例えば、2倍以上に)設定された特別カットが、所望する情動反応を誘発させる想定箇所(例えば、泣き所・笑い所)に設定されている。この特別カットは、提示所要時間分全てを見切るのが情動を誘発するために必要な画面・映像であるが、当該カットの提示開始から数秒を見ればその内容を理解できる演出が施されている。   In the content of the present embodiment, the required presentation time required for completing the presentation of one cut is set to be substantially the same. This is called a standard cut. However, on the other hand, in this embodiment, a special cut that is intentionally set longer (for example, twice or more) than the standard cut is used in an assumed location (for example, a crying place or a laughing place) that induces a desired emotional reaction. Is set. This special cut is a screen / video that is necessary to induce emotion to see all the required presentation time, but if you look a few seconds from the start of the presentation of the cut, there is an effect that can understand the contents .

具体的には、例えば図51(a)に示すように、第1液晶ディスプレイ1406と第2液晶ディスプレイ1408を二つで一つの画面と見立てて、上下の一方から他方へカメラがパンするかのような画面が挙げられる。図51(b)に示すように、第1液晶ディスプレイ1406と第2液晶ディスプレイ1408それぞれに異なる被写体が相反する方向からフレームインするような画面や、二つで一つの画面と見立てて構成された一枚の感動的なイメージシーンであっても良い。   Specifically, for example, as shown in FIG. 51A, the first liquid crystal display 1406 and the second liquid crystal display 1408 are regarded as one screen, and the camera pans from one to the other. Such a screen. As shown in FIG. 51 (b), the first liquid crystal display 1406 and the second liquid crystal display 1408 are configured so that different subjects are framed in from opposite directions, or two screens are regarded as one screen. It may be a moving image scene.

こうした特別カットは、所望する情動反応を示しているプレーヤ、或いは情動反応を示しつつあるプレーヤ(具体的には、泣いている、泣きそうになっているプレーヤ)は提示所要時間分全てを見切る傾向が強い。その背景にあるのは、感動する良い作品なのであるからあまさず十分楽しみたいという感情である。従って、コンテンツ提示時間中の進行操作入力のタイミングに着目すれば、提示所要時間の長短(特別カット/標準カット)に係わらず進行操作入力の受付タイミングで進行操作入力がなされる、或いは感動のあまりにその進行操作入力すら忘れる・遅れると言った結果を生む。
反対に、コンテンツになんら感動する気配が無く所望する情動反応を示していないプレーヤにとってみれば、内容が一瞥で分かるので演出に付き合うよりも先を急いだ方が良いと感じられ、提示所要時間内途中の受付タイミング外であっても進行操作入力をしてしまう傾向が強い。
Such a special cut tends to give up all the required time for a player who shows a desired emotional reaction or a player who is showing an emotional reaction (specifically, a player who is crying or about to cry). Is strong. The reason behind this is the feeling that I want to enjoy it enough because it is a good work that impresses me. Therefore, if attention is paid to the timing of the progress operation input during the content presentation time, the progress operation input is made at the timing of accepting the progress operation input regardless of the time required for the presentation (special cut / standard cut), or the impression is too much. Forgetting even the operation input and producing the result that it is delayed.
On the other hand, for players who do not have any impression of the content and do not show the desired emotional response, it is better to hurry ahead than the production because the contents can be understood at a glance, and within the required time for presentation There is a strong tendency to input a progress operation even when it is outside the reception timing.

また、本実施形態では公知の音声認識技術を用いた音声入力による進行操作入力も可能である。具体的には、制御部100はマイクロフォン1420からの音響信号を周波数成分分析する機能を有する。また、記憶部300には、所定の言語発音パターン(例えば「次」)が発音されたことを音声認識するための辞書データを予め記憶している。そして、マイクロフォン1420から出力された音声信号の周波数成分の特徴量が、辞書データのそれと合致する場合には、制御部100は進行操作入力が成されたと判定する。   In this embodiment, it is also possible to input a progress operation by voice input using a known voice recognition technique. Specifically, the control unit 100 has a function of analyzing the frequency component of the acoustic signal from the microphone 1420. The storage unit 300 stores in advance dictionary data for voice recognition that a predetermined language pronunciation pattern (for example, “next”) is pronounced. When the feature amount of the frequency component of the audio signal output from the microphone 1420 matches that of the dictionary data, the control unit 100 determines that a progress operation input has been made.

次に、情動反応の分析手法について説明する。
本実施形態における情動反応分析の手法としては、(1)プレイ中にプレーヤがたてる音や外部環境音に基づく第1分析手法、(2)携帯ゲーム装置1400の姿勢変化や位置変化に基づく第2分析手法、(3)コンテンツを進行操作入力が検出された都度、順次進行する構成として進行操作入力の入力間隔に基づく第3分析手法、を併用する。第1分析手法は、公知の音響分析や音声分析技術によって実現される。
尚、これら第1〜第3分析手法及び第1実施形態におけるコンテンツを操作入力が為されている間、自動的に進行する構成として進行操作入力の断続時間等に基づく分析手法は相互に代替可能であり、これらの内の単独又は複数を組み合わせることで情動反応分析処理を実現できる。
Next, an emotional reaction analysis method will be described.
The emotion reaction analysis method in the present embodiment includes (1) a first analysis method based on sounds made by the player and external environmental sounds during play, and (2) a first analysis method based on posture changes and position changes of the portable game device 1400. 2 analysis method, (3) The third analysis method based on the input interval of the progress operation input is used in combination as the configuration of proceeding sequentially every time the progress operation input is detected. The first analysis method is realized by a known acoustic analysis or voice analysis technique.
In addition, the analysis method based on the intermittent time of the progress operation input and the like can be replaced with each other as a configuration that automatically proceeds while the operation input is performed on the contents in the first to third analysis methods and the first embodiment. The emotional reaction analysis process can be realized by combining one or more of them.

図52は、本実施形態における機能構成の例を示す機能ブロック図である。
本実施形態では情動反応分析用の第1分析手法を実現するために、制御部100が音響分析処理を実行する音響分析部132を含むとともに、記憶部300が音響基準パターンTBL470を記憶している。
音響基準パターンTBL470は、マイクロフォン1420で検出された音の周波数分布パターンと比較する基準パターン(音響モデルに相当)を格納する。本実施形態では、所望する情動反応として「泣き」を誘発することを目的としているので、音響基準パターンTBL470には人が泣いていることによって生じる音、具体的には例えば、進行操作入力する所定言語パターンを泣いた状態で発音したもの、泣き声、嗚咽、鼻水をすする音等を判定するための基準パターンが多数記憶されている。
音響分析部132は、音検出部104で検出・出力された音響信号をスペクトル分解処理して検出した音の周波数成分の分布情報や、特定音響パターンの出現パターン(例えば、泣き声や嗚咽、笑い声に見られる抑揚や特定音響パターンの繰り返し)を抽出する。そして、音響基準パターンTBL470に格納されている基準パターンと抽出した分布情報や出現パターンなどを比較して、ユーザが所望する情動反応を示しているか否かを判定する。
FIG. 52 is a functional block diagram illustrating an example of a functional configuration according to the present embodiment.
In the present embodiment, in order to realize the first analysis method for emotion reaction analysis, the control unit 100 includes an acoustic analysis unit 132 that executes acoustic analysis processing, and the storage unit 300 stores the acoustic reference pattern TBL 470. .
The acoustic reference pattern TBL 470 stores a reference pattern (corresponding to an acoustic model) to be compared with the frequency distribution pattern of the sound detected by the microphone 1420. In this embodiment, since the purpose is to induce “crying” as a desired emotional reaction, the acoustic reference pattern TBL 470 is a sound generated when a person is crying. A large number of reference patterns for determining a language pattern that is pronounced in a state of crying, a cry, a sore throat, a runny nose, and the like are stored.
The acoustic analysis unit 132 converts the frequency signal distribution information detected by the spectral decomposition processing of the acoustic signal detected and output by the sound detection unit 104 and the appearance pattern of a specific acoustic pattern (for example, crying, throat, laughter) Extract inflections and repetitions of specific acoustic patterns). Then, the reference pattern stored in the acoustic reference pattern TBL 470 is compared with the extracted distribution information, appearance pattern, and the like to determine whether or not the emotional reaction desired by the user is indicated.

また、本実施形態では前述の第2分析手法を実現するために、位置姿勢変化基準パターンTBL472を記憶する。位置姿勢変化基準パターンTBL472は、所望する情報反応を示している人間が保持している状態において携帯ゲーム装置1400に作用する姿勢変化や位置変化の基準パターンを格納している。例えば泣いている際の手指の振動パターン等を格納している。   In the present embodiment, the position / orientation change reference pattern TBL472 is stored in order to realize the second analysis method described above. The position / orientation change reference pattern TBL 472 stores a reference pattern of attitude change or position change that acts on the portable game apparatus 1400 in a state held by a human showing a desired information reaction. For example, a vibration pattern of a finger when crying is stored.

図53は、本実施形態におけるコンテンツ提示処理(コンテンツ提示処理C)の処理の流れを説明するためのフローチャートである。本実施形態では、選択されたコンテンツの提示がスタートしたならば(ステップS234)、制御部100は第1情動反応分析処理(ステップS238)、第2情動反応分析処理(ステップS240)、第3情動反応分析処理(ステップS242)を実行する。   FIG. 53 is a flowchart for explaining the flow of the content presentation processing (content presentation processing C) in the present embodiment. In the present embodiment, when the presentation of the selected content starts (step S234), the control unit 100 performs the first emotion reaction analysis process (step S238), the second emotion reaction analysis process (step S240), and the third emotion. A reaction analysis process (step S242) is executed.

図54は、本実施形態における第1情動反応分析処理の流れについて説明するためのフローチャートである。第1情動反応処理では先ず、マイクロフォン1420から出力される音響信号を周波数成分分析して、分析結果を記憶部300に一時的に記憶する(ステップS340)。そして、分析結果が所定時間分蓄積したならば(ステップS342のYES)、蓄積された分析結果から周波数分布パターンを生成して音響基本パターンTBL470に格納されている基準パターンと比較・照合する(ステップS344)。そして、比較照合の結果、類似性が高く合致すると判定できる場合には(ステップS346のYES)、制御部100は所望する情動反応を示していると判断する。つまり、音響分析によって泣き声や嗚咽、泣きによる鼻水のすすり音などの発生を判定し、該当した場合にはプレーヤが、所望する情動反応(=製作サイド狙っていた情動反応)を示していると判断する。そして、記憶部300に設定された情動反応発生フラグを立てる(ステップS348)。   FIG. 54 is a flowchart for explaining the flow of the first emotion reaction analysis process in the present embodiment. In the first emotion reaction process, first, an acoustic signal output from the microphone 1420 is subjected to frequency component analysis, and the analysis result is temporarily stored in the storage unit 300 (step S340). If the analysis results are accumulated for a predetermined time (YES in step S342), a frequency distribution pattern is generated from the accumulated analysis results and compared with a reference pattern stored in the acoustic basic pattern TBL 470 (step) S344). Then, as a result of the comparison and collation, when it can be determined that the similarity is high (YES in step S346), the control unit 100 determines that the desired emotional reaction is indicated. In other words, acoustic analysis determines the occurrence of crying, sore throats, and spilling snots from crying. If applicable, it is determined that the player shows the desired emotional response (= emotional response aimed at the production side). To do. Then, the emotional reaction occurrence flag set in the storage unit 300 is set (step S348).

図55は、本実施形態における第2情動反応分析処理の流れについて説明するためのフローチャートである。第2情動反応分析処理では、制御部100は先ず3軸加速度センサ1422から出力される加速度検出信号から3軸の加速度値を算出し記憶部300に一時的に記憶する(ステップS360)。そして、加速度値を所定時間分蓄積したならば(ステップS362のYES)、蓄積された加速度値から所定時間の範囲における携帯ゲーム装置1400の位置姿勢変化の特徴量を算出する(ステップS364)。特徴量としては、位置や姿勢の振れ量・振れの出現時間間隔、所定時間半以内における持続時間と言ったパラメータを利用することができる。   FIG. 55 is a flowchart for explaining the flow of the second emotional reaction analysis process in the present embodiment. In the second emotional reaction analysis process, the control unit 100 first calculates a triaxial acceleration value from the acceleration detection signal output from the triaxial acceleration sensor 1422 and temporarily stores it in the storage unit 300 (step S360). If the acceleration value is accumulated for a predetermined time (YES in step S362), the feature amount of the position and orientation change of the portable game device 1400 in the range of the predetermined time is calculated from the accumulated acceleration value (step S364). As the feature amount, it is possible to use parameters such as the shake amount of the position and orientation, the appearance time interval of the shake, and the duration within a predetermined half hour.

そして、位置姿勢変化基準パターンTBL472に格納されている特徴量の基本パターンと比較し、合致している基本パターンが有れば(ステップS366のYES)、制御部100はプレーヤが、製作サイドが誘発させたいと所望していた情動反応を示していると判断する。
具体的には、例えば泣いているにも係らずあるモノを一定の姿勢を保って保持し続けたときに見られる姿勢や位置のズレにみられる振れ量や振れの出現時間間隔とその持続時間が基本パターンに合致すれば、制御部100はプレーヤが泣いていると判断する。逆に、振れ量が小さく小刻みに出現するが連続時間が所定基準より短い場合には移動中の車内での使用等外部環境の振動要因によるものと判断する。また、基準より大きい振れ量が単発的に出現する場合は、ユーザが姿勢を変えて生じた位置や姿勢の変化であると判断する。そして、記憶部300に情動反応発生フラグを立てる(ステップS368)。
尚、各判定における基準振幅や基準時間は例えば、大人と子供、年配者と若年者と言ったように想定されるユーザ層に応じて適宜設定すると良い。
Then, if there is a matching basic pattern (YES in step S366), it is compared with the basic pattern of the feature amount stored in the position / orientation change reference pattern TBL472, and the control unit 100 triggers the player and the production side. It is judged that the desired emotional reaction is desired.
Specifically, for example, the amount of shake and the appearance time interval of the shake and the duration of the shake seen when the object is kept holding a certain posture in spite of crying, and its duration If it matches the basic pattern, the control unit 100 determines that the player is crying. On the contrary, if the amount of shake is small and appears in small increments, but the continuous time is shorter than the predetermined reference, it is determined that it is due to a vibration factor of the external environment such as use in a moving vehicle. In addition, when a shake amount larger than the reference appears once, it is determined that the change in position or posture is caused by the user changing his / her posture. Then, an emotional reaction occurrence flag is set in the storage unit 300 (step S368).
It should be noted that the reference amplitude and the reference time in each determination may be appropriately set according to the assumed user group, for example, adults and children, elderly people and young people.

図56は、本実施形態における第3情動反応分析処理の流れを説明するためのフローチャートである。第3情動反応分析処理では、制御部100は先ずコンテンツデータ410B(図45)を参照して、現在提示中のカットの提示所要時間が標準カットよりも意図的に長尺に設定された特別カットであるか否かを判定する(ステップS390)。具体的には、シーケンスデータ416を参照して、今回提示するカットが設定されているタイムライン418から提示所要時間を算出し所定の基準値と比較するとしても良いし、表示データライブラリ426において該当する表示データに特定のフラグを予め設定しておき、このフラグを参照することで判定するとしても良い。   FIG. 56 is a flowchart for explaining the flow of the third emotional reaction analysis process in the present embodiment. In the third emotional reaction analysis process, the control unit 100 first refers to the content data 410B (FIG. 45), and the special cut in which the required time for presently presenting the cut is intentionally set longer than the standard cut. It is determined whether or not (step S390). Specifically, referring to the sequence data 416, the required time for presentation may be calculated from the timeline 418 in which the cut to be presented this time is set, and compared with a predetermined reference value. A specific flag may be set in advance in the display data to be determined, and the determination may be made by referring to this flag.

特別なカットであり、且つ当該カットが提示途中である場合(ステップS390のYES)、制御部100は受付タイミング外ではあるが進行操作入力の有無を監視する。そして、進行操作入力が有ったならば(ステップS392のYES)、プレーヤは現在提示過程にあるカットを時間をかけて見るまでもなくストーリを先に進めたがった、つまり感動の程度が低く所望する情動反応を示していないと判断し、記憶部300に否定反応フラグを立て(ステップS394)、第3情動反応分析処理を終了する。   When the cut is a special cut and the cut is being presented (YES in step S390), the control unit 100 monitors whether there is a progress operation input although it is outside the reception timing. If there is a progress operation input (YES in step S392), the player wants to proceed with the story first without taking time to see the cut currently being presented, that is, the degree of impression is low and desired. It is determined that the emotional reaction to be performed is not indicated, a negative reaction flag is set in the storage unit 300 (step S394), and the third emotional reaction analysis process is terminated.

一方、現在提示中のカットが標準カット、且つ該カットが提示終了している場合(ステップS390のYES)、制御部100は受付タイミングを開始して進行操作入力の有無を監視する。そして、進行操作時間間隔カウンタ468が計時スタートされていなければ(ステップS398のNO)、進行操作時間間隔カウンタ468をリセットの後スタートさせる(ステップS400)。
そして、受付タイミング中に進行操作入力を検知し、且つ進行操作時間間隔カウンタ468のカウント値が所定の基準値(例えば、15秒程度)を超過している場合(ステップS402のYES)、ユーザが所望する情動反応を示しているあまりに進行操作入力の入力が一時的に途絶えていると判断して、記憶部300に情動反応発生フラグを立て(ステップS404)、進行操作時間間隔カウンタ468のカウントを停止して第3情動反応分析処理を終了する。
On the other hand, when the cut currently being presented is a standard cut and the cut has been presented (YES in step S390), the control unit 100 starts the reception timing and monitors whether there is a progress operation input. If the progress operation time interval counter 468 has not been started (NO in step S398), the advance operation time interval counter 468 is started after being reset (step S400).
When the progress operation input is detected during the reception timing and the count value of the progress operation time interval counter 468 exceeds a predetermined reference value (for example, about 15 seconds) (YES in step S402), the user It is determined that the input of the progress operation input indicating the desired emotional reaction is temporarily interrupted, an emotional reaction occurrence flag is set in the storage unit 300 (step S404), and the count of the progress operation time interval counter 468 is counted. Stop and end the third emotional reaction analysis process.

図53のフローチャートにもどって、制御部100は次に現在提示対象のカットの提示が完了しているか否かを判定する(ステップS244)。提示が未完の場合(ステップS244のNO)、制御部100は第2実施形態のステップS260〜S266と同様の処理を実行する。つまり、提示対象の画像と音声を対象としてパーソナリティタイプに対応したフィルタ処理を施して画像表示出力或いは音出力処理する(ステップS257)。   Returning to the flowchart of FIG. 53, the control unit 100 next determines whether or not the presentation of the cut to be presented is completed (step S244). When the presentation is incomplete (NO in step S244), the control unit 100 executes the same processing as steps S260 to S266 of the second embodiment. That is, a filter process corresponding to the personality type is applied to the presentation target image and sound to perform image display output or sound output processing (step S257).

一方、提示が完了している場合(ステップS244のYES)、制御部100は進行操作入力されたか否かを判定する。カットの提示が完了し、且つ進行操作入力された場合には(ステップS246のYES)、更に現在提示中のコンテンツが終了したか否かを判定する(ステップS248)。
コンテンツが終了していない場合(ステップS248のNO)、制御部100はコンテンツデータ410Bを参照して次に提示するカットとその音声を選択し(ステップS253)、選択したカットと音声を対象にして第2実施形態と同様にしてパーソナリティタイプに対応したフィルタ処理をして出力処理する(ステップS257)。そして、ステップS238に移行する。
On the other hand, when the presentation has been completed (YES in step S244), the control unit 100 determines whether or not a progress operation is input. When the presentation of the cut is completed and a progress operation is input (YES in step S246), it is further determined whether or not the content currently being presented has ended (step S248).
If the content has not ended (NO in step S248), the control unit 100 refers to the content data 410B, selects the next cut to be presented and its sound (step S253), and targets the selected cut and sound. Similarly to the second embodiment, the filter processing corresponding to the personality type is performed and output processing is performed (step S257). Then, the process proceeds to step S238.

一方、コンテンツに提示すべき次のカットが無い場合にはコンテンツが終了したと判断して(ステップS248のYES)、制御部100は記憶部300に記憶されている情動反応発生フラグ及び否定反応フラグの値を参照する。
情動反応発生フラグが「0」の場合、又は否定反応フラグが「1」の場合、(ステップS270のYES)、前者は第1〜第3情動反応分析処理においてユーザが今回のコンテンツ提示で全く泣いた形跡がないと分析されたことを意味するので、次回のコンテンツ提示ではより高い確率で泣けるコンテンツを選択できるように、次回適用相性値範囲334(図10参照)を所定量だけ縮小するように変更する(ステップS272)。また、後者の場合は所望する情動反応が示されないばかりか、否定的な反応がされていると判断して、同様に次回適用相性値範囲334を所定量だけ縮小するように変更する。
On the other hand, if there is no next cut to be presented to the content, it is determined that the content has ended (YES in step S248), and the control unit 100 stores the emotional reaction occurrence flag and negative reaction flag stored in the storage unit 300. Refers to the value of.
When the emotional reaction occurrence flag is “0” or the negative reaction flag is “1” (YES in step S270), the former is completely crying by presenting the content in the first to third emotional reaction analysis processes. The next compatibility value range 334 (see FIG. 10) is reduced by a predetermined amount so that the content that can be cryed with a higher probability can be selected in the next content presentation. Change (step S272). In the latter case, it is determined that not only the desired emotional reaction is shown, but also a negative reaction is made, and similarly, the next applied compatibility value range 334 is changed to be reduced by a predetermined amount.

一方、情動反応発生フラグが「1」で有る場合(ステップS274)、制御部100は今回のコンテンツ提示で泣いてもらえたと判断して、次回は多少相性値が下がっても良いのでより広い選択範囲からコンテンツを選択できるように、次回適用相性値範囲334を所定量だけ拡大するように変更し(ステップS276)、コンテンツ提示処理Cを終了する。   On the other hand, if the emotional reaction occurrence flag is “1” (step S274), the control unit 100 determines that the present content has been cryed, and the next time the compatibility value may be lowered somewhat, so a wider selection range. Next, the next compatibility value range 334 is changed to be expanded by a predetermined amount so that the content can be selected (step S276), and the content presentation process C is terminated.

以上、本実施形態によればコンテンツ提示中における情動反応をより多角的に分析し、次回に適用されるコンテンツ選択の閾値条件へのフィードバック精度を高めることができる。   As described above, according to the present embodiment, emotional reactions during content presentation can be analyzed from various perspectives, and the feedback accuracy to the threshold condition for content selection to be applied next time can be improved.

〔第4実施形態〕
次に、本発明を適用した第4実施形態について説明する。本実施形態は、基本的に第3実施形態と同様の構成を有するが、情動反応分析の結果をプレーヤ類型の判定にフィードバックする構成を有する点を特徴とする。尚、第1〜第3実施形態と同様の構成要素については同じ符号を付与して説明は省略するものとする。
[Fourth Embodiment]
Next, a fourth embodiment to which the present invention is applied will be described. This embodiment basically has the same configuration as that of the third embodiment, but is characterized in that it has a configuration that feeds back the result of emotion reaction analysis to determination of the player type. In addition, about the component similar to 1st-3rd embodiment, the same code | symbol is provided and description shall be abbreviate | omitted.

図57は、本実施形態における機能ブロックの構成例の一部を示す部分機能ブロック図であって、記憶部300を示している。
本実施形態では、情動反応分析結果をプレーヤ類型の判定にフィードバックするために、パーソナリティ判定用の決定木に関する情報が複数セット用意されている。この複数の決定木は、分岐構造が必ずしも同じではないが、診断結果として行き着くパーソナリティタイプは同じとなるように設定されている。
FIG. 57 is a partial functional block diagram showing a part of a functional block configuration example according to the present embodiment, and shows the storage unit 300.
In this embodiment, a plurality of sets of information related to decision trees for personality determination are prepared in order to feed back the emotional reaction analysis results to player type determination. The plurality of decision trees are not necessarily the same in the branch structure, but are set to have the same personality type as a result of diagnosis.

複数の決定木をそれぞれ利用可能にするために、本実施形態における記憶部300には複数のパーソナリティ判定用質問データ350−1、350−2・・・350−n(nは自然数)が記憶されている。一のパーソナリティ判定質問データ350−nは、パーソナリティ判定用の一セットの質問集として完成されているが、異なるセット間を比較すると質問の内容が異なっている。また、記憶部300にはパーソナリティ判定用質問データ350−nに一対一に対応する複数の分岐条件TBL360−1、360−2・・・360−n(nは自然数)が記憶されている。   In order to make each of a plurality of decision trees available, a plurality of personality determination question data 350-1, 350-2,... 350-n (n is a natural number) are stored in the storage unit 300 in the present embodiment. ing. One personality determination question data 350-n is completed as a set of questions for personality determination, but the contents of the questions differ when different sets are compared. The storage unit 300 stores a plurality of branch conditions TBL360-1, 360-2,... 360-n (n is a natural number) corresponding to the personality determination question data 350-n on a one-to-one basis.

また、図58に示すように、本実施形態におけるユーザ登録データ310Dは、基本的にはユーザ登録データ310と同様の構成を有するが、現在どのパーソナリティ判定用の決定木を適用しているかを示す適用決定木識別情報327をパーソナリティタイプ情報326に含んでいる。この適用決定木識別情報327には、パーソナリティ判定用質問データ350−n及び分岐条件TBL360−nと一対一に対応する識別情報が格納される。   As shown in FIG. 58, the user registration data 310D in the present embodiment has basically the same configuration as the user registration data 310, but indicates which personality determination tree is currently applied. The application decision tree identification information 327 is included in the personality type information 326. The application decision tree identification information 327 stores identification information corresponding to the personality determination question data 350-n and the branch condition TBL 360-n in a one-to-one relationship.

図59は、本実施形態におけるコンテンツ提示処理(コンテンツ提示処理D)の流れを説明するためのフローチャートである。基本的には第3実施形態のコンテンツ提示処理Cと同様の流れを有するが、コンテンツ提示処理の終了前に情動反応分析結果フィードバック処理を実行する(ステップS278)。   FIG. 59 is a flowchart for explaining the flow of content presentation processing (content presentation processing D) in the present embodiment. Although the flow is basically the same as the content presentation process C of the third embodiment, the emotional reaction analysis result feedback process is executed before the content presentation process is completed (step S278).

図60は、本実施形態における情動反応分析結果フィードバック処理の流れを説明するためのフローチャートである。情動反応分析結果フィードバック処理では先ず、制御部100は情動反応発生フラグと否定反応フラグを参照する。前者が「0」で且つ後者が「1」である場合(ステップS420のYES)、つまり提示したコンテンツに全く情動が反応もせずむしろ特別カットを飛ばすほど否定的な反応であったと判断された場合、制御部100はユーザ登録データ310Dのパーソナリティタイプ情報326の決定木分岐点番号328と、適用決定木識別情報327とを参照する。そして、適用決定木識別情報327の示す決定木において決定木分岐点番号328の示す分岐点の位置が該決定木の末端近くの分岐点に該当するか否かを判定する(ステップS422)。具体的な判定基準は決定木の構造によるが、例えば、現在位置する分岐点の先の少なくとも一方の分岐先に他の分岐点がパーソナリティを決定する末端である場合にはその末端の分岐点に該当すると判断しても良い。或いは、分岐回数が基準値を超えていれば末端の分岐点と判断するとしても良い。   FIG. 60 is a flowchart for explaining the flow of the emotion reaction analysis result feedback process in the present embodiment. In the emotional reaction analysis result feedback process, first, the control unit 100 refers to the emotional reaction occurrence flag and the negative reaction flag. When the former is “0” and the latter is “1” (YES in step S420), that is, when it is determined that the emotion does not react at all to the presented content, but rather the reaction is negative enough to skip the special cut The control unit 100 refers to the decision tree branch point number 328 of the personality type information 326 of the user registration data 310D and the application decision tree identification information 327. Then, it is determined whether or not the position of the branch point indicated by the decision tree branch point number 328 corresponds to the branch point near the end of the decision tree in the decision tree indicated by the applied decision tree identification information 327 (step S422). The specific criterion depends on the structure of the decision tree.For example, if the other branch point is the terminal that determines the personality at least one of the branch points ahead of the current branch point, the branch point at that terminal is determined. You may judge it to be true. Alternatively, if the number of branches exceeds the reference value, it may be determined that the terminal branch point.

末端の分岐点に該当すると判定した場合には(ステップS422のYES)、制御部100はパーソナリティ判定の結果が芳しくないと判断する。そこで、現在適用されている決定木を別の決定木に変更して、次回プレイでは別の決定木に基づくパーソナリティ判定を実行できるようにする。具体的には、適用決定木識別情報327を異なる決定木の識別情報に変更し(ステップS424)、決定木分岐点番号328と各パーソナリティタイプに対応する確度332を初期化して(ステップS426)、情動反応分析結果フィードバック処理を終了する。   If it is determined that it corresponds to the terminal branch point (YES in step S422), the control unit 100 determines that the personality determination result is not good. Therefore, the decision tree currently applied is changed to another decision tree so that the personality determination based on another decision tree can be executed in the next play. Specifically, the applied decision tree identification information 327 is changed to different decision tree identification information (step S424), the decision tree branch point number 328 and the accuracy 332 corresponding to each personality type are initialized (step S426), The emotion reaction analysis result feedback processing is terminated.

この結果、情動反応分析の分析結果を加味したプレーヤ類型の判定を実現できる。具体的には、パーソナリティタイプの判定とコンテンツ提示中におけるプレーヤの実際の反応とがミスマッチ(不適合)である場合に、今までのパーソナリティ判定に固執せず別のアプローチから再度パーソナリティ判定を行うことでユーザメリットを確保することができる。   As a result, it is possible to realize player type determination in consideration of the analysis result of emotion reaction analysis. Specifically, when the personality type determination and the player's actual reaction during content presentation are mismatched (non-conformity), the personality determination is performed again from another approach without sticking to the previous personality determination. User merit can be secured.

尚、本実施形態の情動反応分析結果フィードバック処理では決定木そのものを変更する構成としたがこれに限らず、例えばパーソナリティ判定のプロセスを過去の状態に戻って別の質問でやり直す構成とすることもできる。
例えば図61のパーソナリティ判定用質問データ350Eのように、一つの決定木分岐点番号352に複数の質問データ(第1質問データ354−1〜第m質問データ354−m:mは自然数)を用意しておく。同一の決定木分岐点番号352に対応する質問は、言葉の表現の仕方やシチュエーションなどが異なってもパーソナリティ判定に於ける意義は同じものである。
In the emotional reaction analysis result feedback processing of this embodiment, the decision tree itself is changed. However, the present invention is not limited to this. it can.
For example, a plurality of pieces of question data (first question data 354-1 to m-th question data 354 -m, where m is a natural number) are prepared for one decision tree branch point number 352 as in the personality determination question data 350 </ b> E of FIG. 61. Keep it. Questions corresponding to the same decision tree branch point number 352 have the same meaning in personality determination even if the way of expressing words and situations differ.

また、ユーザ登録データ310Dには、決定木分岐点番号328に代えて、分岐履歴情報329を格納する。分岐履歴情報329は、例えば図62に示すように、分岐点履歴329aと質問データ識別329bとを対応づけて格納する。この質問データ識別329bには「第1質問データ」〜「第m質問データ」の何れかの識別子が格納される。制御部100は、次回の第2質疑応答処理(図25参照)のステップS68において、分岐履歴情報329の最新の分岐履歴329aに対応する質問データ識別329bに格納されている識別子と同識別子の質問データをパーソナリティ判定用質問データ350Eより読み出す。   In addition, branch history information 329 is stored in the user registration data 310D instead of the decision tree branch point number 328. For example, as shown in FIG. 62, the branch history information 329 stores a branch point history 329a and a question data identification 329b in association with each other. The question data identification 329b stores any identifier of “first question data” to “m-th question data”. In step S68 of the next second question-and-answer process (see FIG. 25), the control unit 100 uses the same identifier as the identifier stored in the question data identification 329b corresponding to the latest branch history 329a of the branch history information 329. Data is read from the personality determination question data 350E.

図63は、情動反応分析結果フィードバック処理の変形例(情動反応分析結果フィードバック処理E)の流れを説明するためのフローチャートである。同図に示すように、情動反応発生フラグが「0」又は否定反応フラグが「1」の場合(ステップS440のYES)、制御部100が分岐履歴情報329の最新の分岐点履歴329a及び質問データ識別329bを削除変更する(ステップS442)。そして、変更後の分岐履歴情報329の最新履歴に対応する質問データ識別329bを現在格納されている識別とは異なる識別に変更して(ステップS444)。情動反応分析結果フィードバック処理を終了する。
すると、次回の第2質疑応答処理では、分岐点が一つ前の位置に戻ることになり、ステップS444において変更された質問データ識別329bと同識別子の質問データが質疑されることになる。結果、分岐点を一つ前に戻るとともにパーソナリティ判定の意義としては同じであるが異なる表現の質問が改めて質疑されることで、別のアプローチで再度パーソナリティ判定する機会を作ることができる。
尚、ここでは分岐点を一つ前に戻るとしたがこれに限らず、決定木の構造に応じて適宜戻る数を設定することができ、また、分岐点それぞれの毎に戻り先の分岐点を設定することとしてもよい。
FIG. 63 is a flowchart for explaining the flow of a modification of the emotion reaction analysis result feedback process (emotion reaction analysis result feedback process E). As shown in the figure, when the emotional reaction occurrence flag is “0” or the negative reaction flag is “1” (YES in step S440), the control unit 100 updates the latest branch point history 329a and the question data in the branch history information 329. The identification 329b is deleted and changed (step S442). Then, the question data identification 329b corresponding to the latest history of the branch history information 329 after the change is changed to an identification different from the currently stored identification (step S444). The emotion reaction analysis result feedback processing is terminated.
Then, in the next second question and answer process, the branch point returns to the previous position, and the question data having the same identifier as the question data identification 329b changed in step S444 is questioned. As a result, it is possible to return to the previous branch point and to ask questions of different expressions that are the same in terms of the personality determination but have a different opportunity to make another personality determination opportunity using another approach.
In this example, the branch point is returned to the previous one. However, the present invention is not limited to this, and the number of return points can be set as appropriate according to the structure of the decision tree. It is good also as setting.

また別のフィードバックの方法としては、情動反応分析の結果、コンテンツ提示中に所望する情動反応が示されたと判定した場合には、現在のパーソナリティタイプ別の確度332の最大値と最小値との差を大きくするように変更することで実現しても良い。   As another feedback method, when it is determined that the desired emotional reaction is shown during the content presentation as a result of the emotional reaction analysis, the difference between the maximum value and the minimum value of the accuracy 332 for each current personality type. You may implement | achieve by changing so that may be enlarged.

〔変形例〕
以上、本発明を適用した第1〜第4実施形態について説明したが、本発明の適用形態がこれらに限定されるものではない。
例えば、携帯ゲーム装置を用いる構成を例に挙げたが、家庭用ゲーム装置や業務用のゲーム装置やパソコン、携帯電話機などを代わりに用いることとしてもよい。
[Modification]
The first to fourth embodiments to which the invention is applied have been described above, but the application form of the invention is not limited thereto.
For example, although a configuration using a portable game device has been described as an example, a home game device, a business game device, a personal computer, a mobile phone, or the like may be used instead.

例えば、パーソナリティ判定用質問データ350、ダミー質問データ356、分岐条件TBL360、コンテンツ基礎パラメータ値TBL370、シナリオ重み付け係数TBL390、アイテム重み付け係数TBL400、コンテンツデータ410を記憶するサーバをコンテンツ提供事業者が用意する。そして、上述した実施形態に代表される携帯ゲーム装置や携帯電話機等のプレーヤ端末が、通信回線1を介してサーバに接続して、コンテンツ等の各種のデータを取得する構成としてもよい。すなわち、サーバは、コンテンツの提供に必要な各種のデータを記憶するデータベースの機能を有し、プレーヤ端末がサーバにアクセスして、コンテンツを取得する構成となる。このシステム構成により、コンテンツ提供事業者側は、コンテンツを随時更新・追加することが可能となる。   For example, the content provider provides a server that stores personality determination question data 350, dummy question data 356, branch condition TBL360, content basic parameter value TBL370, scenario weighting coefficient TBL390, item weighting coefficient TBL400, and content data 410. A player terminal such as a portable game device or a cellular phone represented by the above-described embodiment may be connected to a server via the communication line 1 to acquire various data such as content. That is, the server has a database function for storing various data necessary for providing content, and the player terminal accesses the server to acquire the content. With this system configuration, the content provider can update and add content as needed.

また、コンテンツの提示を進行させる操作入力として、スタイラスペン1416による第2液晶ディスプレイ1408へのタッチ、又は特定のプッシュボタンスイッチ1404の押下の操作としたが、次のようにしてもよい。すなわち、マイクロフォン1420に対する所定音声(例えば「次へ」といった音声)が入力されたか否かを入力音声から判定する。そして、所定音声が入力されたことを検知してコンテンツの提示を進行させる。この場合、プレーヤはコンテンツの続きを提示させるために携帯ゲーム装置1400に対して音声を入力することとなる。このため、第3実施形態における第1情動反応分析処理に必要な「プレーヤの音声」を確実に取得できる。また、携帯ゲーム装置1400の位置及び/又は姿勢を変化させる所定の動作操作入力(例えば左右端部を反対方向に周期的に上下動させる等)としてもよい。その場合には、第3実施形態における第2情動反応分析処理に必要な「携帯ゲーム装置1400の姿勢変化や位置変化」を確実に取得できる。さらに、上述した実施形態を、マイクロフォンや位置・姿勢変化検出部を内蔵したコントローラを備えた家庭用ゲーム装置に適用するのであれば、そのコントローラに内蔵されたマイクロフォンに対する音声入力でコンテンツの提示進行を行うとしてもよいし、コントローラを傾ける等の操作でコンテンツの提示進行を行うとしてもよい。   In addition, the operation input for advancing the presentation of content is a touch operation on the second liquid crystal display 1408 by the stylus pen 1416 or a press operation on a specific push button switch 1404. However, the operation input may be as follows. That is, it is determined from the input sound whether or not a predetermined sound (for example, a sound such as “next”) is input to the microphone 1420. Then, it detects that a predetermined voice has been input, and advances the presentation of content. In this case, the player inputs voice to the portable game device 1400 to present the continuation of the content. Therefore, the “player's voice” necessary for the first emotional reaction analysis process in the third embodiment can be reliably acquired. Moreover, it is good also as predetermined | prescribed operation | movement operation input (for example, moving a right-and-left end part up and down periodically in the opposite direction etc.) which changes the position and / or attitude | position of the portable game device 1400. In that case, the “posture change or position change of the portable game device 1400” necessary for the second emotional reaction analysis process in the third embodiment can be reliably acquired. Furthermore, if the above-described embodiment is applied to a consumer game device including a microphone and a controller with a built-in position / posture change detection unit, the presentation of content can be progressed by voice input to the microphone built in the controller. The presentation of the content may be performed by an operation such as tilting the controller.

また、所望する情動反応の例として「泣き」を例にあげて説明してきたが、これに限らず「笑い」「(ジャンルを問わずに単なる)感動」などその他の心の動きを誘発することをコンテンツ提示の目的としても良いことは勿論である。   In addition, “crying” has been described as an example of the desired emotional reaction, but this is not the only case, and other emotional movements such as “laughter” and “simply (regardless of genre)” are induced. Of course, the content may be used for the purpose of content presentation.

また、コンテンツとしては、テキストや静止画のみならず、アニメーションや映画といった動画等であってもよいことは勿論である。   Of course, the content may be not only text and still images, but also animations and movies.

携帯ゲーム装置の構成例を示す構成図。The block diagram which shows the structural example of a portable game device. 第1実施形態で実現されるプレーヤの類型判定とコンテンツ提示との関連を示す概念図。The conceptual diagram which shows the relationship between the type determination of the player implement | achieved in 1st Embodiment, and content presentation. パーソナリティ判定テスト用の質問例を示す図。The figure which shows the example of a question for a personality determination test. パーソナリティ判定用の決定木の例を示す図。The figure which shows the example of the decision tree for personality determination. パーソナリティのタイプの例を示す図。The figure which shows the example of the type of personality. シナリオ分類の例を示す図。The figure which shows the example of scenario classification | category. アイテム分類の例を示す図。The figure which shows the example of item classification | category. パーソナリティタイプと泣きやすいシナリオ及びアイテムとの関連性を説明するための図。The figure for demonstrating the relationship with a personality type and the scenario and item which are easy to cry. 第1実施形態における携帯ゲーム装置の機能構成の一例を示す機能ブロック図。The functional block diagram which shows an example of a function structure of the portable game device in 1st Embodiment. ユーザ登録データのデータ構成例を示す図。The figure which shows the data structural example of user registration data. コンテンツ提示履歴のデータ構成例を示す図。The figure which shows the data structural example of a content presentation log | history. パーソナリティ判定用質問データのデータ構成例を示す図。The figure which shows the data structural example of the question data for personality determination. ダミー質問データのデータ構成例を示す図。The figure which shows the data structural example of dummy question data. 分岐条件TBLのデータ構成例を示す図。The figure which shows the data structural example of branch condition TBL. コンテンツ基礎パラメータ値TBLのデータ構成例を示す図。The figure which shows the data structural example of content basic parameter value TBL. シナリオ重み付け係数TBLのデータ構成例を示す図。The figure which shows the data structural example of scenario weighting coefficient TBL. アイテム重み付け係数TBLのデータ構成例を示す図。The figure which shows the data structural example of the item weighting coefficient TBL. コンテンツデータのデータ構成例を示す図。The figure which shows the data structural example of content data. 表示データライブラリに格納されている画像の例を示す図。The figure which shows the example of the image stored in the display data library. 表示データライブラリに格納されている表示用テキストデータの例を示す図。The figure which shows the example of the text data for a display stored in the display data library. コンテンツ相性値算出TBLのデータ構成例を示す図。The figure which shows the data structural example of content compatibility value calculation TBL. 属性合致度の算出式の一例を説明するための図。The figure for demonstrating an example of the calculation formula of an attribute matching degree. 第1実施形態における主たる処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the main processes in 1st Embodiment. 第1実施形態における第1質疑応答処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the 1st question and answer process in 1st Embodiment. 第1実施形態における第2質疑応答処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the 2nd question-and-answer process in 1st Embodiment. 第1実施形態におけるコンテンツ選択処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the content selection process in 1st Embodiment. 第1実施形態における基礎ストレスレベル算出処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the basic stress level calculation process in 1st Embodiment. 第1実施形態におけるストレスレベル算出処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the stress level calculation process in 1st Embodiment. 第1実施形態における第3質疑応答処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the 3rd question and answer process in 1st Embodiment. 相性値を利用したコンテンツ選択方法の概念を説明するための図。The figure for demonstrating the concept of the content selection method using a compatibility value. 第1実施形態におけるコンテンツ提示処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the content presentation process in 1st Embodiment. 第1実施形態における情動反応分析反映処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the emotion reaction analysis reflection process in 1st Embodiment. 第1実施形態におけるプレイ履歴参照処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the play log | history reference process in 1st Embodiment. 画面表示例を示す図。The figure which shows the example of a screen display. 画面表示例を示す図。The figure which shows the example of a screen display. コンテンツの提示例を示す画面図。The screen figure which shows the example of presentation of a content. コンテンツの提示例を示す画面図。The screen figure which shows the example of presentation of a content. 画面表示例を示す図。The figure which shows the example of a screen display. 画面表示例を示す図。The figure which shows the example of a screen display. 画面表示例を示す図。The figure which shows the example of a screen display. 「緊張・不安」「混乱」の心的因子に着目してコンテンツ別の変化率を示したグラフ。A graph showing the rate of change by content, focusing on the mental factors of “tension / anxiety” and “confused”. コンテンツ提示前後のアミラーゼ活性の変化率をコンテンツ別に示したグラフ。The graph which showed the change rate of amylase activity before and after content presentation according to content. コンテンツBの提示中に於ける一被験者の皮膚電位活動の皮膚電位水準(SPL)の時間変化を示すグラフ。The graph which shows the time change of the skin potential level (SPL) of one subject's skin potential activity in the presentation of the content B. コンテンツCの提示中に於ける一被験者の皮膚電位活動の皮膚電位水準(SPL)の時間変化を示すグラフ。The graph which shows the time change of the skin potential level (SPL) of one subject's skin potential activity in the presentation of the content C. 第2実施形態におけるコンテンツデータのデータ構成例を示す図。The figure which shows the data structural example of the content data in 2nd Embodiment. 音カテゴリ選択TBL434のデータ構成例を示す図。The figure which shows the data structural example of sound category selection TBL434. フィルタTBL480のデータ構成例を示す図。The figure which shows the data structural example of filter TBL480. 第2実施形態における第3質疑応答処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the 3rd question and answer process in 2nd Embodiment. 第2実施形態におけるコンテンツ提示処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the content presentation process in 2nd Embodiment. 第3実施形態におけるコンテンツの画面構成と制御側の進行操作入力の受付タイミングとの関係を示す概念図。The conceptual diagram which shows the relationship between the screen structure of the content in 3rd Embodiment, and the reception timing of the advance operation input by the control side. 特別カットの表示例を示す図。The figure which shows the example of a display of a special cut. 第3実施形態における機能構成の例を示す機能ブロック図。The functional block diagram which shows the example of the function structure in 3rd Embodiment. 第3実施形態におけるコンテンツ提示処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the content presentation process in 3rd Embodiment. 第3実施形態における第1情動反応分析処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the 1st emotion reaction analysis process in 3rd Embodiment. 第3実施形態における第2情動反応分析処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the 2nd emotion reaction analysis process in 3rd Embodiment. 第3実施形態における第3情動反応分析処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the 3rd emotion reaction analysis process in 3rd Embodiment. 第4実施形態における機能ブロックの構成例の一部を示す部分機能ブロック図。The partial functional block diagram which shows a part of structural example of the functional block in 4th Embodiment. 第4実施形態におけるユーザ登録データのデータ構成例を示す図。The figure which shows the data structural example of the user registration data in 4th Embodiment. 第4実施形態におけるコンテンツ提示処理(コンテンツ提示処理D)の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the content presentation process (content presentation process D) in 4th Embodiment. 第4実施形態における情動反応分析結果フィードバック処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the emotion reaction analysis result feedback process in 4th Embodiment. パーソナリティ判定用質問データの変形例のデータ構成例を示す図。The figure which shows the data structural example of the modification of the question data for personality determination. 分岐履歴情報のデータ構成例を示す図。The figure which shows the data structural example of branch log | history information. 情動反応分析結果フィードバック処理の変形例の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the modification of an emotion reaction analysis result feedback process.

符号の説明Explanation of symbols

100 制御部
102 プレーヤ類型判定部
104 コンテンツ選択部
106 相関算出部
108 閾値条件可変部
120 コンテンツ提示制御部
128 進行制御部
130 情動反応分析部
210 画像表示部
212 第1画像表示部
214 第2画像表示部
300 記憶部
304 アプリケーションプログラム
310 ユーザ登録データ
350 パーソナリティ判定用質問データ
360 分岐条件TBL
370 コンテンツ基礎パラメータ値TBL
380 シナリオ重み付け係数TBL
390 アイテム重み付け係数TBL
410 コンテンツデータ
440 コンテンツ相性値算出TBL
DESCRIPTION OF SYMBOLS 100 Control part 102 Player type determination part 104 Content selection part 106 Correlation calculation part 108 Threshold condition variable part 120 Content presentation control part 128 Progress control part 130 Emotion reaction analysis part 210 Image display part 212 First image display part 214 Second image display Part 300 Storage part 304 Application program 310 User registration data 350 Question data for personality determination 360 Branch condition TBL
370 Content basic parameter value TBL
380 Scenario weighting factor TBL
390 Item weighting factor TBL
410 Content data 440 Content compatibility value calculation TBL

Claims (27)

コンピュータを、
プレーヤに回答操作入力を求める質疑応答形式の処理を実行し、前記回答操作入力に基づいて、予め定められた複数種類のプレーヤ類型のうちプレーヤに適合するプレーヤ類型を判定するプレーヤ類型判定処理手段、
前記判定されたプレーヤ類型に基づいて、前記各プレーヤ類型毎の相性度が定められた複数のコンテンツの中からコンテンツを選択するコンテンツ選択手段、
前記選択されたコンテンツをプレーヤに提供するコンテンツ提供手段、
前記プレーヤ類型判定処理手段と、前記コンテンツ選択手段と、前記コンテンツ提供手段とを一連に繰り返し実行させる進行制御手段、
として機能させるとともに、
前記プレーヤ類型判定処理手段が、今回及び過去の前記回答操作入力に基づいて、プレーヤに適合するプレーヤ類型を絞り込んで判定していくように前記コンピュータを機能させるためのプログラム。
Computer
A player type determination processing means for executing a question-and-answer format process for requesting an answer operation input from the player, and determining a player type suitable for the player among a plurality of predetermined player types based on the answer operation input;
Content selection means for selecting content from a plurality of contents for which the degree of compatibility for each player type is determined based on the determined player type;
Content providing means for providing the selected content to a player;
Progress control means for repeatedly executing the player type determination processing means, the content selection means, and the content providing means in series;
And function as
A program for causing the computer to function so that the player type determination processing means narrows down and determines a player type suitable for a player based on the current and past answer operation inputs.
前記プレーヤ類型判定処理手段が、ダミー質問を含む複数の質問の中から今回質問する所定数の質問を選択して出力し、該出力した質問のうちのダミー質問を除く質問に対するプレーヤの回答操作入力に基づいてプレーヤに適合するプレーヤ類型を判定する、ように前記コンピュータを機能させるための請求項1に記載のプログラム。   The player type determination processing means selects and outputs a predetermined number of questions to be asked this time among a plurality of questions including a dummy question, and inputs a player's answer operation to a question excluding the dummy question among the outputted questions The program according to claim 1 for causing the computer to function so as to determine a player type suitable for the player based on the program. 前記プレーヤ類型判定処理手段が、前記進行制御手段により繰り返し実行される度に新たな質問を出力し、この新たな質問及び従前の質問のうちの前記ダミー質問を除く質問に対するプレーヤの回答操作入力に基づいてプレーヤに適合するプレーヤ類型を判定する、ように前記コンピュータを機能させるための請求項2に記載のプログラム。   Each time the player type determination processing means is repeatedly executed by the progress control means, a new question is output, and the player's answer operation input to the question other than the new question and the dummy question of the previous question is input. The program according to claim 2, for causing the computer to function based on determining a player type suitable for the player. プレーヤの操作入力に基づいてゲームプレイの基準時間を設定する基準時間設定手段として前記コンピュータを更に機能させ、
前記プレーヤ類型判定処理手段が、前記設定された基準時間に応じて前記出力する質問の数を変更するように前記コンピュータを機能させる、
ための請求項2又は3に記載のプログラム。
Causing the computer to further function as a reference time setting means for setting a reference time for game play based on an operation input of the player;
The player type determination processing means causes the computer to function so as to change the number of questions to be output according to the set reference time;
The program of Claim 2 or 3 for.
前記コンテンツは、提供所要時間の長短に応じた分類がなされており、
プレーヤの操作入力に基づいてゲームプレイの基準時間を設定する基準時間設定手段として前記コンピュータを更に機能させ、
前記コンテンツ選択手段が、前記設定された基準時間に応じた提供所要時間のコンテンツを選択するように前記コンピュータを機能させる、
ための請求項1〜4の何れか一項に記載のプログラム。
The content has been classified according to the length of time required for provision,
Causing the computer to further function as a reference time setting means for setting a reference time for game play based on an operation input of the player;
The content selection means causes the computer to function to select content for a required time according to the set reference time;
The program as described in any one of Claims 1-4 for.
前記プレーヤ類型には、プレーヤの現在及び/又は過去の事実関係に関する類型である事実関係類型と、プレーヤの個性に関する類型である個性類型とが少なくとも含まれ、
前記プレーヤ類型判定処理手段が、プレーヤに適合する前記事実関係類型及び前記個性類型を判定することで、プレーヤに適合するプレーヤ類型を判定する、ように前記コンピュータを機能させるための請求項1〜5の何れか一項に記載のプログラム。
The player types include at least a fact-related type that is a type related to a player's current and / or past factual relationship, and a personality type that is a type related to a player's individuality,
6. The computer according to claim 1, wherein the player type determination processing means determines the player type suitable for the player by determining the fact relation type and the individuality type suitable for the player. The program as described in any one of.
前記プレーヤ類型判定処理手段が、前記プレーヤ類型に対するプレーヤの適合度を算出することで、プレーヤに適合するプレーヤ類型を判定し、
前記コンテンツ選択手段が、前記各プレーヤ類型それぞれに対する前記算出された適合度と前記コンテンツの相性度との相関値を、前記複数のコンテンツそれぞれについて算出する相関算出手段を有し、該算出された相関値に基づいてコンテンツを選択する、
ように前記コンピュータを機能させるための請求項1〜6の何れか一項に記載のプログラム。
The player type determination processing means determines a player type suitable for the player by calculating a player's suitability for the player type,
The content selection means includes correlation calculation means for calculating a correlation value between the calculated suitability for each of the player types and the compatibility of the content for each of the plurality of contents, and the calculated correlation Select content based on value,
The program as described in any one of Claims 1-6 for functioning the said computer like this.
前記コンテンツ選択手段が、前記相関算出手段により算出された相関値が所与の閾値条件を満たすコンテンツの中から、プレーヤに提供するコンテンツを選択するように前記コンピュータを機能させるとともに、
前記閾値条件を可変する閾値条件可変手段として前記コンピュータを機能させる、
ための請求項1〜7の何れか一項に記載のプログラム。
The content selection unit causes the computer to function so as to select content to be provided to the player from content in which the correlation value calculated by the correlation calculation unit satisfies a given threshold condition.
Causing the computer to function as threshold condition varying means for varying the threshold condition;
The program as described in any one of Claims 1-7 for.
前記閾値条件可変手段が、今回提供されるコンテンツの前記コンテンツ選択手段による選択の前に、現在のプレーヤの情況の操作入力を求める質疑応答形式の処理を実行して、前記情況の操作入力に基づいて前記閾値条件を可変する今回条件可変手段を有するように前記コンピュータを機能させるための請求項8に記載のプログラム。   Based on the input of the situation, the threshold condition variable means executes a question-and-answer format process for requesting an operation input of the current player's situation before selecting the content provided this time by the content selection means. The program according to claim 8 for causing the computer to function so as to have a current condition varying means for varying the threshold condition. 前記閾値条件可変手段が、前記コンテンツ提供手段により提供されたコンテンツに対する感想の操作入力を求める質疑応答形式の処理を実行して、前記感想の操作入力に基づいて、次回提供するコンテンツを選択する際の前記閾値条件を可変する次回条件可変手段を有するように前記コンピュータを機能させるための請求項8又は9に記載のプログラム。   When the threshold condition variable means executes a question-and-answer process for obtaining an operation input of an impression on the content provided by the content providing means, and selects content to be provided next time based on the operation input of the impression The program according to claim 8 or 9, for causing the computer to function so as to have next time condition varying means for varying the threshold condition. 前記コンテンツ提供手段が、プレーヤの進行指示操作入力に従って、前記選択されたコンテンツを順次提供していく処理を実行するように前記コンピュータを機能させ、
前記コンテンツ提供手段によりコンテンツが提供されている際の前記進行指示操作入力に基づいて、当該コンテンツに対するプレーヤの反応を分析する反応分析手段として前記コンピュータを機能させ、
前記閾値条件可変手段が、前記反応分析手段の分析結果に基づいて次回提供するコンテンツを選択する際の前記閾値条件を可変する反応結果反映手段を有するように前記コンピュータを機能させるための請求項8〜10の何れか一項に記載のプログラム。
The content providing means causes the computer to function so as to execute a process of sequentially providing the selected content according to a player's progress instruction operation input;
Based on the progress instruction operation input when the content is provided by the content providing means, the computer is caused to function as a reaction analysis means for analyzing a player's response to the content,
9. The threshold value variable means for causing the computer to function so as to have reaction result reflecting means for changing the threshold condition when selecting content to be provided next time based on the analysis result of the reaction analysis means. The program as described in any one of 10-10.
前記コンテンツ提供手段が、プレーヤの進行指示操作入力に従って、前記選択されたコンテンツを順次提供していく処理を実行するように前記コンピュータを機能させ、
前記コンテンツ提供手段によりコンテンツが提供されている際の前記進行指示操作入力に基づいて、当該コンテンツに対するプレーヤの反応を分析する反応分析手段として前記コンピュータを機能させ、
前記プレーヤ類型判定手段が、前記反応分析手段の分析結果を更に加味してプレーヤ類型を判定するように前記コンピュータを機能させる、
ための請求項1〜11の何れか一項に記載のプログラム。
The content providing means causes the computer to function so as to execute a process of sequentially providing the selected content according to a player's progress instruction operation input;
Based on the progress instruction operation input when the content is provided by the content providing means, the computer is caused to function as a reaction analysis means for analyzing a player's response to the content,
The player type determining means causes the computer to function to determine the player type in consideration of the analysis result of the reaction analyzing means;
The program as described in any one of Claims 1-11 for.
前記コンテンツ提供手段が、前記進行指示操作入力がなされる毎に、コンテンツを順次提供していき、
前記反応分析手段が、前記進行指示操作入力の入力間隔に基づいてプレーヤの反応を分析する、
ように前記コンピュータを機能させるための請求項11又は12に記載のプログラム。
The content providing means sequentially provides content each time the progress instruction operation input is made,
The reaction analysis means analyzes a player's reaction based on an input interval of the progress instruction operation input;
The program according to claim 11 or 12, for causing the computer to function as described above.
前記コンテンツ提供手段が、前記進行指示操作入力を受け付ける受付タイミング期間をコンテンツの提供途中に設け、コンテンツの提供が該受付タイミングに至った際にコンテンツの提供を一時中断し、該受付タイミング時に前記進行指示操作入力がなされることでコンテンツの提供を継続し、
前記反応分析手段が、前記受付タイミング期間以外における前記進行指示操作入力の有無、及び/又は、前記受付タイミング期間の開始から前記進行指示操作入力がなされるまでの時間、に基づいてプレーヤの反応を分析する、
ように前記コンピュータを機能させるための請求項13に記載のプログラム。
The content providing means provides a reception timing period for accepting the progress instruction operation input in the middle of content provision, temporarily suspends the content provision when the content provision reaches the reception timing, and the progress is made at the reception timing. Continue to provide content by directing instructions,
The reaction analysis means responds to the player based on the presence / absence of the progress instruction operation input other than the reception timing period and / or the time from the start of the reception timing period until the progress instruction operation input is performed. analyse,
The program according to claim 13 for causing the computer to function.
前記コンピュータは、マイクを備えており、
前記反応分析手段が、更に、前記マイクに入力された音声に基づいてプレーヤの反応を分析するように前記コンピュータを機能させるための請求項11〜14の何れか一項に記載のプログラム。
The computer includes a microphone,
The program according to any one of claims 11 to 14, wherein the reaction analysis unit further causes the computer to function to analyze a player's reaction based on sound input to the microphone.
前記コンテンツ提供手段が、前記マイクへの所定音声の入力を前記進行指示操作入力として、前記選択されたコンテンツを順次提供していくように前記コンピュータを機能させるための請求項15に記載のプログラム。   The program according to claim 15, wherein the content providing unit causes the computer to function so as to sequentially provide the selected content using an input of a predetermined voice to the microphone as the progress instruction operation input. 前記コンピュータは、加速度センサ及び/又はジャイロセンサでなる検知器を内蔵したコントローラを備えており、
前記反応分析手段が、更に、前記検知器の検知結果に基づいてプレーヤの反応を分析するように前記コンピュータを機能させるための請求項11〜14の何れか一項に記載のプログラム。
The computer includes a controller with a built-in detector composed of an acceleration sensor and / or a gyro sensor,
The program according to any one of claims 11 to 14, wherein the reaction analysis means further causes the computer to analyze a player's reaction based on a detection result of the detector.
前記コンテンツ提供手段が、前記コントローラの位置及び/又は姿勢を変化させる所定の動作操作入力を前記進行指示操作入力として、前記選択されたコンテンツを順次提供していくように前記コンピュータを機能させるための請求項17に記載のプログラム。   The content providing means causes the computer to function so as to sequentially provide the selected content using a predetermined operation operation input that changes the position and / or posture of the controller as the progress instruction operation input. The program according to claim 17. 前記進行指示操作入力は、ボタン押下操作入力であり、
前記コンテンツ提供手段が、ボタン押下操作入力がなされている間にコンテンツの提供を継続し、
前記反応分析手段が、ボタン押下操作入力の継続時間、断続間隔、断続回数及び中断時間のうち少なくとも1つに基づいてプレーヤの反応を分析する、
ように前記コンピュータを機能させるための請求項11又は12に記載のプログラム。
The progress instruction operation input is a button press operation input,
The content providing means continues to provide content while a button pressing operation input is being made,
The reaction analyzing means analyzes a player's reaction based on at least one of a duration of a button press operation input, an intermittent interval, an intermittent count, and an interrupt time;
The program according to claim 11 or 12, for causing the computer to function as described above.
前記コンピュータは、上下2つの表示装置を備えており、
前記コンテンツは、喜怒哀楽等の情動反応のうち所定の情動反応を誘発するために予め用意されたコンテンツであって、1つのコンテンツが前記表示装置それぞれに表示される表示用のソフトウェア群でなり、
前記コンテンツ提供手段が、前記コンテンツ選択手段により選択されたコンテンツのソフトウェア群に従った表示を、前記上下2つの表示装置に交互に行うように前記コンピュータを機能させるための請求項1〜19の何れか一項に記載のプログラム。
The computer includes two upper and lower display devices,
The content is content prepared in advance for inducing a predetermined emotional reaction among emotional reactions such as emotions, and is composed of display software groups in which one content is displayed on each of the display devices. ,
The content providing unit causes the computer to function so that the display according to the software group of the content selected by the content selection unit is alternately performed on the two upper and lower display devices. A program according to any one of the above.
前記コンテンツ提供手段が、前記プレーヤ類型判定処理手段により判定されたプレーヤ類型に基づき、前記選択されたコンテンツのソフトウェア群に従った表示画像の色調補正及び/又は前記交互表示時のトランジション処理の変更を行うように前記コンピュータを機能させるための請求項20に記載のプログラム。   Based on the player type determined by the player type determination processing unit, the content providing unit performs color tone correction of a display image according to the software group of the selected content and / or change of transition processing at the time of the alternate display. 21. A program according to claim 20, for causing the computer to function. 前記コンテンツには、表示用コンテンツと音声用コンテンツとの2種類があり、
前記コンテンツ選択手段が、プレーヤに提供するコンテンツとして前記2種類のコンテンツそれぞれについて選択し、
前記コンテンツ提供手段が、前記選択された表示用コンテンツを提供する表示用コンテンツ提供手段と、前記選択された音声用コンテンツを提供する音声用コンテンツ提供手段とを有する、
ように前記コンピュータを機能させるための請求項1〜21の何れか一項に記載のプログラム。
There are two types of content: display content and audio content,
The content selection means selects each of the two types of content as content to be provided to the player,
The content providing means includes display content providing means for providing the selected display content, and audio content providing means for providing the selected audio content.
The program according to any one of claims 1 to 21, for causing the computer to function as described above.
前記音声用コンテンツは、当該音声のジャンルや音律等による複数の音声種別に予め分類されており、
前記コンテンツ選択手段が、プレーヤに提供する音声用コンテンツの音声種別を選択し、該選択した音声種別に属する音声用コンテンツの中から所定の演算を用いて音声用コンテンツを選択するように前記コンピュータを機能させるための請求項22に記載のプログラム。
The audio content is pre-classified into a plurality of audio types based on the audio genre, temperament, etc.
The content selection means selects the audio type of the audio content to be provided to the player, and selects the audio content using a predetermined calculation from the audio content belonging to the selected audio type. 23. A program according to claim 22 for causing it to function.
前記音声用コンテンツ提供手段が、前記プレーヤ類型判定処理手段により判定されたプレーヤ類型に基づき、出力される音の特性を変更するフィルタリング処理を施して音声用コンテンツを出力するように前記コンピュータを機能させるための請求項22又は23に記載のプログラム。   The audio content providing means causes the computer to function so as to output the audio content by performing a filtering process for changing the characteristics of the output sound based on the player type determined by the player type determination processing means. 24. The program according to claim 22 or 23. 前記コンテンツ選択手段が、前記コンテンツを多数記憶するデータベース又はサーバシステムにアクセスして、前記コンテンツを選択するように前記コンピュータを機能させるための請求項1〜24に記載のプログラム。   25. The program according to claim 1, wherein the content selection unit accesses a database or a server system that stores a large number of the contents and causes the computer to function so as to select the contents. 請求項1〜25の何れか一項に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。   The computer-readable information storage medium which memorize | stored the program as described in any one of Claims 1-25. プレーヤに回答操作入力を求める質疑応答形式の処理を実行し、前記回答操作入力に基づいて、予め定められた複数種類のプレーヤ類型のうちプレーヤに適合するプレーヤ類型を判定するプレーヤ類型判定処理手段と、
前記判定されたプレーヤ類型に基づいて、前記各プレーヤ類型毎の相性度が定められた複数のコンテンツの中からコンテンツを選択するコンテンツ選択手段と、
前記選択されたコンテンツをプレーヤに提供するコンテンツ提供手段と、
前記プレーヤ類型判定処理手段と、前記コンテンツ選択手段と、前記コンテンツ提供手段とを一連に繰り返し実行させる進行制御手段と、
を備えるとともに、
前記プレーヤ類型判定処理手段は、今回及び過去の前記回答操作入力に基づいて、プレーヤに適合するプレーヤ類型を絞り込んで判定していくことを特徴とするコンテンツ提供装置。
A player type determination processing means for executing a question-and-answer process for requesting an answer operation input from the player, and determining a player type suitable for the player among a plurality of predetermined player types based on the answer operation input; ,
Content selection means for selecting content from a plurality of contents for which the degree of compatibility for each player type is determined based on the determined player type;
Content providing means for providing the selected content to a player;
Progress control means for repeatedly executing the player type determination processing means, the content selection means, and the content providing means in series;
With
The content providing apparatus, wherein the player type determination processing means narrows down and determines a player type suitable for a player based on the current and past answer operation inputs.
JP2008020508A 2008-01-31 2008-01-31 Program, information storage medium, and content providing apparatus Pending JP2009178363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008020508A JP2009178363A (en) 2008-01-31 2008-01-31 Program, information storage medium, and content providing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008020508A JP2009178363A (en) 2008-01-31 2008-01-31 Program, information storage medium, and content providing apparatus

Publications (1)

Publication Number Publication Date
JP2009178363A true JP2009178363A (en) 2009-08-13

Family

ID=41032804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008020508A Pending JP2009178363A (en) 2008-01-31 2008-01-31 Program, information storage medium, and content providing apparatus

Country Status (1)

Country Link
JP (1) JP2009178363A (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011096204A1 (en) * 2010-02-03 2011-08-11 任天堂株式会社 Display device, game system, and game processing method
JP4798809B1 (en) * 2010-11-01 2011-10-19 任天堂株式会社 Display device, game system, and game processing method
WO2012026389A1 (en) * 2010-08-27 2012-03-01 ソニー株式会社 Transmission apparatus and method, reception apparatus and method, and transmission/reception system
WO2012026388A1 (en) * 2010-08-27 2012-03-01 ソニー株式会社 Transmitting device and method, receiving device and method, and transmitting-receiving system
WO2012029568A1 (en) * 2010-08-30 2012-03-08 ソニー株式会社 Transmission device and method, reception device and method, and transmission/reception system
WO2012029569A1 (en) * 2010-08-30 2012-03-08 ソニー株式会社 Transmission device and method, reception device and method, and transmission and reception system
CN102600613A (en) * 2010-11-01 2012-07-25 任天堂株式会社 Game system,operation device and game processing method
US8339364B2 (en) 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
JP2013000528A (en) * 2011-06-21 2013-01-07 Konami Digital Entertainment Co Ltd Communication system, method and program of the same
US8500558B2 (en) 2005-08-19 2013-08-06 Nintendo Of America Inc. Enhanced method and apparatus for selecting and rendering performance data
US8529352B2 (en) 2010-02-03 2013-09-10 Nintendo Co., Ltd. Game system
US8702514B2 (en) 2010-11-01 2014-04-22 Nintendo Co., Ltd. Controller device and controller system
KR20140094892A (en) * 2013-01-23 2014-07-31 에스케이플래닛 주식회사 Method to recommend digital contents based on usage log and apparatus therefor
US8814686B2 (en) 2010-02-03 2014-08-26 Nintendo Co., Ltd. Display device, game system, and game method
US8845426B2 (en) 2011-04-07 2014-09-30 Nintendo Co., Ltd. Input system, information processing device, storage medium storing information processing program, and three-dimensional position calculation method
US8913009B2 (en) 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8956209B2 (en) 2010-08-30 2015-02-17 Nintendo Co., Ltd. Game system, game apparatus, storage medium having game program stored therein, and game process method
US9132347B2 (en) 2010-08-30 2015-09-15 Nintendo Co., Ltd. Game system, game apparatus, storage medium having game program stored therein, and game process method
US9199168B2 (en) 2010-08-06 2015-12-01 Nintendo Co., Ltd. Game system, game apparatus, storage medium having game program stored therein, and game process method
JP2016185253A (en) * 2015-03-27 2016-10-27 グリー株式会社 Program, control method, and server apparatus
US10150033B2 (en) 2010-08-20 2018-12-11 Nintendo Co., Ltd. Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
JP2019097978A (en) * 2017-12-05 2019-06-24 株式会社バンダイナムコエンターテインメント Game system and program
CN109935242A (en) * 2019-01-10 2019-06-25 上海言通网络科技有限公司 Formula speech processing system and method can be interrupted
JP2019133231A (en) * 2018-01-29 2019-08-08 富士通株式会社 Stress situation prediction program, information processing device and stress situation prediction method
JP2019185173A (en) * 2018-04-03 2019-10-24 日本メナード化粧品株式会社 Method and device for evaluating exciting feeling
JP2020154870A (en) * 2019-03-20 2020-09-24 ヤフー株式会社 Selection device, selection method and selection program
JP2021022820A (en) * 2019-07-26 2021-02-18 日本放送協会 Video introduction apparatus and program
JP2023012304A (en) * 2021-07-13 2023-01-25 キヤノンメディカルシステムズ株式会社 Medical information processing system, medical information processing method, and program

Cited By (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8500558B2 (en) 2005-08-19 2013-08-06 Nintendo Of America Inc. Enhanced method and apparatus for selecting and rendering performance data
US9592445B2 (en) 2005-08-19 2017-03-14 Nintendo Co., Ltd. Enhanced method and apparatus for selecting and rendering performance data
US10293258B2 (en) 2005-08-19 2019-05-21 Nintendo Co., Ltd. Enhanced method and apparatus for selecting and rendering performance data
US9067133B2 (en) 2005-08-19 2015-06-30 Nintendo Co., Ltd. Enhanced method and apparatus for selecting and rendering performance data
US8339364B2 (en) 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
WO2011096204A1 (en) * 2010-02-03 2011-08-11 任天堂株式会社 Display device, game system, and game processing method
US9358457B2 (en) 2010-02-03 2016-06-07 Nintendo Co., Ltd. Game system, controller device, and game method
KR101154636B1 (en) 2010-02-03 2012-06-08 닌텐도가부시키가이샤 Display device, game system, and game method
US8684842B2 (en) 2010-02-03 2014-04-01 Nintendo Co., Ltd. Display device, game system, and game process method
US8814686B2 (en) 2010-02-03 2014-08-26 Nintendo Co., Ltd. Display device, game system, and game method
WO2011096203A1 (en) * 2010-02-03 2011-08-11 任天堂株式会社 Game system, operating device, and game processing method
US8961305B2 (en) 2010-02-03 2015-02-24 Nintendo Co., Ltd. Game system, controller device and game method
US8317615B2 (en) 2010-02-03 2012-11-27 Nintendo Co., Ltd. Display device, game system, and game method
US8913009B2 (en) 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
KR101287696B1 (en) 2010-02-03 2013-07-24 닌텐도가부시키가이샤 Game system, controller device, and game process method
US8613672B2 (en) 2010-02-03 2013-12-24 Nintendo Co., Ltd. Game system, image output device, and image display method
US8529352B2 (en) 2010-02-03 2013-09-10 Nintendo Co., Ltd. Game system
US9776083B2 (en) 2010-02-03 2017-10-03 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8896534B2 (en) 2010-02-03 2014-11-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US9199168B2 (en) 2010-08-06 2015-12-01 Nintendo Co., Ltd. Game system, game apparatus, storage medium having game program stored therein, and game process method
US10150033B2 (en) 2010-08-20 2018-12-11 Nintendo Co., Ltd. Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
US8909694B2 (en) 2010-08-27 2014-12-09 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US10397654B2 (en) 2010-08-27 2019-08-27 Saturn Licensing Llc Transmission and reception apparatuses, methods, and systems for filtering content
WO2012026389A1 (en) * 2010-08-27 2012-03-01 ソニー株式会社 Transmission apparatus and method, reception apparatus and method, and transmission/reception system
WO2012026388A1 (en) * 2010-08-27 2012-03-01 ソニー株式会社 Transmitting device and method, receiving device and method, and transmitting-receiving system
US9769526B2 (en) 2010-08-27 2017-09-19 Saturn Licensing Llc Transmission and reception apparatuses, methods, and systems for filtering content
US9769286B2 (en) 2010-08-27 2017-09-19 Saturn Licensing Llc Transmission apparatus and method, reception apparatus and method, and transmission and reception system
JPWO2012026389A1 (en) * 2010-08-27 2013-10-28 ソニー株式会社 Transmitting apparatus and method, receiving apparatus and method, and transmission / reception system
US9215295B2 (en) 2010-08-27 2015-12-15 Sony Corporation Transmission and reception apparatuses, methods, and systems for filtering content
JPWO2012026388A1 (en) * 2010-08-27 2013-10-28 ソニー株式会社 Transmitting apparatus and method, receiving apparatus and method, and transmission / reception system
US8875169B2 (en) 2010-08-27 2014-10-28 Sony Corporation Transmission and reception apparatus, methods, and systems for filtering content
US8892636B2 (en) 2010-08-30 2014-11-18 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
WO2012029569A1 (en) * 2010-08-30 2012-03-08 ソニー株式会社 Transmission device and method, reception device and method, and transmission and reception system
JPWO2012029569A1 (en) * 2010-08-30 2013-10-28 ソニー株式会社 Transmitting apparatus and method, receiving apparatus and method, and transmission / reception system
CN103069830A (en) * 2010-08-30 2013-04-24 索尼公司 Sending device and method, receiving device and method, and sending and receiving system
US8956209B2 (en) 2010-08-30 2015-02-17 Nintendo Co., Ltd. Game system, game apparatus, storage medium having game program stored therein, and game process method
US10405022B2 (en) 2010-08-30 2019-09-03 Saturn Licensing Llc Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US10244287B2 (en) 2010-08-30 2019-03-26 Saturn Licensing Llc Transmission apparatus and method, reception apparatus and method, and transmission and reception system
RU2556242C2 (en) * 2010-08-30 2015-07-10 Сони Корпорейшн Transmission device and method, receiving device and method and transmission and receiving system
US9132347B2 (en) 2010-08-30 2015-09-15 Nintendo Co., Ltd. Game system, game apparatus, storage medium having game program stored therein, and game process method
US9179188B2 (en) 2010-08-30 2015-11-03 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US9762968B2 (en) 2010-08-30 2017-09-12 Saturn Licensing Llc Transmission apparatus and method, reception apparatus and method, and transmission and reception system
WO2012029568A1 (en) * 2010-08-30 2012-03-08 ソニー株式会社 Transmission device and method, reception device and method, and transmission/reception system
JPWO2012029568A1 (en) * 2010-08-30 2013-10-28 ソニー株式会社 Transmitting apparatus and method, receiving apparatus and method, and transmission / reception system
CN103069830B (en) * 2010-08-30 2016-08-31 索尼公司 Sending device and method, receiving device and method, and sending and receiving system
CN102600610A (en) * 2010-11-01 2012-07-25 任天堂株式会社 Display device, game system, and game process method
US9272207B2 (en) 2010-11-01 2016-03-01 Nintendo Co., Ltd. Controller device and controller system
US8827818B2 (en) 2010-11-01 2014-09-09 Nintendo Co., Ltd. Controller device and information processing device
CN102600613A (en) * 2010-11-01 2012-07-25 任天堂株式会社 Game system,operation device and game processing method
US8814680B2 (en) 2010-11-01 2014-08-26 Nintendo Co., Inc. Controller device and controller system
US8804326B2 (en) 2010-11-01 2014-08-12 Nintendo Co., Ltd. Device support system and support device
US9889384B2 (en) 2010-11-01 2018-02-13 Nintendo Co., Ltd. Controller device and controller system
US8702514B2 (en) 2010-11-01 2014-04-22 Nintendo Co., Ltd. Controller device and controller system
JP4798809B1 (en) * 2010-11-01 2011-10-19 任天堂株式会社 Display device, game system, and game processing method
US8845426B2 (en) 2011-04-07 2014-09-30 Nintendo Co., Ltd. Input system, information processing device, storage medium storing information processing program, and three-dimensional position calculation method
JP2013000528A (en) * 2011-06-21 2013-01-07 Konami Digital Entertainment Co Ltd Communication system, method and program of the same
KR20140094892A (en) * 2013-01-23 2014-07-31 에스케이플래닛 주식회사 Method to recommend digital contents based on usage log and apparatus therefor
KR102104100B1 (en) 2013-01-23 2020-04-23 에스케이플래닛 주식회사 Method to recommend digital contents based on usage log and apparatus therefor
JP2016185253A (en) * 2015-03-27 2016-10-27 グリー株式会社 Program, control method, and server apparatus
JP2019097978A (en) * 2017-12-05 2019-06-24 株式会社バンダイナムコエンターテインメント Game system and program
JP7242175B2 (en) 2017-12-05 2023-03-20 株式会社バンダイナムコエンターテインメント game system and program
JP2019133231A (en) * 2018-01-29 2019-08-08 富士通株式会社 Stress situation prediction program, information processing device and stress situation prediction method
JP2019185173A (en) * 2018-04-03 2019-10-24 日本メナード化粧品株式会社 Method and device for evaluating exciting feeling
JP7018197B2 (en) 2018-04-03 2022-02-10 日本メナード化粧品株式会社 How to evaluate "crush" emotions and evaluation equipment
CN109935242A (en) * 2019-01-10 2019-06-25 上海言通网络科技有限公司 Formula speech processing system and method can be interrupted
JP2020154870A (en) * 2019-03-20 2020-09-24 ヤフー株式会社 Selection device, selection method and selection program
JP7175810B2 (en) 2019-03-20 2022-11-21 ヤフー株式会社 Selection device, selection method and selection program
JP2021022820A (en) * 2019-07-26 2021-02-18 日本放送協会 Video introduction apparatus and program
JP7340982B2 (en) 2019-07-26 2023-09-08 日本放送協会 Video introduction device and program
JP2023012304A (en) * 2021-07-13 2023-01-25 キヤノンメディカルシステムズ株式会社 Medical information processing system, medical information processing method, and program
JP7706964B2 (en) 2021-07-13 2025-07-14 キヤノンメディカルシステムズ株式会社 Medical information processing system, medical information processing method, and program

Similar Documents

Publication Publication Date Title
JP2009178363A (en) Program, information storage medium, and content providing apparatus
Collins Playing with sound: a theory of interacting with sound and music in video games
Picard Affective computing
Garner Echoes of other worlds: Sound in virtual reality: Past, present and future
KR20020067590A (en) Environment-responsive user interface/entertainment device that simulates personal interaction
KR20020067591A (en) Self-updating user interface/entertainment device that simulates personal interaction
KR20180123037A (en) Information processing system, information processing apparatus, information processing method, and recording medium
US20210043106A1 (en) Technology based learning platform for persons having autism
JP2024166138A (en) Action control system
CN112752159A (en) Interaction method and related device
Deckert et al. Towards game translation user research
Bartneck Affective expressions of machines
US20050288820A1 (en) Novel method to enhance the computer using and online surfing/shopping experience and methods to implement it
Volkmann et al. Age-appropriate Participatory Design of a Storytelling Voice Input in the Context of Historytelling.
Chitti Cocoon: a multimodal platform to support social emotional learning for children with autism spectrum disorder
Shao et al. StoryIcon: A Prototype for Visualizing Children’s Storytelling
JP7760554B2 (en) Control System
Sun et al. Interaction in Acting Training and its Manifestations in Novices and Actors
JP2009000248A (en) game machine
CAMARGO INSTITUTO TECNOL OGICO Y DE ESTUDIOS SUPERIORES DE MONTERREY
Pai The Experiential Impact of Integrating Player-Provided Name into Video Game Audio Dialogue
JP2025058949A (en) Behavior Control System
WO2024214751A1 (en) Behavior control system
WO2025028459A1 (en) Action control system
O'Ceallaigh Breaking Glass: A Pedagogical Approach to Understanding Voice in Media