[go: up one dir, main page]

JP7659885B2 - Game system, computer program used therein, and control method - Google Patents

Game system, computer program used therein, and control method Download PDF

Info

Publication number
JP7659885B2
JP7659885B2 JP2021038638A JP2021038638A JP7659885B2 JP 7659885 B2 JP7659885 B2 JP 7659885B2 JP 2021038638 A JP2021038638 A JP 2021038638A JP 2021038638 A JP2021038638 A JP 2021038638A JP 7659885 B2 JP7659885 B2 JP 7659885B2
Authority
JP
Japan
Prior art keywords
action
character
performance
user
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021038638A
Other languages
Japanese (ja)
Other versions
JP2022138642A (en
Inventor
祐 佐原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2021038638A priority Critical patent/JP7659885B2/en
Priority to PCT/JP2022/009922 priority patent/WO2022191170A1/en
Priority to KR1020237029469A priority patent/KR102821624B1/en
Priority to CN202280019694.6A priority patent/CN116997395A/en
Publication of JP2022138642A publication Critical patent/JP2022138642A/en
Application granted granted Critical
Publication of JP7659885B2 publication Critical patent/JP7659885B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/814Musical performances, e.g. by evaluating the player's ability to follow a notation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、各ユーザのプレイ行為を入力するための入力装置、及びプレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタを含む複数のキャラクタが表示されるゲーム画面を表示する表示装置に接続され、そのゲーム画面を通じて複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステム等に関する。 The present invention relates to a game system that is connected to an input device for inputting the play actions of each user and a display device that displays a game screen on which multiple characters, including at least one user character operated by each user through play actions, are displayed, and that provides a game including performances performed by the multiple characters through the game screen.

各ユーザのプレイ行為を入力するための入力装置、及びプレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタを含む複数のキャラクタが表示されるゲーム画面を表示する表示装置に接続され、そのゲーム画面を通じて複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムが存在する。このような複数のキャラクタ、及びパフォーマンスとして、各ユーザによってそれぞれ操作される多数のアバター、及び特定のアバターによって実行される一発芸等のパフォーマンスをそれぞれ利用する仮想空間を提供するヘッドマウントデバイス(HMD)型のユーザ端末が知られている(例えば特許文献1参照)。 There is a game system that is connected to an input device for inputting each user's play actions and a display device that displays a game screen on which multiple characters, including at least one user character operated by each user through play actions, are displayed, and that provides a game including a performance performed by the multiple characters through the game screen. A head-mounted device (HMD) type user terminal that provides a virtual space that utilizes multiple avatars operated by each user as such multiple characters and performances, and one-shot performances and the like performed by specific avatars, is known (see, for example, Patent Document 1).

特開2019-36239号公報JP 2019-36239 A

特許文献1の仮想空間では、特定のアバターによるパフォーマンスは他のアバターを介してそれぞれ複数のユーザ(そのパフォーマンスを視聴する観客)によって視聴され、笑った観客の人数がそのパフォーマンスの評価値として算出される。つまり、特定のアバターによるパフォーマンスは、観客というそのパフォーマンスの実行者とは別のユーザによって評価されている。 In the virtual space of Patent Document 1, a performance by a specific avatar is viewed by multiple users (the audience watching the performance) via other avatars, and the number of audience members who laugh is calculated as an evaluation value for the performance. In other words, the performance by a specific avatar is evaluated by the audience, users who are separate from the performer of the performance.

一方、パフォーマンスが複数のキャラクタによって実行される場合、そのパフォーマンスを実行している実行者にしか評価できない要素が存在する。例えば、他のキャラクタによるパフォーマンスの部分に自分のパフォーマンスと親和性があるか、或いはシンクロ性があるかといった要素が実行者にとって重要な場合もあるが、これらはパフォーマンスを一緒に実行している実行者にしか評価できない。しかし、特許文献1の仮想空間はパフォーマンスを一緒に実行する実行者がそのパフォーマンスにおける他の実行者のパフォーマンス部分を評価する構成ではない。そもそもパフォーマンスとは別の行動として評価のために実行者によって実行される行動が許容される構成か否かも明らかではない。少なくとも特許文献1の仮想空間において、それらの構成を備える必要性はない。 On the other hand, when a performance is performed by multiple characters, there are elements that can only be evaluated by the performer performing the performance. For example, elements such as whether there is an affinity or synchronicity between parts of the performance performed by other characters and one's own performance may be important to a performer, but these can only be evaluated by the performer performing the performance together. However, the virtual space of Patent Document 1 is not configured so that performers performing a performance together evaluate the performance parts of other performers in that performance. In the first place, it is not clear whether the configuration allows for actions performed by performers for evaluation as actions separate from the performance. At least in the virtual space of Patent Document 1, there is no need to have such configuration.

そこで、本発明は、複数のキャラクタによるパフォーマンスをそのパフォーマンスの実行者の視点から評価することができるゲームシステム等を提供することを目的とする。 The present invention therefore aims to provide a game system etc. that can evaluate a performance by multiple characters from the perspective of the performer of that performance.

本発明のゲームシステムは、各ユーザのプレイ行為を入力するための入力装置、及び前記プレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタを含む複数のキャラクタが表示されるゲーム画面を表示する表示装置に接続され、前記ゲーム画面を通じて前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムであって、前記ユーザキャラクタから前記複数のキャラクタの他のキャラクタに対して前記パフォーマンスに付加されるように実行される付加行動を前記ユーザキャラクタに実行させるための付加指示行為が前記プレイ行為として実行された場合に、当該付加指示行為に基づいて前記他のキャラクタによる前記パフォーマンスを評価する指示評価手段と、前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する結果提供手段と、を備えるものである。 The game system of the present invention is connected to an input device for inputting play actions of each user and a display device for displaying a game screen on which a plurality of characters, including at least one user character, operated by each user through the play actions, is displayed, and provides a game including a performance performed by the plurality of characters through the game screen, and is equipped with an instruction evaluation means for evaluating the performance of the other characters based on an additional instruction action when an additional instruction action is executed as the play action by the user character to cause the user character to execute an additional action that is executed from the user character to another character of the plurality of characters so as to be added to the performance, and a result providing means for providing each user with an evaluation result of the performance of the other character.

一方、本発明のコンピュータプログラムは、前記入力装置、及び前記表示装置に接続されるコンピュータを、上述のゲームシステムの各手段として機能させるように構成されたものである。 On the other hand, the computer program of the present invention is configured to cause the input device and a computer connected to the display device to function as each of the means of the game system described above.

また、本発明の制御方法は、各ユーザのプレイ行為を入力するための入力装置、及び前記プレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタを含む複数のキャラクタが表示されるゲーム画面を表示する表示装置に接続され、前記ゲーム画面を通じて前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムに組み込まれるコンピュータに、前記ユーザキャラクタから前記複数のキャラクタの他のキャラクタに対して前記パフォーマンスに付加されるように実行される付加行動を前記ユーザキャラクタに実行させるための付加指示行為が前記プレイ行為として実行された場合に、当該付加指示行為に基づいて前記他のキャラクタによる前記パフォーマンスを評価する指示評価手順と、前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する結果提供手順と、を実行させるものである。 The control method of the present invention also includes a computer that is connected to an input device for inputting play actions of each user and a display device for displaying a game screen on which a plurality of characters, including at least one user character, operated by each user through the play actions are displayed, and that is incorporated in a game system that provides a game including a performance performed by the plurality of characters through the game screen, and that, when an additional instruction action is executed as the play action by the user character to cause the user character to perform an additional action that is executed from the user character to another character of the plurality of characters so as to be added to the performance, executes an instruction evaluation step for evaluating the performance by the other character based on the additional instruction action, and a result providing step for providing each user with an evaluation result of the performance by the other character.

本発明の一形態に係るゲームシステムの概略構成を示す図。1 is a diagram showing a schematic configuration of a game system according to an embodiment of the present invention. ゲームシステムの制御系の要部を示す機能ブロック図。FIG. 2 is a functional block diagram showing the main parts of a control system of the game system. ゲーム画面の一例を模式的に示す図。FIG. 4 is a diagram illustrating an example of a game screen. 仮想三次元空間における各キャラクタの位置関係を説明するための説明図。FIG. 4 is an explanatory diagram for explaining the positional relationship of each character in a virtual three-dimensional space. 視界範囲が図4の例の右傾斜範囲に移動した場合のゲーム画面の一例を模式的に示す図。5 is a diagram showing an example of a game screen when the field of view range is moved to the right inclination range in the example of FIG. 4 . 演奏パフォーマンスの評価の流れを説明するための説明図。FIG. 1 is an explanatory diagram for explaining a flow of evaluation of a musical performance. 連携アクションの一例を説明するための説明図。FIG. 11 is an explanatory diagram for explaining an example of a cooperative action. 応答アクションの一例を説明するための説明図。FIG. 11 is an explanatory diagram for explaining an example of a response action. 評価アクションに基づく演奏パフォーマンスの評価結果の一例を説明するための説明図。FIG. 11 is an explanatory diagram for explaining an example of an evaluation result of a musical performance based on an evaluation action. 評価アクションに基づく演奏パフォーマンスの評価結果の他の例を説明するための説明図。FIG. 11 is an explanatory diagram for explaining another example of the evaluation result of the musical performance based on the evaluation action. 演奏データの構成の一例を示す図。FIG. 4 is a diagram showing an example of the configuration of performance data. 演奏選択処理の手順の一例を示すフローチャート。11 is a flowchart showing an example of a procedure for a performance selection process. 連携応答処理の手順の一例を示すフローチャート。11 is a flowchart showing an example of a procedure of a link response process. パフォーマンス評価処理の手順の一例を示すフローチャート。11 is a flowchart showing an example of a procedure for a performance evaluation process. 演奏データ生成処理の手順の一例を示すフローチャート。11 is a flowchart showing an example of a procedure for a performance data generating process.

以下、本発明の一形態に係るゲームシステムの一例を説明する。まず、図1を参照して、本発明の一形態に係るゲームシステムの全体構成を説明する。ゲームシステム1は、サーバ装置としてのセンターサーバ2を含んでいる。なお、センターサーバ2は、複数のコンピュータ装置としてのサーバユニットが組み合わされることにより一台の論理的なサーバ装置として構成されてもよい。あるいは、クラウドコンピューティングを利用して論理的にセンターサーバ2が構成されてもよい。 An example of a game system according to one embodiment of the present invention will be described below. First, with reference to FIG. 1, the overall configuration of the game system according to one embodiment of the present invention will be described. The game system 1 includes a center server 2 as a server device. Note that the center server 2 may be configured as a single logical server device by combining multiple server units as computer devices. Alternatively, the center server 2 may be configured logically using cloud computing.

センターサーバ2には、ネットワーク3を介して接続可能なクライアント装置として一台、或いは複数台の適宜の数のゲーム装置が接続される。ゲーム装置は、アーケードゲーム機(アミューズメント店舗等の施設に設置され、所定の対価の支払いと引き換えにそのプレイ料金に対応した範囲でユーザにゲームをプレイさせる業務用ゲーム機)等の各種のゲーム機を適宜に含んでいてよいが、図1の例ではユーザ端末装置4が示されている。具体的には、センターサーバ2には、ゲーム装置の一例として、ネットワーク3を介して複数のユーザ端末装置4が接続されている。 One or an appropriate number of game devices are connected to the center server 2 as client devices connectable via the network 3. The game devices may include various game machines such as arcade game machines (commercial game machines installed in facilities such as amusement stores, which allow users to play games within a range corresponding to the payment of a specified fee in exchange for the payment of the play fee), but the example in Figure 1 shows a user terminal device 4. Specifically, a plurality of user terminal devices 4 are connected to the center server 2 via the network 3 as an example of a game device.

ユーザ端末装置4は、ネットワーク接続が可能でかつユーザの個人用途に供されるコンピュータ装置である。ユーザ端末装置4は、各種のコンピュータソフトウエアを実装することにより、センターサーバ2が提供する種々のサービスをユーザに享受させることが可能である。このようなコンピュータソフトウエア(アプリケーション)には、有償或いは無償のゲームを提供するためのゲーム用のアプリケーションが含まれる。そして、ユーザ端末装置4は、そのようなゲーム用のアプリケーションの実行を通じて、ゲーム機として機能する。このようなユーザ端末装置4は、例えば、据置型又はブック型のパーソナルコンピュータ、据置型の家庭用ゲーム機、或いは携帯型タブレット端末装置や携帯電話(スマートフォンを含む。)等の各種モバイル端末装置を含んでいる。ユーザ端末装置4として、これらが適宜に利用されてよいが、図1の例ではHMD(ヘッドマウントディスプレイ、或いはヘッドマウントデバイス)型のゲーム機が利用されている。 The user terminal device 4 is a computer device that can be connected to a network and is provided for the user's personal use. The user terminal device 4 can allow the user to enjoy various services provided by the center server 2 by implementing various computer software. Such computer software (applications) includes game applications for providing paid or free games. The user terminal device 4 functions as a game machine through the execution of such game applications. Such user terminal devices 4 include, for example, stationary or notebook type personal computers, stationary type home game consoles, or various mobile terminal devices such as portable tablet terminal devices and mobile phones (including smartphones). These may be used as appropriate as the user terminal device 4, but in the example of FIG. 1, an HMD (head-mounted display or head-mounted device) type game machine is used.

HMD型のゲーム機は、ユーザの視界の大部分をディスプレイの表示面が占めるように頭部に装着されて使用される周知のゲーム装置である。HMD型のゲーム機には、例えばHMD型の専用のゲーム装置、携帯電話等の適宜のモバイル端末装置とユーザの視界を表示面に向けるようにそれを収容するケースとの組合せにより構成されるゲーム装置、及び眼球の奥に焦点が合うように映像を投影するメガネ型のプロジェクタ(いわゆるスマートグラス)が含まれる。また、HMD型の専用のゲーム装置には、タブレット端末装置、或いはスマートフォン等に接続され、それらのタブレット端末装置のアプリケーションを通じてゲーム機として機能する連動型のゲーム装置も含まれる。これらの各種のHMD型のゲーム機のいずれがユーザ端末装置4として利用されてもよい。以下、ユーザ端末装置4として機能するHMD型のゲーム機にはユーザ端末装置4と同様の符号を付して、HMD型のゲーム機4と呼ぶ場合がある。 HMD type game machines are well-known game machines that are worn on the head so that the display surface occupies most of the user's field of vision. HMD type game machines include, for example, dedicated HMD type game machines, game machines that are configured by combining an appropriate mobile terminal device such as a mobile phone with a case that houses it so that the user's field of vision is directed toward the display surface, and glasses-type projectors (so-called smart glasses) that project images so that they are focused on the back of the eyeball. Dedicated HMD type game machines also include linked game machines that are connected to tablet terminal devices or smartphones, etc., and function as game machines through applications on those tablet terminal devices. Any of these various HMD type game machines may be used as the user terminal device 4. Hereinafter, the HMD type game machines that function as the user terminal device 4 may be referred to as HMD type game machines 4, with the same reference numerals as the user terminal device 4.

HMD型のゲーム機4には、ユーザのプレイ行為を入力するための各種の入力装置が適宜に設けられる。例えば、HMD型のゲーム機4には、頭部の動作をプレイ行為として検知するセンサが内蔵され、そのセンサが入力装置として機能してもよい。あるいは、HMD型のゲーム機4とは別の装置が適宜の手法でHMD型のゲーム機4に接続され、その別の装置が入力装置として機能してもよい。このようにHMD型のゲーム機4には、各種の入力装置が適宜に設けられてよいが、このような入力装置として図1の例では操作スティックOSが設けられている。操作スティックOSは、所定の無線通信規格を通じてHMD型のゲーム機4に接続される周知の入力装置である。操作スティックOSは各種の操作(プレイ行為)の入力に使用されてよく、それに応じて適宜の数の操作スティックOSが各HMD型のゲーム機4に接続されてよいが、一例として左右の手でそれぞれ操作されるように各HMD型のゲーム機4には二つの操作スティックOS(図1ではそれらのうちの一つのみが示されている)がそれぞれ接続される。HMD型のゲーム機4は、このような操作スティックOSを介して入力されるプレイ行為を通じて進行するゲームを提供する。 The HMD type game machine 4 is appropriately provided with various input devices for inputting the user's play actions. For example, the HMD type game machine 4 may have a built-in sensor that detects head movements as play actions, and the sensor may function as an input device. Alternatively, a device other than the HMD type game machine 4 may be connected to the HMD type game machine 4 in an appropriate manner, and the other device may function as an input device. In this way, the HMD type game machine 4 may be appropriately provided with various input devices, and in the example of FIG. 1, an operation stick OS is provided as such an input device. The operation stick OS is a well-known input device that is connected to the HMD type game machine 4 through a specified wireless communication standard. The operation stick OS may be used to input various operations (play actions), and accordingly, an appropriate number of operation sticks OS may be connected to each HMD type game machine 4, but as an example, two operation sticks OS (only one of which is shown in FIG. 1) are connected to each HMD type game machine 4 so that they can be operated by the left and right hands, respectively. The HMD-type game machine 4 provides a game that progresses through play actions input via this type of control stick OS.

各操作スティックOSには、プレイ行為の一種としての操作が実行されるべき各種の操作部が適宜に設けられてよいが、図1の例ではタッチボタンTBが設けられている。タッチボタンTBは、ユーザの押す操作、或いは指をタッチする(接触させる)タッチ操作が実行される操作部である。つまり、押す操作或いはタッチ操作がプレイ行為の一種としてタッチボタンTBを介して実行される。 Each operation stick OS may be provided with various operation units for performing operations as a type of play action, as appropriate, but in the example of FIG. 1, a touch button TB is provided. The touch button TB is an operation unit that performs a user's pressing operation or a touch operation of touching (contacting) a finger. In other words, a pressing operation or a touch operation is performed via the touch button TB as a type of play action.

HMD型のゲーム機4は、各種のゲームを適宜に提供してよく、例えばアクションゲーム、シミュレーションゲーム、ロールプレイングゲーム等を提供してよいが、一例として音楽ゲームを提供する。音楽ゲームは、タイミングゲームの一種である。タイミングゲームは、適切なプレイ行為の実行時期を評価するタイプのゲームである。音楽ゲームの場合、その適切なプレイ行為を実行すべき実行時期が楽曲とともに提供される。また、音楽ゲームでは、楽曲のリズムと一致する時期が実行時期として利用される。つまり、音楽ゲームは、適切なプレイ行為を実行すべき時期を楽曲のリズムに合わせてユーザに案内し、実際にプレイ行為が実行された時期を評価するタイプのゲームである。また、例えば、音楽ゲームにはプレイ用に複数の楽曲が用意され、そこから選択された楽曲が実際のプレイに使用される。そのような音楽ゲームは、各種の出力装置を介して適宜に提供されてよいが、一例としてHMD型のゲーム機4のディスプレイに表示されるゲーム画面を通じて提供される。 The HMD type game machine 4 may provide various games as appropriate, for example, action games, simulation games, role-playing games, etc., and provides a music game as an example. A music game is a type of timing game. A timing game is a type of game that evaluates the appropriate time to perform a play action. In the case of a music game, the execution time for the appropriate play action is provided together with a song. In addition, in a music game, a time that matches the rhythm of the song is used as the execution time. In other words, a music game is a type of game that guides the user to the appropriate time to perform a play action in accordance with the rhythm of the song, and evaluates the time when the play action is actually performed. In addition, for example, a plurality of songs are prepared for play in a music game, and a song selected from them is used in the actual play. Such a music game may be provided as appropriate via various output devices, and as an example, it is provided through a game screen displayed on the display of the HMD type game machine 4.

また、HMD型のゲーム機4が提供するゲームは、複数のキャラクタ(車或いは動物等の各種の物を含む)、及びこれらの複数のキャラクタが実行するパフォーマンスを含んでいる。複数のキャラクタは、アクションゲーム等の種類に応じて各種のパフォーマンスを適宜に実行してよいが、音楽ゲームの場合、一例として楽器を演奏するパフォーマンス(以下、演奏パフォーマンス)を実行する。このため、ゲーム画面は、このような演奏パフォーマンスを実行する複数のキャラクタを含む場合がある。このようなゲーム画面の詳細は後述する。 The game provided by the HMD-type game machine 4 includes multiple characters (including various objects such as cars or animals) and performances performed by these multiple characters. The multiple characters may perform various performances as appropriate depending on the type of action game, etc., but in the case of a music game, as an example, they perform a performance of playing a musical instrument (hereinafter, a performance performance). For this reason, the game screen may include multiple characters performing such a performance. Details of such a game screen will be described later.

ネットワーク3は、センターサーバ2に対してHMD型のゲーム機4を接続させることができる限り、適宜に構成されてよい。一例として、ネットワーク3は、TCP/IPプロトコルを利用してネットワーク通信を実現するように構成される。典型的には、WANとしてのインターネットと、LANとしてのイントラネットと、を組み合わせてネットワーク3が構成される。図1の例では、センターサーバ2はルータ3aを介して、HMD型のゲーム機4はアクセスポイント3bを介して、それぞれネットワーク3に接続されている。なお、ネットワーク3は、TCP/IPプロトコルを利用する形態に限定されない。ネットワーク3として、通信用の有線回線、或いは無線回線(赤外線通信、近距離無線通信等を含む)等を利用する各種の形態が利用されてよい。 The network 3 may be configured as appropriate as long as it is possible to connect the HMD-type game machine 4 to the center server 2. As an example, the network 3 is configured to realize network communication using the TCP/IP protocol. Typically, the network 3 is configured by combining the Internet as a WAN and an intranet as a LAN. In the example of FIG. 1, the center server 2 is connected to the network 3 via a router 3a, and the HMD-type game machine 4 is connected to the network 3 via an access point 3b. Note that the network 3 is not limited to a form that uses the TCP/IP protocol. Various forms that use a wired line for communication or a wireless line (including infrared communication, short-distance wireless communication, etc.) may be used as the network 3.

センターサーバ2は、ネットワーク3を介してHMD型のゲーム機4のユーザに各種のWebサービスを提供する。Webサービスは、各HMD型のゲーム機4に各種データ或いはソフトウエアを配信(データ等のアップデートを含む)する配信サービスを含んでいる。なお、Webサービスは、音楽ゲームが対戦型、或いは協力型のゲームとしてプレイされる場合においてネットワーク3を介して他のHMD型のゲーム機4のユーザ(対戦者、或いは協力者)をマッチングするマッチングサービス、及び各ユーザを識別するためのユーザIDを付与するサービス等の各種のサービスを適宜に含んでいてよい。 The center server 2 provides various web services to users of the HMD-type game machines 4 via the network 3. The web services include a distribution service that distributes various data or software (including updates to data, etc.) to each HMD-type game machine 4. The web services may also include various services as appropriate, such as a matching service that matches users (opponents or cooperators) of other HMD-type game machines 4 via the network 3 when the music game is played as a competitive or cooperative game, and a service that assigns a user ID to identify each user.

次に、図2を参照してゲームシステム1の制御系の要部を説明する。まず、センターサーバ2には、制御ユニット21、及び記憶手段としての記憶部22が設けられる。制御ユニット21は、所定のコンピュータプログラムに従って各種の演算処理及び動作制御を実行するプロセッサの一例としてのCPUと、その動作に必要な内部メモリその他の周辺装置とを組み合わせたコンピュータとして構成されている。 Next, the main parts of the control system of the game system 1 will be described with reference to Figure 2. First, the center server 2 is provided with a control unit 21 and a storage unit 22 as a storage means. The control unit 21 is configured as a computer that combines a CPU, which is an example of a processor that executes various arithmetic processes and operational controls according to a predetermined computer program, with an internal memory and other peripheral devices required for its operation.

記憶部22は、ハードディスクアレイ等の不揮発性記憶媒体(コンピュータ読み取り可能な記憶媒体)を含んだ記憶ユニットによって実現される外部記憶装置である。記憶部22は、一の記憶ユニット上に全てのデータを保持するように構成されてもよいし、複数の記憶ユニットにデータを分散して記憶するように構成されてもよい。記憶部22には、ユーザに各種のサービスを提供するために必要な各種の処理を制御ユニット21に実行させるコンピュータプログラムの一例として、プログラムPG1が記録される。また、記憶部22には、各種のサービスの提供に必要なサーバ用データが記憶される。そのようなサーバ用データは、サービス用の各種のデータを含んでいるが、図2の例ではそのような各種のデータの一種として、楽曲データMD、シーケンスデータQD、プレイデータPD、及び演奏データODが示されている。 The storage unit 22 is an external storage device realized by a storage unit including a non-volatile storage medium (computer-readable storage medium) such as a hard disk array. The storage unit 22 may be configured to hold all data on one storage unit, or may be configured to distribute and store data across multiple storage units. The storage unit 22 records a program PG1 as an example of a computer program that causes the control unit 21 to execute various processes necessary to provide various services to users. The storage unit 22 also stores server data necessary for providing various services. Such server data includes various data for services, and in the example of FIG. 2, song data MD, sequence data QD, play data PD, and performance data OD are shown as types of such various data.

楽曲データMDは、各楽曲を再生するためのデータである。楽曲データMDは、例えば音楽ゲームにおいて各楽曲の再生に使用される。シーケンスデータQDは、音楽ゲームにおいて適切なプレイ行為を実行すべき各実行時期が記述されたデータである。シーケンスデータQDは、このような各実行時期をユーザに案内するために使用される。また、ユーザによって実際にプレイ行為が実行された場合には、シーケンスデータQDの実行時期に基づいてそのプレイ行為が評価される。つまり、シーケンスデータQDは各実行時期の案内及びその評価に使用される。このため、シーケンスデータQDには、各実行時期、及びその実行時期に実行されるべき適切なプレイ行為の情報が互いに関連付けられるように記述される。また、音楽ゲームにおいて、複数の楽曲或いは複数の難易度が用意される場合には、シーケンスデータQDは楽曲毎或いは難易度毎に用意される。さらに、複数のキャラクタがプレイ対象に含まれるときには、選択されるキャラクタ(あるいは後述のようにキャラクタ毎に相違する楽器)に応じて各実行時期や適切なプレイ行為が相違する場合もある。このような場合、シーケンスデータQDはそのようなキャラクタ(あるいは楽器)毎にも用意される。プレイデータPDは、各ユーザの過去のプレイ実績に関する情報が記述されたデータである。プレイデータPDは、前回までのプレイ結果(過去の実績)を次回以降に引き継ぐため、或いは各ユーザに固有の設定内容を引き継ぐために使用される。演奏データODは、演奏パフォーマンスを実現するためのデータである。演奏データODの詳細は後述する。 The music data MD is data for playing each music piece. The music data MD is used to play each music piece in, for example, a music game. The sequence data QD is data describing each execution time when appropriate play actions should be performed in a music game. The sequence data QD is used to inform the user of each such execution time. Furthermore, when a play action is actually performed by the user, the play action is evaluated based on the execution time of the sequence data QD. In other words, the sequence data QD is used to inform and evaluate each execution time. For this reason, the sequence data QD describes each execution time and information on appropriate play actions to be performed at that execution time so that they are associated with each other. Furthermore, in a music game, when multiple music pieces or multiple difficulty levels are prepared, the sequence data QD is prepared for each music piece or each difficulty level. Furthermore, when multiple characters are included in the play target, each execution time or appropriate play action may differ depending on the selected character (or a musical instrument that differs for each character, as described later). In such a case, the sequence data QD is also prepared for each such character (or musical instrument). The play data PD is data that describes information about each user's past play results. The play data PD is used to carry over previous play results (past results) to the next time or later, or to carry over settings unique to each user. The performance data OD is data for realizing a performance. Details of the performance data OD will be described later.

なお、サーバ用データは、その他にも各種のサービスを実現するための各種のデータを含んでよい。例えば、そのようなデータには、画像データ、或いはID管理データ等が含まれてよい。画像データはゲーム画面等の各種画像を表示装置に表示させるためのデータである。ID管理データは、ユーザID等の各種IDを管理するためのデータである。しかし、それらの図示は省略した。 The server data may also include various other data for implementing various services. For example, such data may include image data or ID management data. The image data is data for displaying various images such as game screens on a display device. The ID management data is data for managing various IDs such as user IDs. However, illustration of these is omitted.

制御ユニット21には、制御ユニット21のハードウエア資源とソフトウエア資源としてのプログラムPG1との組合せによって実現される論理的装置として、Webサービス管理部24が設けられる。Webサービス管理部24は、HMD型のゲーム機4に対して上述のWebサービスを提供するための各種処理を実行する。 The control unit 21 is provided with a Web service management unit 24 as a logical device realized by a combination of the hardware resources of the control unit 21 and the program PG1 as a software resource. The Web service management unit 24 executes various processes for providing the above-mentioned Web services to the HMD-type game machine 4.

一方、HMD型のゲーム機4には、制御ユニット41と、記憶手段としての記憶部42とが設けられる。所定のコンピュータプログラムに従って各種の演算処理及び動作制御を実行するプロセッサの一例としてのCPUと、その動作に必要な内部メモリその他の周辺装置とを組み合わせたコンピュータとして構成されている。 On the other hand, the HMD type game machine 4 is provided with a control unit 41 and a storage unit 42 as a storage means. It is configured as a computer that combines a CPU, which is an example of a processor that executes various arithmetic processes and operation controls according to a specific computer program, with an internal memory and other peripheral devices required for its operation.

記憶部42は、ハードディスク、半導体記憶装置といった不揮発性記憶媒体(コンピュータ読み取り可能な記憶媒体)を含んだ記憶ユニットによって実現される外部記憶装置である。記憶部42には、ユーザに各種のサービスを提供するために必要な各種の処理を制御ユニット41に実行させるコンピュータプログラムの一例として、プログラムPG2が記録される。また、記憶部42には、音楽ゲームの提供に必要なゲームデータが記録される。そのようなゲームデータには、音楽ゲーム用の各種のデータが含まれるが、図2の例ではその一例として楽曲データMD、シーケンスデータQD、プレイデータPD、及び演奏データODが示されている。 The storage unit 42 is an external storage device realized by a storage unit including a non-volatile storage medium (computer-readable storage medium) such as a hard disk or a semiconductor storage device. The storage unit 42 records the program PG2 as an example of a computer program that causes the control unit 41 to execute various processes necessary to provide various services to the user. The storage unit 42 also records game data necessary to provide the music game. Such game data includes various data for the music game, and the example in FIG. 2 shows song data MD, sequence data QD, play data PD, and performance data OD as examples.

楽曲データMD、シーケンスデータQD、プレイデータPD、及び演奏データODは、初期インストール、各種記憶媒体を通じた提供等の各種の手法により記憶部42に提供されてよいが、一例として配信サービスを通じてセンターサーバ2から提供される。なお、ゲームデータには、例えば、その他にも楽曲とは別の音声が存在する場合にそのような各種の音声を再生するための音声データ等、ゲーム用の各種のデータが含まれ得る。そのようなデータには、楽曲データMD等と同様に配信サービス等を通じて提供される画像データ、或いはID管理データ等が適宜に含まれ得る。しかし、これらの図示は省略した。 The music data MD, sequence data QD, play data PD, and performance data OD may be provided to the storage unit 42 by various methods, such as initial installation or provision through various storage media, but as an example, they are provided from the center server 2 through a distribution service. The game data may include various data for the game, such as audio data for playing various sounds other than the music when such sounds exist. Such data may include image data provided through a distribution service, such as the music data MD, or ID management data, as appropriate. However, illustration of these has been omitted.

制御ユニット41には、制御ユニット41のハードウエア資源とソフトウエア資源としてのプログラムPG2との組合せによって各種の論理的装置が構成される。そして、それらの論理的装置を通じて音楽ゲームの提供に必要な各種の処理(センターサーバ2のWebサービス管理部24が提供するWebサービスを享受するために必要な処理を含む)が実行されるが、図2の例では、音楽ゲームに関連する論理的装置として、進行制御部43、及びデータ管理部44が示されている。 In the control unit 41, various logical devices are configured by combining the hardware resources of the control unit 41 with the program PG2 as a software resource. Various processes required to provide the music game (including processes required to enjoy the Web services provided by the Web service management unit 24 of the center server 2) are then executed through these logical devices, and in the example of Figure 2, a progress control unit 43 and a data management unit 44 are shown as logical devices related to the music game.

進行制御部43は、ゲームの進行に必要な各種の処理を行う論理的装置である。このような処理には、例えば、プレイのための各種準備を実行する処理、プレイ行為の各実行時期をユーザに案内する処理、或いはユーザが実行するプレイ行為等を評価する処理も含まれる。また、プレイのための準備には各種設定等の適宜の要素が含まれるが、例えば選択機会の提供、及びプレイの開始時期の判別等が含まれる。具体的には、進行制御部43は、このような各種の処理の一例として、演奏選択処理、連携応答処理、及びパフォーマンス評価処理を実行する。一方、データ管理部44は、記憶部42に記録されるゲームデータの管理に関する各種の処理を行う論理的装置である。例えば、データ管理部44は、センターサーバ2から提供されるゲームデータを取得したり記憶部42に保存したりする処理を実行する。例えば、データ管理部44は、このような各種の処理の一例として、演奏データ生成処理を実行する。演奏選択処理、連携応答処理、パフォーマンス評価処理、及び演奏データ生成処理の手順の詳細は後述する。 The progress control unit 43 is a logical device that performs various processes necessary for the progress of the game. Such processes include, for example, a process for performing various preparations for playing, a process for informing the user of the timing of each play action, and a process for evaluating the play action performed by the user. Preparation for playing also includes appropriate elements such as various settings, for example, providing a selection opportunity and determining the start time of play. Specifically, the progress control unit 43 performs a performance selection process, a cooperation response process, and a performance evaluation process as examples of such various processes. On the other hand, the data management unit 44 is a logical device that performs various processes related to the management of game data recorded in the storage unit 42. For example, the data management unit 44 performs a process for acquiring game data provided by the center server 2 and storing it in the storage unit 42. For example, the data management unit 44 performs a performance data generation process as an example of such various processes. The details of the procedures for the performance selection process, the cooperation response process, the performance evaluation process, and the performance data generation process will be described later.

HMD型のゲーム機4には、各種の出力装置、及び入力装置が適宜に設けられ得るが、図2の例では出力装置の一例としてディスプレイ47、及びスピーカSPが、入力装置の一例としてセンサSMAが、それぞれ設けられている。ディスプレイ47は、ゲーム画面等を表示するための周知の表示装置である。スピーカSPは、楽曲を含む各種音声を再生するための周知の音声再生装置である。センサSMAは、HMD型のゲーム機4の各種の状態を検出するための周知の検出装置(検出手段)である。センサSMAは検出対象の状態に応じた各種の検出装置を適宜に含んでいてよく、例えばユーザの視線をトラッキングするアイトラッキング用のセンサ等を適宜に含んでいてよいが、図2の例ではそのような各種のセンサの一例として加速度センサSM1、ジャイロセンサSM2、及び位置検出センサSM3が示されている。 The HMD type game machine 4 may be provided with various output devices and input devices as appropriate, but in the example of FIG. 2, a display 47 and a speaker SP are provided as examples of output devices, and a sensor SMA is provided as an example of an input device. The display 47 is a well-known display device for displaying game screens and the like. The speaker SP is a well-known audio playback device for playing various sounds including music. The sensor SMA is a well-known detection device (detection means) for detecting various states of the HMD type game machine 4. The sensor SMA may include various detection devices according to the state of the detection target, for example, an eye tracking sensor that tracks the user's gaze, and in the example of FIG. 2, an acceleration sensor SM1, a gyro sensor SM2, and a position detection sensor SM3 are shown as examples of such various sensors.

加速度センサSM1は、HMD型のゲーム機4に生じる加速度(例えば三軸方向の加速度)を検出するための周知の検出装置である。このような加速度の検出を通じて加速度センサSM1は適宜に活用されてよいが、一例として水平状態、HMD型のゲーム機4の傾き、或いは向きといった状態の検出に使用される。同様に、ジャイロセンサSM2は、基準軸(一例として三軸)に対する角度の変化を検出するための周知の検出装置である。このような角度の検出を通じてジャイロセンサSM2は適宜に活用されてよいが、一例としてHMD型のゲーム機4の回転、傾き、或いは向きといった状態の検出に使用される。また、これらの加速度センサSM1、及びジャイロセンサSM2の検出結果は、それぞれ単独で使用されてもよい(単独で使用される場合、いずれか一方は省略されてもよい)が、一例としてHMD型のゲーム機4の向き等の各種状態の検出に組み合わされて使用される。 The acceleration sensor SM1 is a well-known detection device for detecting acceleration (e.g., acceleration in three axial directions) occurring in the HMD-type game machine 4. The acceleration sensor SM1 may be used appropriately through such acceleration detection, but as an example, it is used to detect states such as the horizontal state, tilt, or orientation of the HMD-type game machine 4. Similarly, the gyro sensor SM2 is a well-known detection device for detecting changes in angle with respect to a reference axis (three axes, for example). The gyro sensor SM2 may be used appropriately through such angle detection, but as an example, it is used to detect states such as the rotation, tilt, or orientation of the HMD-type game machine 4. In addition, the detection results of the acceleration sensor SM1 and the gyro sensor SM2 may be used alone (when used alone, either one may be omitted), but as an example, they are used in combination to detect various states such as the orientation of the HMD-type game machine 4.

位置検出センサSM3は、操作スティックOSの位置、及びその変化を検出するための検出装置である。操作スティックOSの位置等を検出可能な限り、位置検出センサSM3として各種のセンサが利用されてよいが、一例としてカメラが利用される。また、位置検出センサSM3(カメラ)は各種の手法で操作スティックOSの位置を検出してよいが、一例として操作スティックOSに内蔵、或いは装着されるトラッカ(不図示)の位置を検出することによりその位置を操作スティックOSの位置として利用する。 The position detection sensor SM3 is a detection device for detecting the position of the operating stick OS and its changes. As long as it can detect the position of the operating stick OS, various sensors may be used as the position detection sensor SM3, but as one example, a camera is used. The position detection sensor SM3 (camera) may detect the position of the operating stick OS using various methods, but as one example, it detects the position of a tracker (not shown) built into or attached to the operating stick OS and uses that position as the position of the operating stick OS.

HMD型のゲーム機4には、その他にも各種の出力装置、或いは入力装置が適宜に接続され得るが、図2の例では上述の操作スティックOSが接続されている。操作スティックOSは上述のとおりであるが、制御ユニット41に接続され、プレイ行為に応じた各種の入力信号を制御ユニット41に出力する。操作スティックOSには、上述のトラッカを含む各種の出力装置、或いは上述のタッチボタンTB等の各種の入力装置が適宜に設けられ得るが、図2の例ではセンサSMBが示されている。 Various other output devices or input devices may be appropriately connected to the HMD-type game machine 4, but in the example of FIG. 2, the above-mentioned operation stick OS is connected. The operation stick OS is as described above, but is connected to the control unit 41 and outputs various input signals to the control unit 41 according to play actions. The operation stick OS may be provided with various output devices including the above-mentioned tracker, or various input devices such as the above-mentioned touch button TB, as appropriate, but in the example of FIG. 2, a sensor SMB is shown.

センサSMBは操作スティックOSの状態(動き)、換言すれば操作スティックOSに実行される各種のプレイ行為を検出するためのセンサである。このようなセンサSMBは、検出対象の状態に応じた各種の検出装置を適宜に含んでいてよいが、一例としてHMD型のゲーム機4の加速度センサSM1、及びジャイロセンサSM2と同様の周知な加速度センサ、及びジャイロセンサを含んでいる。そして、これらの加速度センサ、及びジャイロセンサ(センサSMB)は、HMD型のゲーム機4の加速度センサSM1、及びジャイロセンサSM2と同様に、操作スティックOSの向き等の各種状態の検出のために適宜に組み合わされて使用される。 The sensor SMB is a sensor for detecting the state (movement) of the operating stick OS, in other words, various play actions executed by the operating stick OS. Such a sensor SMB may include various detection devices appropriate to the state of the object to be detected, and as an example, includes a well-known acceleration sensor and gyro sensor similar to the acceleration sensor SM1 and gyro sensor SM2 of the HMD-type game machine 4. These acceleration sensors and gyro sensors (sensor SMB) are used in appropriate combinations to detect various states, such as the orientation of the operating stick OS, similar to the acceleration sensor SM1 and gyro sensor SM2 of the HMD-type game machine 4.

次に、図3を参照して音楽ゲームをプレイするためのゲーム画面の一例について説明する。図3は、HMD型のゲーム機4のディスプレイ47に表示されるゲーム画面の一例を模式的に示す図である。音楽ゲームは各種のゲーム画面を含み得るが、図3の例はプレイ行為を実行すべき各実行時期を案内するためのゲーム画面を示している。また、音楽ゲームは適宜に構成されてよく、楽器の演奏を演出するようにプレイ行為に伴い楽器の演奏音が再生される場合も多い。このような場合、臨場感の向上のためにプレイ行為に伴い楽器の演奏動作を実行するキャラクタがゲーム画面に登場する場合もある。他のユーザ(協力者若しくは対戦者)、或いはコンピュータにそれぞれ対応する同様の複数のキャラクタが登場する場合もある。図3の例は、これらのキャラクタを含む場合のゲーム画面を示している。より具体的には、ユーザのプレイ行為に伴い楽器の一例としてドラムを演奏する演奏動作を実行するキャラクタ、及び他のユーザ等のプレイ行為に伴い他の楽器を演奏する演奏動作を実行するキャラクタの両方を含むゲーム画面を示している。このようなゲーム画面は適宜に構成されてよいが、図3の例はゲーム画面が仮想三次元空間を演出するように構成される場合を示している。さらに、このような仮想三次元空間は仮想カメラの撮影結果として適宜に切り取られてゲーム画面として表示されてよいが、図3の例はユーザに対応するキャラクタ(以下、ユーザキャラクタと呼ぶ場合がある)の視界を演出するように仮想三次元空間が切り取られ(概ねキャラクタの目の位置に設定された仮想カメラにより撮影され)、ゲーム画面として表示される場合を示している。この場合、ゲーム画面50は、指示用オブジェクト51、スコア表示領域52、ステージ領域53、キャラクタ画像54、及びドラムセット画像55を含んでいる。 Next, an example of a game screen for playing a music game will be described with reference to FIG. 3. FIG. 3 is a diagram showing an example of a game screen displayed on the display 47 of the HMD-type game machine 4. A music game may include various game screens, but the example of FIG. 3 shows a game screen for informing the player of the timing at which the play action should be performed. In addition, a music game may be configured as appropriate, and in many cases, the sound of an instrument being played is reproduced in association with the play action to produce the performance of an instrument. In such cases, a character performing an action of playing an instrument in association with the play action may appear on the game screen to improve the sense of realism. In some cases, similar characters corresponding to other users (cooperators or opponents) or computers may appear. The example of FIG. 3 shows a game screen including these characters. More specifically, the game screen includes both a character performing an action of playing a drum as an example of an instrument in association with the play action of the user, and a character performing an action of playing another instrument in association with the play action of another user, etc. Although such a game screen may be configured as appropriate, the example of FIG. 3 shows a case in which the game screen is configured to produce a virtual three-dimensional space. Furthermore, such a virtual three-dimensional space may be appropriately cropped as a result of shooting with a virtual camera and displayed as a game screen, but the example in FIG. 3 shows a case where the virtual three-dimensional space is cropped (photographed by a virtual camera set roughly at the position of the character's eyes) so as to present the field of view of the character corresponding to the user (hereinafter sometimes referred to as the user character) and displayed as a game screen. In this case, the game screen 50 includes an instruction object 51, a score display area 52, a stage area 53, a character image 54, and a drum set image 55.

ドラムセット画像55は、楽器のドラムセットを模した画像である。ドラムセット画像55は、適宜のドラムセットに対応していてよいが、図3の例では二つのドラム画像55a、及び四つのシンバル画像55bを含んでいる。各ドラム画像55a、及び各シンバル画像55bは、それぞれドラムセットにおけるドラム、及びシンバルに対応する画像である。これらは実際のドラムセットと同様の配置に表示される。具体的には、二つのドラム画像55aは左右に並ぶようにドラムセット画像55において中央付近に配置される。一方、四つのシンバル画像55bは、ドラムセット画像55において二つのドラム画像55aを挟むようにそれらの左右に二つずつ配置される。また、左側の二つのシンバル画像55b、及び右側の二つのシンバル画像55bは、いずれもそれぞれ上下に分かれるように配置される。 The drum set image 55 is an image that imitates a musical instrument drum set. The drum set image 55 may correspond to any drum set, but in the example of FIG. 3, it includes two drum images 55a and four cymbal images 55b. Each drum image 55a and each cymbal image 55b corresponds to a drum and a cymbal in the drum set, respectively. They are displayed in the same arrangement as an actual drum set. Specifically, the two drum images 55a are arranged near the center of the drum set image 55 so as to be lined up left and right. Meanwhile, the four cymbal images 55b are arranged two on each side of the two drum images 55a in the drum set image 55. In addition, the two cymbal images 55b on the left side and the two cymbal images 55b on the right side are each arranged so as to be separated above and below.

スコア表示領域52は、スコア(獲得得点)を表示するための領域である。スコア表示領域52は適宜に構成されてよいが、図3の例では正方形状に形成され、仮想三次元空間において奥側(ユーザ側が手前)に位置するように表示される。指示用オブジェクト51は、各実行時期に対応する画像(換言すれば各実行時期を示す標識画像)である。指示用オブジェクト51は、適宜の時期に仮想三次元空間における奥側の適宜の位置に出現し、手前側、つまりユーザに近づくように所定の移動経路に沿って移動する。このような移動経路は適宜に設定されてよいが、各ドラム画像55a、及び各シンバル画像55bのいずれかを通過するように設定される。各移動経路において各ドラム画像55a、及び各シンバル画像55bは現在時刻の基準を示す標識画像として機能する。このため、各指示用オブジェクト51は、そのような移動経路に沿って、対応する実行時期において各ドラム画像55a、及び各シンバル画像55bのいずれかと一致するように移動する。移動経路は表示されてもよいが、図3の例では移動経路は表示されていない。各実行時期は指示用オブジェクト51(指示用の標識画像)と各ドラム画像55a等(現在時刻の標識画像)のいずれかとの間の相対的変位を通じて適宜に案内されてよいが、一例として指示用オブジェクト51の各ドラム画像55a等への移動を通じて案内される。 The score display area 52 is an area for displaying the score (acquired points). The score display area 52 may be configured as appropriate, but in the example of FIG. 3, it is formed in a square shape and is displayed so as to be located at the back side (the user side is in front) in the virtual three-dimensional space. The instruction object 51 is an image corresponding to each execution time (in other words, a sign image indicating each execution time). The instruction object 51 appears at an appropriate position on the back side in the virtual three-dimensional space at an appropriate time, and moves along a predetermined movement path so as to approach the front side, that is, the user. Such a movement path may be set as appropriate, but is set to pass through either of the drum images 55a and each cymbal image 55b. In each movement path, each drum image 55a and each cymbal image 55b function as a sign image indicating the reference of the current time. Therefore, each instruction object 51 moves along such a movement path so as to match either of the drum images 55a and each cymbal image 55b at the corresponding execution time. The movement path may be displayed, but in the example of FIG. 3, the movement path is not displayed. Each execution time may be appropriately indicated through relative displacement between the instruction object 51 (instruction sign image) and one of the drum images 55a, etc. (sign image of the current time), but as an example, it is indicated through the movement of the instruction object 51 to each drum image 55a, etc.

また、指示用オブジェクト51は各種に分類されてよいが、図3の例では第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bの二種類を含んでいる。第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bは、各実行時期において互いに異なるプレイ行為を要求する指示用オブジェクト51である。具体的には、第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bはいずれも下側のシンバル画像55bを叩く動作をプレイ行為としてユーザに要求するが、第1指示用オブジェクト51Aは左側のシンバル画像55bに対する叩く動作の要求に、第2指示用オブジェクト51Bは右側のシンバル画像55bに対する叩く動作の要求に、それぞれ対応している。このため、第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bは適宜の位置に出現した後、各実行時期において、左右の下側のシンバル画像55bの位置とそれぞれ一致するように、手前側に向かって移動する。 The instruction object 51 may be classified into various types, but in the example of FIG. 3, it includes two types, a first instruction object 51A and a second instruction object 51B. The first instruction object 51A and the second instruction object 51B are instruction objects 51 that request different play actions at each execution time. Specifically, the first instruction object 51A and the second instruction object 51B both request the user to perform a play action of hitting the lower cymbal image 55b, but the first instruction object 51A corresponds to a request for a hit action on the left cymbal image 55b, and the second instruction object 51B corresponds to a request for a hit action on the right cymbal image 55b. Therefore, the first instruction object 51A and the second instruction object 51B appear at an appropriate position, and then move toward the front so as to match the positions of the lower left and right cymbal images 55b at each execution time.

ユーザに要求される叩く動作は、操作スティックOSを通じて入力される。具体的には、例えば第1指示用オブジェクト51Aと右側の下に位置するシンバル画像55bとの一致に合わせてユーザには、仮想三次元空間におけるそのシンバル画像55bの位置に対して叩く動作を実行するように操作スティックOSを振る動作が要求される。このため、このような各シンバル画像55b等への叩く動作が各実行時期における適切なプレイ行為として機能するように、シーケンスデータQDには、各指示用オブジェクト51の移動経路、或いはその移動経路上の各シンバル画像55b等の情報が適切なプレイ行為の情報として記述される。そして、その叩く動作の実際の実行時期と実際の一致時期(シーケンスデータQDに記述された実行時期)との間のずれ時間が少ないほど高く評価される。第2指示用オブジェクト51Bに関しても同様である。 The tapping action requested by the user is input through the operating stick OS. Specifically, for example, when the first instruction object 51A matches the cymbal image 55b located at the bottom right, the user is requested to swing the operating stick OS to perform a tapping action on the position of the cymbal image 55b in the virtual three-dimensional space. For this reason, in order for such a tapping action on each cymbal image 55b to function as an appropriate play action at each execution time, the sequence data QD describes the movement path of each instruction object 51, or information on each cymbal image 55b on the movement path, as information on an appropriate play action. The smaller the time lag between the actual execution time of the tapping action and the actual matching time (the execution time described in the sequence data QD), the higher the evaluation. The same applies to the second instruction object 51B.

各ドラム画像55a等を叩く動作の判定は適宜に実現されてよいが、一例として次のように実現される。まず各ドラム画像55a、及び各シンバル画像55bは仮想三次元空間における空間座標で定義された所定位置に配置され、その所定位置(空間座標)の各ドラム画像55a等に向かって各指示用オブジェクト51は移動する。また、各ドラム画像55a等には、その所定位置を基準に評価範囲(各ドラム画像55a等と同一またはそれよりちょっと大きい範囲)が設定される。スティック画像56は操作スティックOSへの操作に伴い仮想三次元空間において移動するが、その先端部の位置(空間座標)が各ドラム画像55a、或いはシンバル画像55bの評価範囲に入ったか否かにより、叩く動作が実行されたか否か判別される。そして、その評価範囲にスティック画像56が入った時期(実際のプレイ行為の時期)と、各ドラム画像55a等に指示用オブジェクト51が到達すべき時期(シーケンスデータQDの実行時期)との間のずれ時間が算出され、そのずれ時間に応じて評価が決定される。この評価は適宜に実行されてよいが、一例としてパーフェクト、グレート、グッド、或いはバッドといった評価結果を示す基準を通じて実現される。また、各実行時期を基準に所定時間内に叩く動作が実行されなければ、ミス操作(ミスに対応する評価結果)として判定される。同様に、バッドに属する期間より早く、若しくは遅く、叩く動作が実行された場合、ミスと判定される。なお、これらのいずれにも属さない時期に叩く動作が実行された場合には、その動作は何にも使用されず、無視されてよい。 The determination of the action of hitting each drum image 55a, etc. may be realized appropriately, but as an example, it is realized as follows. First, each drum image 55a and each cymbal image 55b are placed at a predetermined position defined by spatial coordinates in the virtual three-dimensional space, and each instruction object 51 moves toward each drum image 55a, etc. at the predetermined position (spatial coordinates). In addition, an evaluation range (a range equal to or slightly larger than each drum image 55a, etc.) is set for each drum image 55a, etc. based on the predetermined position. The stick image 56 moves in the virtual three-dimensional space in response to the operation of the operation stick OS, and whether or not the position (spatial coordinates) of its tip enters the evaluation range of each drum image 55a or cymbal image 55b is used to determine whether or not the action of hitting has been performed. Then, the time lag between the time when the stick image 56 enters the evaluation range (the time of the actual play action) and the time when the instruction object 51 should reach each drum image 55a, etc. (the time of execution of the sequence data QD) is calculated, and the evaluation is determined according to the time lag. This evaluation may be performed as appropriate, but as an example, it is realized through criteria that indicate evaluation results such as perfect, great, good, or bad. Furthermore, if the tapping action is not performed within a predetermined time based on each execution time, it is determined to be a mistake operation (evaluation result corresponding to a mistake). Similarly, if the tapping action is performed earlier or later than a period that belongs to bad, it is determined to be a mistake. Note that if the tapping action is performed at a time that does not belong to any of these, the action is not used for anything and may be ignored.

指示用オブジェクト51は、その他にも左右の上側に位置するシンバル画像55bに対応する種類、各ドラム画像55aに対応する種類等の種類を含み、これらの種類を通じて第1指示用オブジェクト51Aと同様にドラム画像55a等を叩く動作を適宜に要求し得るが、図3の例ではそれらの表示は省略されている。また、第1指示用オブジェクト51A等の各種の指示用オブジェクト51は、適宜の形態で表示されてよいが、一例としていずれもシンバル画像55b等の移動経路上に位置する現在時刻の標識画像と同様の形状に表示される。同様に、第1指示用オブジェクト51A等の各種の指示用オブジェクト51は、互いに区別可能に適宜に表示されてよいが、一例として第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bは互いに異なる配色で表示される。ドラムセット画像55における各ドラム画像55a等も同様である。例えば、各ドラム画像55aは互いに異なる配色で表示されてよい。この場合、プレイ対象をユーザが容易に識別できるように、各指示用オブジェクト51は、対応する各ドラム画像55a等と同じ色で表示されてよい。 The instruction objects 51 also include types corresponding to the cymbal images 55b located on the upper left and right sides, types corresponding to each drum image 55a, etc., and through these types, the action of hitting the drum images 55a, etc. can be appropriately requested in the same way as the first instruction object 51A, but their display is omitted in the example of FIG. 3. In addition, various instruction objects 51 such as the first instruction object 51A may be displayed in an appropriate form, but as an example, they are all displayed in a shape similar to the current time marker image located on the movement path of the cymbal image 55b, etc. Similarly, various instruction objects 51 such as the first instruction object 51A may be displayed appropriately so as to be distinguishable from each other, but as an example, the first instruction object 51A and the second instruction object 51B are displayed in different colors from each other. The same applies to each drum image 55a, etc. in the drum set image 55. For example, each drum image 55a may be displayed in different colors from each other. In this case, each instruction object 51 may be displayed in the same color as the corresponding drum image 55a, etc., so that the user can easily identify the play target.

ステージ領域53は、仮想三次元空間に形成されるステージに対応する領域である。仮想三次元空間において各キャラクタは、そのステージにおいて演奏動作を実行する。このため、ステージ領域53には、各キャラクタに対応するキャラクタ画像54、及びドラムセット画像55が配置される。ステージ領域53には、適宜の数のキャラクタ画像54が配置されてよいが、図3の例では三つのキャラクタ画像54が表示されている。具体的には、キャラクタ画像54は、キーボードを演奏する第1キャラクタ画像54A、ギターを演奏する第2キャラクタ画像54B、及びドラムを演奏する第3キャラクタ画像54Cを含んでいる。これらのキャラクタ画像54A、54B、54Cは、仮想三次元空間においてキーボード、ギター、及びドラム(いずれも楽器の一例)を演奏するための一つの演奏ユニットを形成する三体のキャラクタにそれぞれ対応している。これらの三体のキャラクタは、ユーザ、及び協力者(コンピュータを含む)に適宜に対応してよく、それらのいずれのプレイ行為に基づいて演奏動作を実行してもよいが、一例として第1キャラクタ画像54A、及び第2キャラクタ画像54Bがコンピュータに、第3キャラクタ画像54Cがユーザに、それぞれ対応している。この例において、第1キャラクタ画像54A~第3キャラクタ画像54Cが本発明の複数のキャラクタとして機能する。また、第3キャラクタ画像54Cが本発明のユーザキャラクタとして機能する。 The stage area 53 is an area corresponding to a stage formed in a virtual three-dimensional space. In the virtual three-dimensional space, each character performs a performance action on that stage. For this reason, a character image 54 corresponding to each character and a drum set image 55 are arranged in the stage area 53. An appropriate number of character images 54 may be arranged in the stage area 53, but three character images 54 are displayed in the example of FIG. 3. Specifically, the character images 54 include a first character image 54A that plays a keyboard, a second character image 54B that plays a guitar, and a third character image 54C that plays a drum. These character images 54A, 54B, and 54C correspond to three characters that form a single performance unit for playing a keyboard, a guitar, and a drum (each of which is an example of a musical instrument) in the virtual three-dimensional space. These three characters may correspond appropriately to the user and collaborators (including a computer), and musical performance actions may be performed based on any of their play actions, but as an example, the first character image 54A and the second character image 54B correspond to the computer, and the third character image 54C corresponds to the user. In this example, the first character image 54A to the third character image 54C function as the multiple characters of the present invention. Also, the third character image 54C functions as the user character of the present invention.

第1キャラクタ画像54A~第3キャラクタ画像54Cは適宜に表示されてよいが、図3の例ではユーザキャラクタ(第3キャラクタ画像54C)の視界に対応するように、第1キャラクタ画像54A、及び第2キャラクタ画像54Bは全身が、第3キャラクタ画像54C(ユーザキャラクタ)は両手(身体の一部)が、それぞれ表示されている。また、仮想三次元空間においてユーザキャラクタがドラムを叩くためのスティックを握っている状況を示すように、第3キャラクタ画像54Cの左右の両手には二つのスティック画像56がそれぞれ表示されている。この場合、ユーザによる叩く動作の実行に伴い、第3キャラクタ画像54Cもその叩く動作を再現するように動作する。より具体的には、叩く動作の実行に伴い、第3キャラクタ画像54Cはスティック画像56において対象のシンバル画像55b等を叩く動作(演奏動作)を実行する。第1キャラクタ画像54A、及び第2キャラクタ画像54Bも同様である。つまり、協力者(コンピュータを含む)によるプレイ行為(対象の楽器、或いは入力装置の種類に応じて適宜でよいが、例えばキーボードの場合は鍵を弾く動作、ギターであれば弦を弾く動作)に伴い、第1キャラクタ画像54A、及び第2キャラクタ画像54Bも同様の演奏動作をゲーム画面50において実行する。 The first character image 54A to the third character image 54C may be displayed as appropriate, but in the example of FIG. 3, the first character image 54A and the second character image 54B are displayed as a whole body, and the third character image 54C (user character) is displayed as both hands (part of the body) so as to correspond to the field of view of the user character (third character image 54C). In addition, two stick images 56 are displayed on the left and right hands of the third character image 54C to show a situation in which the user character is holding a stick for hitting a drum in the virtual three-dimensional space. In this case, as the user performs a hitting action, the third character image 54C also performs an action to reproduce the hitting action. More specifically, as the hitting action is performed, the third character image 54C performs an action (playing action) of hitting the target cymbal image 55b, etc. in the stick image 56. The same is true for the first character image 54A and the second character image 54B. In other words, as a collaborator (including a computer) plays (this can be appropriate depending on the type of instrument or input device in question, but for example, playing the keys on a keyboard or plucking the strings on a guitar), the first character image 54A and the second character image 54B also perform the same playing action on the game screen 50.

図4~図5を参照して、ゲーム画面50について更に説明する。図4は、仮想三次元空間における各キャラクタの位置関係を説明するための説明図である。図4の例は、仮想三次元空間におけるステージ、及び各キャラクタを上方から見た場合を模式的に示している。仮想三次元空間におけるステージ等は、ゲーム画面50におけるステージ領域53等に対応するため、図4の例では説明の便宜のためステージ、及び各キャラクタにはゲーム画面50におけるステージ領域53、及び各キャラクタ画像54等と同様の符号が付されている。 The game screen 50 will be further described with reference to Figures 4 and 5. Figure 4 is an explanatory diagram for explaining the positional relationships of each character in the virtual three-dimensional space. The example in Figure 4 shows a schematic diagram of the stage in the virtual three-dimensional space and each character as viewed from above. Since the stage in the virtual three-dimensional space corresponds to the stage area 53 in the game screen 50, in the example in Figure 4, for ease of explanation, the stage and each character are given the same reference numerals as the stage area 53 and each character image 54 in the game screen 50.

図4に示すように、各キャラクタ画像54(仮想三次元空間における各キャラクタ)はステージ領域53(仮想三次元空間におけるステージ)に所定の間隔を開けて配置される。各キャラクタ画像54の位置、或いは間隔は、適宜でよく、可変的であってもよいが、一例として固定的である。つまり、各キャラクタ画像54はステージ領域53の予め決められた所定の位置にそれぞれ固定的に配置される。ただし、各キャラクタ画像54は、プレイ中においてプレイ状況等に応じて適宜に移動してよい。 As shown in FIG. 4, each character image 54 (each character in the virtual three-dimensional space) is arranged at a predetermined interval in the stage area 53 (the stage in the virtual three-dimensional space). The position or interval of each character image 54 may be appropriate or variable, but as an example, is fixed. In other words, each character image 54 is fixedly arranged at a predetermined position in the stage area 53. However, each character image 54 may move appropriately during play depending on the play situation, etc.

また、第3キャラクタ画像54Cはユーザキャラクタに対応する。このため、第3キャラクタ画像54Cには、視界範囲IAが設定される。視界範囲IAは、ゲーム画面50を描画するための仮想カメラの撮影範囲に対応する。視界範囲IAは適宜の範囲として設定されてよいが、図4の例では第3キャラクタ画像54Cが正面を向いている場合に設定される視界範囲IAが示されている。また、この視界範囲IAは第3キャラクタ画像54Cの動作、換言すればユーザの動作によって移動する。具体的には、HMD型のゲーム機4はユーザの頭部に装着され、プレイされるが、このユーザの頭部の動きに伴い、第3キャラクタ画像54Cの頭部も動作する。例えば、ユーザの頭部(HMD型のゲーム機4)が身体における正面を向いた状態が仮想空間内の視界範囲IAとなるように調整された場合、ユーザが正面を向いているとき、第3キャラクタ画像54Cの頭部も仮想三次元空間において同様の方向を向くため、視界範囲IAは図4の例において正面側(実線で表示される範囲)に設定される。 Furthermore, the third character image 54C corresponds to the user character. For this reason, a field of view IA is set for the third character image 54C. The field of view IA corresponds to the shooting range of the virtual camera for drawing the game screen 50. The field of view IA may be set as appropriate, but the example of FIG. 4 shows the field of view IA set when the third character image 54C faces forward. Furthermore, this field of view IA moves according to the movement of the third character image 54C, in other words, the movement of the user. Specifically, the HMD-type game machine 4 is worn on the user's head while playing, and the head of the third character image 54C also moves in accordance with the movement of the user's head. For example, if the state in which the user's head (HMD-type game machine 4) faces forward on the body is adjusted so that it corresponds to the viewing range IA in the virtual space, when the user faces forward, the head of the third character image 54C also faces in the same direction in the virtual three-dimensional space, so the viewing range IA is set to the front side (the range shown by the solid line) in the example of Figure 4.

一方、正面を向いた状態からユーザが右側を向いた場合、その頭部の動きはHMD型のゲーム機4のセンサSMAにより検知され、第3キャラクタ画像54Cの動きに反映される。つまり、そのような頭部の動きに伴い、第3キャラクタ画像54Cの頭部も仮想三次元空間において同様の右を向くように動作する。この場合、視界範囲IAは、その頭部の動きに合わせて右方向に角度が変化する。具体的には、ユーザの右を向く頭部の動きに伴い、視界範囲IAは、一点鎖線で示す右傾斜範囲IA1に移動する。そして、このような右傾斜範囲IA1に含まれる仮想三次元空間がゲーム画面50として表示される。 On the other hand, when the user turns to the right from a forward facing position, the movement of the head is detected by the sensor SMA of the HMD-type game machine 4 and is reflected in the movement of the third character image 54C. In other words, in response to such head movement, the head of the third character image 54C also moves to turn to the right in the virtual three-dimensional space. In this case, the angle of the field of view IA changes to the right in accordance with the head movement. Specifically, as the user's head moves to the right, the field of view IA moves into the right tilt range IA1 indicated by the dashed dotted line. The virtual three-dimensional space contained in this right tilt range IA1 is then displayed as the game screen 50.

図5は、視界範囲IAが図4の例の右傾斜範囲IA1に移動した場合のゲーム画面50の一例を模式的に示す図である。また、図5の例は、図3の例からユーザが右斜め上方向を向いた場合のゲーム画面50にも対応している。このような上下方向への頭部の変化もセンサSMAによって検出され、ゲーム画面50に反映される。このため、この場合、図5に示すように、図3の例と比べて、視界(視界範囲IA)の移動に伴い、第2キャラクタ画像54Bがゲーム画面50の中央近くに移動している一方で、第1キャラクタ画像54Aの表示が消えている。また、ステージ領域53、スコア表示領域52、及びドラムセット画像55にも同様に変化が生じている。 Figure 5 is a diagram showing a schematic example of a game screen 50 when the field of view IA moves to the right inclination range IA1 in the example of Figure 4. The example of Figure 5 also corresponds to the game screen 50 when the user faces diagonally upward to the right from the example of Figure 3. Such a change in the head in the up or down direction is also detected by the sensor SMA and reflected on the game screen 50. Therefore, in this case, as shown in Figure 5, compared to the example of Figure 3, as the field of view (field of view range IA) moves, the second character image 54B moves closer to the center of the game screen 50, while the display of the first character image 54A disappears. Similar changes also occur in the stage area 53, score display area 52, and drum set image 55.

次に、演奏パフォーマンスの評価について説明する。上述のようにユーザのプレイ行為(叩く動作)に伴い、ゲーム画面50においてキャラクタ画像54も同様の叩く動作、つまり演奏動作を実行する。このため、プレイ(演奏)の開始に伴い各キャラクタは演奏動作を実行する。ユーザキャラクタ以外の他のキャラクタ画像54もプレイの開始に伴い同様の演奏動作を実行する。そして、これらの演奏動作の組み合わせ、換言すれば一つの演奏ユニット全体による演奏動作により演奏パフォーマンスが形成される。 Next, the evaluation of the performance will be described. As described above, in response to the user's play action (tapping action), the character image 54 on the game screen 50 also performs a similar tapping action, i.e., a performance action. Therefore, when play (performance) begins, each character performs a performance action. The other character images 54 other than the user character also perform similar performance actions when play begins. Then, a performance performance is formed by a combination of these performance actions, in other words, the performance action of one entire performance unit.

一方、演奏パフォーマンスの一部は、コンピュータ制御のいわゆるNPC(ノンプレイヤキャラクタ)によって実行される場合がある。NPCによる演奏パフォーマンス(演奏動作)は、適宜に実現されてよく、例えば事前に設定(用意)された動作により実現されてもよいが、一例として過去のプレイにおけるユーザキャラクタの演奏動作(演奏動作の実績)を実行する(トレースする)ように実現される。この場合、楽器別に一つの過去の演奏動作(例えば直近の演奏動作)だけがNPCに適用されてもよいが、一例として複数の候補からユーザによって選択された演奏動作がNPCに適用される。複数の候補が用意される場合、それらからプレイ用の演奏動作を選択するための選択機会(以下、演奏選択機会と呼ぶ場合がある)では選択の指標となる指標情報が必要となる。このため、他のキャラクタ(NPC、及び他のユーザキャラクタの両方を含む)の演奏パフォーマンス(演奏動作。過去の演奏動作の実績だけでなく、例えばメーカによって事前に用意された動作を含む。)はユーザによって評価される。 On the other hand, some of the performance may be performed by a so-called computer-controlled NPC (non-player character). The performance (performance action) by the NPC may be realized appropriately, for example, by a previously set (prepared) action, but as an example, it is realized by executing (tracing) the performance action (performance action track record) of the user character in past plays. In this case, only one past performance action (for example, the most recent performance action) may be applied to the NPC for each instrument, but as an example, a performance action selected by the user from multiple candidates is applied to the NPC. When multiple candidates are prepared, a selection opportunity (hereinafter, sometimes referred to as a performance selection opportunity) for selecting a performance action for play from them requires index information that serves as an index for selection. For this reason, the performance performance (performance action, including not only the past performance action track record but also actions prepared in advance by the manufacturer, for example) of other characters (including both NPCs and other user characters) is evaluated by the user.

図6は、演奏パフォーマンスの評価の流れを説明するための説明図である。演奏パフォーマンスの評価は、演奏パフォーマンスの途中を含む適宜の時期に実行されてよいが、図6の例は演奏パフォーマンスの終了後(換言すれば楽曲演奏の終了後)に評価期間が設けられ、その評価期間において実行される場合を示している。また、図6の例は、他のキャラクタ(被評価キャラクタ)の一例としてコンピュータによって制御される第2キャラクタ画像54B(NPC)の演奏パフォーマンスが評価される場合を示している。この場合、図6に示すように、評価期間において第3キャラクタ画像54C(評価キャラクタ)を介してユーザ(以下、他のキャラクタを評価するユーザを評価者と呼ぶ場合がある)が実行する評価アクションに基づいて第2キャラクタ画像54Bの演奏パフォーマンスが評価される。 Figure 6 is an explanatory diagram for explaining the flow of evaluating a performance. Evaluation of a performance may be performed at any time, including during the performance, but the example in Figure 6 shows a case where an evaluation period is set after the performance ends (in other words, after the performance of the musical piece ends) and the evaluation is performed during that evaluation period. The example in Figure 6 also shows a case where the performance performance of a second character image 54B (NPC) controlled by a computer is evaluated as an example of another character (character to be evaluated). In this case, as shown in Figure 6, the performance performance of the second character image 54B is evaluated based on an evaluation action performed by a user (hereinafter, a user who evaluates another character may be referred to as an evaluator) via a third character image 54C (character to be evaluated) during the evaluation period.

具体的には、評価アクションは、第3キャラクタ画像54Cの行動に反映されない各種の操作(例えば第3キャラクタ画像54Cの行動との関連付けのない、評価アクション専用の操作部への操作)等として評価者によって実行されてもよいが、一例として第3キャラクタ画像54Cの行動に反映される行為として評価者によって実行される。評価アクションは、第3キャラクタ画像54C(評価者)によって任意に実行されるアクションである(実行されない場合もある)。つまり、評価アクションは演奏パフォーマンスに付加されるように実行されるアクション(行動)である。NPCは評価期間においても過去の評価期間における動作をトレースするように動作してもよく、その場合、評価アクションもトレースされても、評価アクションはトレース対象の動作から除外されてもよいが、一例として評価期間では過去の動作をトレースせずに所定の動作を実行する。いずれにしても評価アクションは、評価期間における動作を含む演奏パフォーマンスとは別に付加的に実行される。この例において評価アクションが本発明の付加行動として機能する。 Specifically, the evaluation action may be performed by the evaluator as various operations that are not reflected in the behavior of the third character image 54C (for example, operations on an operation unit dedicated to the evaluation action that is not associated with the behavior of the third character image 54C), but as an example, the evaluation action is performed by the evaluator as an act that is reflected in the behavior of the third character image 54C. The evaluation action is an action that is arbitrarily performed by the third character image 54C (evaluator) (it may not be performed). In other words, the evaluation action is an action (behavior) that is performed so as to be added to the performance. The NPC may behave in the evaluation period so as to trace the actions of the past evaluation period, and in that case, the evaluation action may be traced or may be excluded from the actions to be traced, but as an example, the NPC performs a predetermined action during the evaluation period without tracing past actions. In any case, the evaluation action is additionally performed separately from the performance performance including the actions during the evaluation period. In this example, the evaluation action functions as an additional action of the present invention.

また、評価アクションは、第2キャラクタ画像54Bの状態にかかわらず、第3キャラクタ画像54Cによって一方的に実行されてもよいが、一例として第2キャラクタ画像54Bと第3キャラクタ画像54C(評価者)との間に形成される連携状態の形成を条件に実行される。このため、評価期間において第2キャラクタ画像54B、及び第3キャラクタ画像54Cには連携状態、及び連携状態を形成していない待機状態の二種類の状態が形成される。 The evaluation action may be executed unilaterally by the third character image 54C regardless of the state of the second character image 54B, but as an example, it is executed on the condition that a linked state is formed between the second character image 54B and the third character image 54C (evaluator). Therefore, during the evaluation period, the second character image 54B and the third character image 54C are in two states: a linked state, and a standby state in which no linked state is formed.

連携状態は、評価者による評価を受け入れる状態として評価キャラクタと被評価キャラクタとの間に形成される状態である。連携状態は、第2キャラクタ画像54Bと第3キャラクタ画像54Cとの間の各種の行為(被評価キャラクタがユーザキャラクタの場合、キャラクタの行動として反映されない各種の操作等を含む)によって適宜に形成されてよいが、一例として第3キャラクタ画像54Cによる連携アクション、及び第2キャラクタ画像54Bによる応答アクションによって形成される。連携アクション、及び応答アクションの順番は適宜でよく、例えば応答アクションの後に連携アクションが実行された場合に連携状態が形成されてもよいが、一例として連携アクションが先に実行され、それに応答するように応答アクションが実行された場合に連携状態が形成される。 The coordinated state is a state formed between the evaluating character and the evaluated character in a state of accepting an evaluation by the evaluator. The coordinated state may be formed as appropriate by various actions between the second character image 54B and the third character image 54C (including various operations that are not reflected as character behavior when the evaluated character is a user character), but as an example, the coordinated state is formed by a coordinated action by the third character image 54C and a response action by the second character image 54B. The order of the coordinated action and the response action may be appropriate, and for example, the coordinated state may be formed when a coordinated action is executed after a response action, but as an example, the coordinated state is formed when a coordinated action is executed first and then a response action is executed in response to it.

被評価キャラクタがユーザキャラクタの場合、連携状態、及び待機状態のいずれにおいてもユーザの操作に基づく自由な行動が許容されてもよい。この場合、連携アクション後において一定時間内に応答アクションが実行されないときには、評価者による一方的な評価(連携状態の形成を条件にしない評価)に切替られても、連携アクションが解除され、連携状態の形成には再度の連携アクションが要求されてもよい。このように被評価キャラクタに対応するユーザの操作に応じて演奏パフォーマンスが評価されたりされなかったりしてよいが、一例として被評価キャラクタ(他のキャラクタ)がユーザキャラクタの場合でも評価期間にはコンピュータ制御に切り替えられ、連携状態、及び待機状態のいずれにおいても所定の行動を実行する。そして、他のキャラクタは積極的に連携状態が形成されるように行動する。 If the character to be evaluated is a user character, free action based on the user's operation may be allowed in both the linked state and the standby state. In this case, if a response action is not performed within a certain time after a linked action, the evaluation may be switched to a unilateral evaluation by the evaluator (evaluation that does not require the formation of a linked state), or the linked action may be canceled and another linked action may be required to form a linked state. In this way, the performance may or may not be evaluated depending on the operation of the user corresponding to the character to be evaluated. As an example, even if the character to be evaluated (another character) is a user character, the evaluation period is switched to computer control and the character performs a predetermined action in both the linked state and the standby state. The other characters then actively act to form a linked state.

具体的には、第2キャラクタ画像54Bは待機状態(連携状態も同様)において事前に設定された行動、或いは評価期間における動作の実績をトレースする行動といった各種の所定の行動を適宜に実行してよいが、連携アクションの後にはそれをトリガ(契機)に応答アクションを実行するように制御される。つまり、第2キャラクタ画像54Bは連携アクションに伴い連携状態の形成が促進されるように積極的に応答アクションを実行する。一例として、このように第2キャラクタ画像54Bと第3キャラクタ画像54Cとの間に評価を受け入れる(互いを意識する)動作が実行された場合に連携状態が形成される。そして、そのような連携状態において第3キャラクタ画像54Cが評価アクションを実行した場合に、その評価アクションに基づいて第2キャラクタ画像54Bの演奏パフォーマンスが評価される。この例において第2キャラクタ画像54Bが本発明の他のキャラクタとして機能する。なお、第1キャラクタ画像54A~第3キャラクタ画像54Cがそれぞれ三人のユーザによって操作される場合において、これらの第1キャラクタ画像54A~第3キャラクタ画像54Cが本発明の複数のユーザキャラクタとして機能し、それらのうちの第2キャラクタ画像54Bが本発明の別のユーザキャラクタとして機能する。 Specifically, the second character image 54B may appropriately execute various predetermined actions such as actions set in advance in the standby state (same for the cooperation state) or actions tracing the performance of the actions during the evaluation period, but after the cooperation action, it is controlled to execute a response action triggered by the cooperation action. In other words, the second character image 54B actively executes a response action so as to promote the formation of a cooperation state in association with the cooperation action. As an example, a cooperation state is formed when an action to accept an evaluation (to be aware of each other) is executed between the second character image 54B and the third character image 54C in this way. Then, when the third character image 54C executes an evaluation action in such a cooperation state, the performance performance of the second character image 54B is evaluated based on the evaluation action. In this example, the second character image 54B functions as another character of the present invention. In addition, when the first character image 54A to the third character image 54C are operated by three users, these first character image 54A to the third character image 54C function as multiple user characters of the present invention, and among them, the second character image 54B functions as another user character of the present invention.

図7は、連携アクションの一例を説明するための説明図である。連携アクションは適宜のアクションであってよい。例えば、ドラム担当が特定のシンバル等を叩く動作が連携アクションとして採用されてもよいし、声かけ(発声)が連携アクションとして採用されてもよい。このように連携アクションとして各種のアクションが適宜に採用されてよいが、一例として対象の被評価キャラクタに視線を向ける動作が採用される。また、このような視線を向ける動作は適宜に判別されてよく、例えば図5の例のように一つのキャラクタ画像54のみが視界範囲IAに含まれている場合にそのキャラクタ画像54に視線が向けられていると判別されてもよく、この場合視界範囲IAが視線を向ける動作の判別に使用されてよい。このように視線を向ける動作は適宜に判別されてよいが、一例として視界範囲IAの一部に視野範囲が設定され、その視野範囲に基づいて視線を向ける動作の有無が判別される。このため、ゲーム画面50(あるいは仮想三次元空間)には、ユーザの視線(ユーザキャラクタの視線)を判別するための視野範囲が設定される。図7の例は、このような視野範囲として図5の例のゲーム画面50に設定される視野範囲を模式的に示している。 Figure 7 is an explanatory diagram for explaining an example of a cooperation action. The cooperation action may be any action. For example, the action of the drummer hitting a specific cymbal or the like may be adopted as the cooperation action, or a voice (utterance) may be adopted as the cooperation action. In this way, various actions may be adopted as the cooperation action, and an action of directing one's gaze to the target character to be evaluated is adopted as an example. In addition, such a gaze action may be determined as appropriate, and for example, as in the example of Figure 5, when only one character image 54 is included in the field of view IA, it may be determined that the gaze is directed to that character image 54, and in this case, the field of view IA may be used to determine the gaze action. In this way, the gaze action may be determined as appropriate, and as an example, a field of view range is set in a part of the field of view range IA, and the presence or absence of a gaze action is determined based on the field of view range. For this reason, a field of view range for determining the user's gaze (the user character's gaze) is set on the game screen 50 (or the virtual three-dimensional space). The example in Figure 7 shows a schematic diagram of such a field of view range set on the game screen 50 in the example in Figure 5.

図7に示すように、視野範囲IRは、中心視野範囲IR1、及び周辺視野範囲IR2を含んでいる。視野範囲IRはゲーム画面50の適宜の位置に形成されてよく、その位置は可変的であってもよい。また、視野範囲IRの位置がゲーム画面50において可変的に設定される場合、その位置は、例えばアイトラッキングによる視線のトラッキングといった各種の検出結果等を通じて適宜に設定されてよい。このように視野範囲IRはゲーム画面50に適宜に設定されてよいが、一例としてゲーム画面50(視界範囲)の中央付近に固定的に形成される。また、視野範囲IRは可視化されていてもよいが、一例として不可視に設定される。つまり、図7の例では便宜的に中心視野範囲IR1がドット柄で、周辺視野範囲IR2が右斜線で、それぞれ表示されているが、図5の例のように実際のゲーム画面50には視野範囲IRは表示されない。 As shown in FIG. 7, the visual field range IR includes a central visual field range IR1 and a peripheral visual field range IR2. The visual field range IR may be formed at an appropriate position on the game screen 50, and the position may be variable. In addition, when the position of the visual field range IR is set variably on the game screen 50, the position may be set appropriately based on various detection results such as tracking of the gaze by eye tracking. In this way, the visual field range IR may be set appropriately on the game screen 50, but as an example, it is formed fixedly near the center of the game screen 50 (visual field range). In addition, the visual field range IR may be visualized, but as an example, it is set to be invisible. That is, in the example of FIG. 7, for convenience, the central visual field range IR1 is displayed with a dot pattern and the peripheral visual field range IR2 is displayed with right diagonal lines, but the visual field range IR is not displayed on the actual game screen 50 as in the example of FIG. 5.

中心視野範囲IR1は、視線を向ける動作の判別に使用される範囲である。中心視野範囲IR1は適宜の形状に形成されてよいが、一例として所定の大きさの円形に形成される。また、視線を向ける動作の判別は、中心視野範囲IR1を利用して適宜に実現されてよく、例えば頭部等の主要部位が含まれている場合に視線を向けていると判別されてもよいが、一例として中心視野範囲IR1にキャラクタ画像54が一定割合以上含まれている(入っている)場合にそのキャラクタ画像54に視線を向けていると判別される。また、このような一定割合は適宜に設定されてよいが、一例として対象のキャラクタ画像54の半分以上の面積が利用される。例えば、図7の例では第2キャラクタ画像54Bの半分以上が、中心視野範囲IR1に入っている。この場合、ユーザキャラクタ(第3キャラクタ画像54C)は第2キャラクタ画像54Bに視線を向けていると判別される。 The central visual field range IR1 is a range used to determine the gaze action. The central visual field range IR1 may be formed in an appropriate shape, and as an example, it is formed in a circle of a predetermined size. The gaze action may be determined as being directed by using the central visual field range IR1 as appropriate. For example, it may be determined that the gaze is directed when a major part such as the head is included, but as an example, it is determined that the gaze is directed at the character image 54 when a certain percentage or more of the character image 54 is included (contained) in the central visual field range IR1. In addition, such a certain percentage may be set appropriately, and as an example, more than half of the area of the target character image 54 is used. For example, in the example of FIG. 7, more than half of the second character image 54B is contained in the central visual field range IR1. In this case, the user character (third character image 54C) is determined to be directing the gaze at the second character image 54B.

一方、周辺視野範囲IR2は中心視野範囲IR1を含むようにその周囲に形成される領域である。周辺視野範囲IR2の形状も適宜に形成されてよいが、一例として中心視野範囲IR1を中央付近に含む所定の大きさの楕円形に形成される。周辺視野範囲IR2は適宜に利用されてよく、省略されてもよいが、一例として連携アクションの判別のための準備に使用される。具体的には、周辺視野範囲IR2にキャラクタ画像54が入ってきた場合にそのキャラクタ画像54に視線を向ける可能性があるとコンピュータは判別し、中心視野範囲IR1にキャラクタ画像54が含まれるか否か判別を開始する。一例として、このような視野範囲IRがゲーム画面50に設定され、連携アクションの実行の有無、つまりユーザのキャラクタ画像54が他のキャラクタ画像54に視線を向けているか否の判別が実現される。この例において視線を向ける動作(連携アクション)が本発明のユーザアクションとして機能する。 On the other hand, the peripheral visual field range IR2 is an area formed around the central visual field range IR1 so as to include it. The shape of the peripheral visual field range IR2 may be formed as appropriate, but as an example, it is formed into an ellipse of a predetermined size that includes the central visual field range IR1 near the center. The peripheral visual field range IR2 may be used as appropriate or may be omitted, but as an example, it is used in preparation for determining a coordinated action. Specifically, when a character image 54 enters the peripheral visual field range IR2, the computer determines that there is a possibility that the gaze will be directed at the character image 54, and begins to determine whether the character image 54 is included in the central visual field range IR1. As an example, such a visual field range IR is set on the game screen 50, and the presence or absence of a coordinated action, that is, whether the user's character image 54 is directing its gaze at another character image 54, is determined. In this example, the action of directing the gaze (coordinated action) functions as a user action of the present invention.

図8は、応答アクションの一例を説明するための説明図である。応答アクションとして、連携アクションに応じて、或いは連携アクションとは独立して各種の動作(反応)が適宜に採用されてよく、例えば各キャラクタが自己の楽器を軽く演奏する動作やサムアップ等の連携アクションの認識を示す各種の動作が採用されてよいが、この種の動作の一例として視線を向ける動作が利用される。つまり、ユーザキャラクタ(評価キャラクタ)が連携アクションとして他のキャラクタ(被評価キャラクタ)に視線を向ける動作を実行した後、その他のキャラクタによって実行される同様の動作(視線を向けたユーザキャラクタに視線を向ける動作)が応答アクションとして利用される。図8の例は、応答アクションとしてこのような視線を向ける動作を実行する他のキャラクタ画像54(NPC)の一例を模式的に示している。また、図8の例の(A)は応答アクション前のキャラクタ画像54を、(B)は応答アクション時のキャラクタ画像54を、それぞれ示している。 Figure 8 is an explanatory diagram for explaining an example of a response action. As a response action, various actions (reactions) may be appropriately adopted according to the cooperation action or independently of the cooperation action. For example, various actions that indicate recognition of the cooperation action, such as the action of each character lightly playing their own instrument or thumbs up, may be adopted. As an example of this type of action, a gaze action is used. In other words, after a user character (evaluation character) performs an action of looking at another character (evaluated character) as a cooperation action, a similar action (a movement of looking at the user character that has been looked at) performed by the other character is used as a response action. The example of Figure 8 shows a schematic example of an example of another character image 54 (NPC) that performs such a gaze action as a response action. Also, in the example of Figure 8, (A) shows the character image 54 before the response action, and (B) shows the character image 54 during the response action.

図8の(A)に示すように、他のキャラクタ画像54(コンピュータによって制御されるキャラクタ)は、応答アクション前において正面側、つまり連携アクションとして視線を向けたキャラクタ画像54(ユーザ)の方向を向いていない。応答アクション前において他のキャラクタ画像54は適宜の方向を向いていてよく、例えば背中を向けるような方向を向いていてもよいが、図8の例では左方向に首を向け、視線も同様の左方向を向いている。一方、図8の(B)に示すように、その他のキャラクタ画像54は、応答アクション時には正面側に首を向け、視線も同様の正面側を向く。つまり、ユーザ(評価者)によって連携アクションとして視線を向ける動作が実行された場合(中心視野範囲IR1にキャラクタ画像54が一定割合以上含まれた場合)、その視線を向ける動作に応答してユーザに視線を返すように、他のキャラクタ画像54もユーザの方に同様の視線を向ける動作を実行する。これは他のキャラクタ画像54がユーザの方(正面側)に背中を向けていても(背中を向けるような方向を向いていても)同様である。つまり、応答アクション前の向きにかかわらず、他のキャラクタ画像54は応答アクションとしてユーザの方に視線を向ける動作を実行する。なお、評価期間では、ユーザ(評価者)が視線を他のキャラクタ画像54に向けやすいように、例えばユーザ(評価者)に対して背中を向ける動作を避ける等の制御が他のキャラクタ画像54に実行されてもよい。 As shown in FIG. 8A, the other character image 54 (character controlled by a computer) does not face the front before the response action, that is, in the direction of the character image 54 (user) that is turned to look as a coordinated action. Before the response action, the other character image 54 may face any direction, for example, facing away from the user, but in the example of FIG. 8, the head is turned to the left and the gaze is also turned to the left. On the other hand, as shown in FIG. 8B, the other character image 54 turns its head to the front and also looks to the front during the response action. In other words, when the user (evaluator) performs an action of turning its gaze as a coordinated action (when the character image 54 is included in the central visual field range IR1 at a certain rate or more), the other character image 54 also performs an action of turning its gaze toward the user in response to the action of turning its gaze. This is the same even if the other character image 54 is turned back to the user (front side) (facing a direction that turns its back). In other words, regardless of the orientation before the response action, the other character images 54 perform the action of turning their gaze toward the user as a response action. Note that during the evaluation period, control may be performed on the other character images 54, such as avoiding the action of turning their back to the user (evaluator), so that the user (evaluator) can easily turn their gaze toward the other character images 54.

他のキャラクタ画像54の視線の向きは適宜に判別されてよいが、一例として他のキャラクタ画像54にもユーザキャラクタと同様の視野範囲IRが設定され、視野範囲IRに入っているか否か、より具体的には視野範囲IRに中心視野範囲IR1にユーザキャラクタが一定割合以上入っているか否かに応じて判別される。また、このような視線を向ける動作(視線を返す動作)は、適宜のタイミングで実行されてよく、例えば連携アクションとは時差的に実行されてもよい。つまり、視線を向ける動作に対して視線を返す動作は、ユーザが視線を外した後において実行されてもよい。このように視線を返す動作は適宜のタイミングで実行されてよいが、一例として双方によるアイコンタクトが実現されるようにユーザが視線を向けている最中に実行される。この場合において、他のキャラクタ画像54が視線を向ける前にユーザが視線を外した場合、応答アクションは未完了と判断されてもよい(この場合、応答アクションのために再度連携アクションの実行が要求される)が、一例として他のキャラクタ画像54が視線を向ける動作の開始後であればユーザの視線を外す動作は許容される。一例として、連携アクションの対象となった(視線を向けられた)キャラクタ画像54は、このような応答アクションを実行する。この例において視線を向ける動作(応答アクション)が本発明の対応アクションとして機能する。 The direction of the gaze of the other character image 54 may be determined as appropriate, but as an example, the same visual field range IR as the user character is set for the other character image 54, and the direction of the gaze is determined according to whether or not the other character image 54 is in the visual field range IR, more specifically, whether or not the user character is in the central visual field range IR1 of the visual field range IR at a certain rate or more. In addition, such an action of directing the gaze (action of returning the gaze) may be performed at an appropriate timing, and may be performed with a time difference from the cooperation action, for example. In other words, the action of returning the gaze in response to the action of directing the gaze may be performed after the user has averted their gaze. In this way, the action of returning the gaze may be performed at an appropriate timing, but as an example, it is performed while the user is directing their gaze so that eye contact between the two is realized. In this case, if the user averts their gaze before the other character image 54 directs their gaze, the response action may be determined to be incomplete (in this case, the execution of the cooperation action is requested again for the response action), but as an example, the action of the user averting their gaze is permitted after the start of the action of directing the gaze of the other character image 54. As an example, the character image 54 that is the target of the coordinated action (the one that is gazed upon) executes such a response action. In this example, the action of gaze (response action) functions as the corresponding action of the present invention.

なお、連携状態の形成は、上述の視線を向け合う動作、つまりユーザキャラクタの視線を向ける動作(連携アクション)に対する他のキャラクタの視線を向ける動作(応答アクション)に限定されない。連携状態は適宜に形成されてよい。例えば、楽器を演奏し合う動作、サムアップ等の所定の動作(双方の間で一致していても相違していてもよい)を実行し合う動作、或いは声を掛け合う動作の各種の連携アクション、及び応答アクションに伴い、連携状態が形成されてよい。あるいは、ユーザキャラクタ(仮想カメラ)と他のキャラクタとが近づきあったとき、換言すればユーザキャラクタと他のキャラクタとの距離が所定範囲内となったときに連携状態が形成されてもよいし、ユーザキャラクタと他のキャラクタとが正対したときに連携状態が形成されてもよい。 The formation of a cooperation state is not limited to the above-mentioned action of directing one's gaze, that is, an action of directing the gaze of the other character (a response action) in response to an action of directing the gaze of the user character (a cooperation action). A cooperation state may be formed as appropriate. For example, a cooperation state may be formed in conjunction with various cooperation actions and response actions, such as playing musical instruments together, performing a predetermined action such as a thumbs up (which may be the same or different between the two), or calling out to each other. Alternatively, a cooperation state may be formed when the user character (virtual camera) and the other character get close to each other, in other words, when the distance between the user character and the other character is within a predetermined range, or when the user character and the other character face each other directly.

同様に、評価アクションとして操作スティックOS、或いはHMD型のゲーム機4を介して入力可能な各種の行為が採用され得るが、一例としてサムアップ、頷き、バンザイ、或いは首振りといった動作が採用される。具体的には、例えばサムアップは操作スティックOSのタッチボタンTBを押す操作により実現される。頷き及び首振りは、ユーザの頷く動作(行為)、或いは首を振る動作(行為)に伴い同様に動作するHMD型のゲーム機4により検出、及び入力される。バンザイは、ユーザのバンザイ動作(両手を上にあげる動作)に伴い上方に移動する左右両手の操作スティックOSを検出するHMD型のゲーム機4により入力される。そして、これらの動作が実行され、その動作に伴いその動作に対応する評価アクションを連携状態において評価キャラクタが実行した場合に、被評価キャラクタの演奏パフォーマンスがその実行された評価アクションに基づいて評価される。この例において、タッチボタンTBを押す操作、或いは頷く動作等の各動作(行為)が本発明の付加指示行為として、それらの複数種類の動作が本発明の複数種類の付加指示行為として、それぞれ機能する。 Similarly, various actions that can be inputted via the operation stick OS or the HMD type game machine 4 can be adopted as evaluation actions, and as an example, actions such as thumbs up, nodding, cheers, or head shaking are adopted. Specifically, for example, thumbs up is realized by pressing the touch button TB of the operation stick OS. Nodding and head shaking are detected and inputted by the HMD type game machine 4 that moves in the same way in conjunction with the user's nodding action (action) or head shaking action (action). Cheers is inputted by the HMD type game machine 4 that detects the operation sticks OS of both the left and right hands that move upward in conjunction with the user's cheers action (action of raising both hands up). Then, when these actions are executed and the evaluation character executes an evaluation action corresponding to the action in cooperation with the action, the performance performance of the evaluated character is evaluated based on the executed evaluation action. In this example, the operation of pressing the touch button TB or each action (action) such as a nodding action functions as an additional instruction action of the present invention, and the multiple types of actions function as multiple types of additional instruction actions of the present invention.

図9は、評価アクションに基づく演奏パフォーマンスの評価結果の一例を説明するための説明図である。演奏パフォーマンスの評価結果は、例えばスコア等のプレイの評価結果に影響を与えてもよく、適宜に他の用途に使用されてもよいが、図9の例は演奏選択機会において指標情報として使用される場合を示している。また、評価アクションとして上述のサムアップ等のいずれか一つの動作が機能してもよいが、図9の例はそれらのいずれもが評価アクションとして機能する場合、つまり評価アクションとして複数種類のアクションが用意される場合を示している。さらに、これらの評価アクションは適宜の手法で評価されてよいが、図9の例は評価アクションとして実行された動作の種類、及びその実行回数が評価結果として利用される場合を示している。具体的には、図9の例は、このような場合の評価アクションの種類、及びそれに基づく演奏パフォーマンスの評価結果を管理するデータの一例を模式的に示している。 Figure 9 is an explanatory diagram for explaining an example of the evaluation result of a performance performance based on an evaluation action. The evaluation result of a performance performance may affect the evaluation result of a play, such as a score, or may be used for other purposes as appropriate, but the example of Figure 9 shows a case where it is used as index information in a performance selection opportunity. In addition, any one of the above-mentioned actions, such as a thumbs-up, may function as an evaluation action, but the example of Figure 9 shows a case where any of them function as an evaluation action, that is, a case where multiple types of actions are prepared as evaluation actions. Furthermore, these evaluation actions may be evaluated using an appropriate method, but the example of Figure 9 shows a case where the type of action performed as the evaluation action and the number of times it is performed are used as the evaluation result. Specifically, the example of Figure 9 shows a schematic example of the type of evaluation action in such a case, and data that manages the evaluation result of a performance performance based on it.

図9に示すように、演奏パフォーマンスの評価結果は、その演奏パフォーマンスを実行したユーザ(NPCによるパフォーマンスの場合はそのパフォーマンスの元となったプレイを実行したユーザ)毎に楽曲の情報と関連付けられて管理される。より具体的には、演奏パフォーマンスの評価結果は、“評価”の情報として、“ユーザ”、及び“楽曲”の情報と関連付けられて管理される。 As shown in FIG. 9, the evaluation results of a performance are managed in association with information about the music piece for each user who performed the performance (in the case of a performance by an NPC, the user who performed the play that was the basis for the performance). More specifically, the evaluation results of a performance are managed as "evaluation" information in association with information about the "user" and the "music piece."

“ユーザ”は上述の演奏パフォーマンスを実行したユーザ(以下、実行ユーザと呼ぶ場合がある)を示す情報である。“ユーザ”の情報として実行ユーザを示す各種の情報が適宜に使用され得るが、図9の例では“Aユーザ”の情報が示されている。“Aユーザ”は実行ユーザがAユーザであることを示す情報である。 "User" is information indicating the user who performed the above-mentioned musical performance (hereinafter, may be referred to as the performing user). Various types of information indicating the performing user may be used as the "user" information as appropriate, but in the example of Figure 9, information on "User A" is shown. "User A" is information indicating that the performing user is User A.

“楽曲”は、演奏パフォーマンスで使用された楽曲に関する情報である。“楽曲”は楽曲に関連する各種の情報を適宜に含んでいてよいが、図9の例では“ID”、及び“難易度”の情報を含んでいる。“ID”は各楽曲を識別するために楽曲毎にユニークな情報である。“ID”の情報として各楽曲を識別可能な適宜の情報が使用されてよいが、図9の例では説明の便宜のため“A楽曲”、“B楽曲”といった名称の情報が示されている。“難易度”は楽曲の難易度を示す情報である。各楽曲にはプレイの難しさを示す情報として楽曲毎に一つ、或いは複数の難易度が適宜に設定されてよいが、一例としてN難易度(通常の難易度)、H難易度(通常よりも難易度の高い、ハード難易度)、及びS難易度(ハード難易度よりも更に難易度の高い、スーパーハード難易度)の三種類が楽曲毎に用意される。この場合、これらの難易度を示す適宜の情報が“難易度”の情報として使用されてよいが、図9の例では説明の便宜のため“N難易度”等の各難易度の名称が示されている。 "Song" is information about the song used in the performance. "Song" may include various information related to the song as appropriate, but in the example of FIG. 9, it includes information about "ID" and "difficulty". "ID" is information unique to each song to identify each song. Any appropriate information that can identify each song may be used as "ID" information, but in the example of FIG. 9, information with names such as "Song A" and "Song B" is shown for the convenience of explanation. "Difficulty" is information indicating the difficulty of the song. One or more difficulty levels may be set appropriately for each song as information indicating the difficulty of playing, but as an example, three types of difficulty levels are prepared for each song: N difficulty level (normal difficulty level), H difficulty level (hard difficulty level, more difficult than normal difficulty level), and S difficulty level (super hard difficulty level, even more difficult than hard difficulty level). In this case, any appropriate information indicating these difficulty levels may be used as "difficulty" information, but in the example of FIG. 9, the names of each difficulty level such as "N difficulty level" are shown for the convenience of explanation.

“評価”は演奏パフォーマンスの評価結果に関する情報である。“評価”は演奏パフォーマンスの評価結果に関連する各種の情報を適宜に含み得るが、図9の例では“種類”、及び“結果”の情報を含んでいる。“種類”は評価アクションの種類を示す情報である。“種類”の情報として評価アクションの種類を示す適宜の情報が使用されてよいが、図9の例では説明の便宜のため、“サムアップ”、“頷き”、“バンザイ”、及び“首振り”といった各評価アクションの名称が示されている。また、評価者による演奏パフォーマンスの評価が実行されない場合も想定され、その場合、その評価不実行の情報は管理されなくてもよいが、図9の例では“種類”の情報において“評価なし”の情報として管理される。“結果”は評価結果を示す情報である。“結果”の情報として評価結果を示す各種の情報が適宜に使用されてよいが、図9の例では“2”、“0”、“3”といった各評価アクションの実行数を示す数値の情報が示されている。 "Evaluation" is information about the evaluation result of the performance performance. "Evaluation" may include various information related to the evaluation result of the performance performance as appropriate, but in the example of FIG. 9, it includes information about "type" and "result". "Type" is information indicating the type of evaluation action. As the "type" information, any appropriate information indicating the type of evaluation action may be used, but in the example of FIG. 9, for the sake of convenience, the names of each evaluation action, such as "thumbs up", "nod", "banzai", and "shake head", are shown. In addition, it is assumed that the evaluation of the performance performance by the evaluator is not performed, and in that case, the information of the non-execution of the evaluation does not need to be managed, but in the example of FIG. 9, it is managed as information of "no evaluation" in the "type" information. "Result" is information indicating the evaluation result. As the "result" information, any appropriate information indicating the evaluation result may be used, but in the example of FIG. 9, numerical information indicating the number of executions of each evaluation action, such as "2", "0", and "3", is shown.

音楽ゲームでは、自己の演奏パフォーマンスの評価(評価者が実行ユーザとなる演奏パフォーマンスの評価)が許容されてもよいが、一例として他のユーザによる演奏パフォーマンスが評価される。このため、例えば評価者(Aユーザとは別のユーザ)がA楽曲を使用したN難易度のプレイにおいて他のキャラクタにAユーザの過去の演奏パフォーマンスをトレースさせた場合、評価結果は“Aユーザ”に対応する“A楽曲”の“N難易度”に関連付けられる“評価”に反映される。具体的には、評価者が評価アクションとしてサムアップを実行した場合、“種類”の“サムアップ”に関連付けられる実行数(累積値)が評価結果として一つ増える。つまり、図9の例の2回を示す“2”から3回を示す“3”にカウントアップされるように、“サムアップ”に対応する“結果”が更新される。評価アクションとして“頷き”、“バンザイ”、及び“首振り”が実行された場合も同様である。つまり、頷き等に対応する実行数が評価結果として同様にカウントアップされる。一方、評価アクションが評価期間に実行されなかった場合(検出できなかった場合を含む)、“種類”の“評価なし”に関連付けられる回数が評価結果として同様に一つカウントアップされる。なお、所定時間内に評価アクションが実行されない場合等、評価期間では適宜のタイミングで表示、或いは音声等を通じて評価アクションを促す各種のアナウンスが実行されてよい。 In a music game, evaluation of one's own performance (evaluation of performance performance in which the evaluator is the performing user) may be permitted, but as an example, performance performances by other users are evaluated. For this reason, for example, when an evaluator (a user other than user A) has another character trace the past performance performance of user A in a play of difficulty level N using musical piece A, the evaluation result is reflected in the "evaluation" associated with the "difficulty level N" of "music piece A" corresponding to "user A". Specifically, when the evaluator performs a thumbs-up as an evaluation action, the number of executions (accumulated value) associated with "thumbs-up" in "type" is increased by one as the evaluation result. In other words, the "result" corresponding to "thumbs-up" is updated so that it is counted up from "2" indicating two times in the example of FIG. 9 to "3" indicating three times. The same applies when "nodding", "banzai", and "shaking head" are performed as evaluation actions. In other words, the number of executions corresponding to nodding, etc. is similarly counted up as the evaluation result. On the other hand, if the evaluation action is not performed during the evaluation period (including when it cannot be detected), the number of times associated with "No evaluation" in "Type" is similarly counted up by one as the evaluation result. Note that if the evaluation action is not performed within a specified time, various announcements may be made at appropriate times during the evaluation period, such as by display or audio, encouraging the user to perform the evaluation action.

図10は、評価アクションに基づく演奏パフォーマンスの評価結果の他の例を説明するための説明図である。上述のように評価アクションは適宜の手法で評価されてよく、図9の例のように評価アクションの種類毎にその実行数が評価結果として取得されてもよいが、例えばその他にもサムアップ動作は4ポイント、頷きは3ポイント、バンザイは2ポイント、首振りは1ポイントといった具合に各評価アクションの種類毎に異なる評価値が設定されていてもよい。また、各評価アクションの種類毎に異なる評価値が設定される(各評価アクションの価値に重み付けが設定される)場合、評価者によって実行された評価アクションの種類は管理対象の情報から省略されてもよい。図10の例は、このような場合の評価アクションに基づく演奏パフォーマンスの評価結果を管理するデータの一例を模式的に示している。 Figure 10 is an explanatory diagram for explaining another example of the evaluation result of a musical performance based on an evaluation action. As described above, the evaluation action may be evaluated by an appropriate method, and the number of evaluation actions performed may be obtained as the evaluation result for each type of evaluation action as in the example of Figure 9, but a different evaluation value may be set for each type of evaluation action, such as 4 points for a thumbs-up gesture, 3 points for a nod, 2 points for a cheer, and 1 point for a head shake. In addition, when a different evaluation value is set for each type of evaluation action (weighting is set for the value of each evaluation action), the type of evaluation action performed by the evaluator may be omitted from the information to be managed. The example of Figure 10 shows an example of data that manages the evaluation result of a musical performance based on an evaluation action in such a case.

図10に示すように、各評価アクションの種類に異なる評価値が設定され、実行された評価アクションの種類が管理対象から省略される場合、“種類”及び“結果”の情報の変わりに、“評価”の情報として評価値の累積値(以下、累積評価値と呼ぶ場合がある)の情報が記述される。つまり、演奏パフォーマンスの評価結果は、累積評価値としてそのパフォーマンスに使用された楽曲、及び難易度毎に関連付けられるように管理される。 As shown in FIG. 10, a different evaluation value is set for each type of evaluation action, and when the type of evaluation action that was performed is omitted from the management target, information on the cumulative evaluation value (hereinafter sometimes referred to as the cumulative evaluation value) is described as "evaluation" information instead of "type" and "result" information. In other words, the evaluation result of a musical performance is managed so that it is associated with the music piece used in the performance and the difficulty level as a cumulative evaluation value.

より具体的には、各評価アクションには適宜の評価値が設定されてよいが、例えば上述の4ポイント等がサムアップ等にそれぞれ設定される場合、図9の例においてAユーザのA楽曲を使用したN難易度の演奏パフォーマンスに関連付けられる評価結果は、サムアップによる8ポイント(4ポイント×2回)、及び首振りによる3ポイント(1ポイント×3回)の計11ポイント(頷き、バンザイ、及び評価なしはいずれもゼロポイント)と算出される。このため、図10の例では、例えばAユーザのA楽曲を使用したN難易度の演奏パフォーマンスの評価結果として“評価”には、11ポイントの累積評価値を示す“11”の情報が記述されている。そして、評価者が今回の評価期間において評価アクションとしてサムアップを実行した場合、サムアップに設定される評価値(4ポイント)が累積評価値に加算されるように、つまり累積評価値が“11”から15ポイントを示す“15”にカウントアップされるように“評価”の情報が更新される。他の難易度、他の楽曲、並びに頷き等の他の評価アクションが実行された場合についても同様である。 More specifically, an appropriate evaluation value may be set for each evaluation action, but for example, if the above-mentioned 4 points are set for each thumbs up, etc., the evaluation result associated with the performance of the N difficulty level using the A song by the A user in the example of FIG. 9 is calculated as 8 points for the thumbs up (4 points x 2 times) and 3 points for the head shake (1 point x 3 times), totaling 11 points (nodding, banzai, and no evaluation are all zero points). Therefore, in the example of FIG. 10, for example, the information "11" indicating a cumulative evaluation value of 11 points is written in "Evaluation" as the evaluation result of the performance of the N difficulty level using the A song by the A user. Then, when the evaluator performs a thumbs up as an evaluation action in the current evaluation period, the information in "Evaluation" is updated so that the evaluation value (4 points) set for the thumbs up is added to the cumulative evaluation value, that is, the cumulative evaluation value is counted up from "11" to "15" indicating 15 points. The same applies to the cases where other difficulty levels, other songs, and other evaluation actions such as nodding are performed.

また、図9の例、及び図10の例の評価結果は、上述のように演奏選択機会において指標情報として提示される。具体的には、図9の例の場合、A楽曲のN難易度のプレイ時には演奏選択機会においてAユーザの演奏動作(演奏パフォーマンス)が選択候補として提示されるときに、サムアップ2回、頷き0回、バンザイ0回、首振り0回、及び評価なし3回といった評価アクションの種類、及びその実行回数を示す情報が指標情報として提示される。他のユーザ、楽曲、及び難易度についても同様である。 The evaluation results in the examples of Figures 9 and 10 are presented as index information in the performance selection opportunity as described above. Specifically, in the example of Figure 9, when playing song A at difficulty level N, user A's performance actions (performance) are presented as selection candidates in the performance selection opportunity, and information indicating the types of evaluation actions, such as 2 thumbs up, 0 nods, 0 banzai, 0 head shakes, and 3 no evaluations, and the number of times each was performed, is presented as index information. The same applies to other users, songs, and difficulty levels.

一方、図10の例の場合、A楽曲のN難易度のプレイ時には演奏選択機会においてAユーザの演奏動作(演奏パフォーマンス)が選択候補として提示されるときに、累積評価値の11ポイントの情報が指標情報として提示される。演奏選択機会において選択候補として提示される演奏動作は、各ユーザにとって自己による過去の演奏動作に限定されてもよいが、一例として他のユーザの演奏動作も使用可能である。一例として、演奏選択機会では、上述のような評価結果に応じた各種の情報がプレイ用の演奏動作を選択するための指標情報として機能するように、他のユーザの演奏動作も候補として含む選択肢とともに提示される。 In the example of FIG. 10, when playing song A at difficulty level N, 11 points of cumulative evaluation value information is presented as index information when user A's performance actions (performance) are presented as selection candidates in the performance selection opportunity. The performance actions presented as selection candidates in the performance selection opportunity may be limited to each user's own past performance actions, but as an example, performance actions of other users can also be used. As an example, in the performance selection opportunity, various information according to the evaluation results as described above is presented together with options that include the performance actions of other users as candidates, so that it functions as index information for selecting performance actions to play.

次に、演奏データODの詳細について説明する。第1キャラクタ画像54A、或いは第2キャラクタ画像54Bといった他のキャラクタ画像54による演奏動作(演奏パフォーマンス)がコンピュータによって制御される場合、上述のようにユーザ(他のユーザも含む)が過去に他のキャラクタ画像54を通じてプレイしたときにユーザが行った演奏動作(プレイ実績)と同様の動作をトレースする(引き写す)ように他のキャラクタ画像54の動作が制御される。演奏データODは、このようなユーザの演奏動作の実績を他のキャラクタに実行させるためのデータである。例えば、ユーザが第2キャラクタ画像54Bを介してプレイした(プレイ用のキャラクタを選択するキャラクタ選択機会においてユーザキャラクタとして選択された)場合、そのプレイにおけるプレイ内容(第2キャラクタ画像54Bを介したギターの演奏動作の実績)が演奏データODに記録され、管理される。ユーザが第1キャラクタ画像54Aを介してプレイした場合の実績も同様である。 Next, the details of the performance data OD will be described. When the performance action (performance performance) of the other character image 54, such as the first character image 54A or the second character image 54B, is controlled by a computer, the action of the other character image 54 is controlled so as to trace (copy) the performance action (play record) performed by the user (including other users) when playing through the other character image 54 in the past, as described above. The performance data OD is data for making the other characters execute the performance of such user's performance action. For example, when the user plays through the second character image 54B (is selected as the user character in the character selection opportunity for selecting the character to play), the play content in that play (the performance of the guitar performance action through the second character image 54B) is recorded and managed in the performance data OD. The same applies to the performance when the user plays through the first character image 54A.

図11は、演奏データODの構成の一例を示す図である。図9の例、或いは図10の例といった演奏パフォーマンスの評価結果を管理するデータは適宜に実現されてよく、単独のデータとして実現されてもよいが、一例として演奏データODの一部として実現される。つまり、演奏データODは、演奏パフォーマンスの評価結果を管理するためのデータを含んでいる。図11の例は、演奏パフォーマンスの評価結果を管理するためのデータとして機能する部分を主に示している。 Figure 11 is a diagram showing an example of the configuration of performance data OD. The data for managing the evaluation results of a performance performance, such as the example of Figure 9 or the example of Figure 10, may be realized as appropriate, and may be realized as standalone data, but as an example, it is realized as part of the performance data OD. In other words, the performance data OD includes data for managing the evaluation results of a performance performance. The example of Figure 11 mainly shows the part that functions as data for managing the evaluation results of a performance performance.

図11に示すように、演奏データODは、動画データ部OD1、及び情報管理部OD2を含んでいる。動画データ部OD1は、他のキャラクタ画像54に演奏動作を実行させるための動画データとして構成される部分である。このような動画データ部は各種の動画データとして適宜に構成されてよいが、一例として各キャラクタ画像54の動作はモーションキャプチャーデータとして構成されるため、動画データ部も同様にモーションキャプチャーデータとして構成される。このモーションキャプチャーデータは適宜に生成されてよく、例えばユーザの全身を撮影するカメラからユーザのモーションを検出してデータ化してもよいし、ユーザの身体に付けられたマーカからその動きを検出してデータ化してもよい。このようにモーションキャプチャーデータ(動画データ部OD1)は適宜に生成されてよいが、一例としてHMD型のゲーム機4の時間経過による動き(頭部の動き)、及び操作スティックOSの時間経過による動きを記録し、それらをモーションに置換することにより生成される。また、動画データ部OD1は、その他にも他のキャラクタ画像54に演奏動作を実行させるための各種の情報を適宜に含んでいてよい。例えば、動画データ部OD1は、操作スティックOSのタッチボタンTB等の操作が操作されたタイミング、操作された操作部の種類、操作スティックOSを振るなど動かしたときの加速度センサSM1等のセンサSMAの検出情報といった各種の操作情報を含んでいてよい。また、センサSMAの検出情報にはセンサの種類に応じた各種の情報が含まれてよく、例えば操作スティックOSをユーザが握ったときの圧力を検出するセンサをセンサSMAが含む場合、センサSMAの検出情報にはそのような圧力の情報が含まれる。さらに、例えばユーザの発した音声(歌声等)を記録(入力)するためのマイクがHMD型のゲーム機4等に設けられている場合、動画データ部OD1は、その音声の情報を含んでいてもよい。このような動画データ部OD1は演奏動作毎に用意される。 As shown in FIG. 11, the performance data OD includes a video data section OD1 and an information management section OD2. The video data section OD1 is a section configured as video data for making other character images 54 perform performance actions. Such video data sections may be configured as various video data as appropriate, but as an example, the actions of each character image 54 are configured as motion capture data, so the video data section is also configured as motion capture data. This motion capture data may be generated as appropriate, for example, the user's motion may be detected and digitized from a camera that captures the user's entire body, or the user's motion may be detected and digitized from a marker attached to the user's body. In this way, the motion capture data (video data section OD1) may be generated as appropriate, but as an example, the motion of the HMD-type game machine 4 over time (movement of the head) and the motion of the operation stick OS over time are recorded and generated by replacing them with motion. In addition, the video data section OD1 may also include various other information for making other character images 54 perform performance actions as appropriate. For example, the video data unit OD1 may include various types of operation information, such as the timing at which the touch button TB of the operation stick OS or the like was operated, the type of the operation part operated, and detection information of a sensor SMA, such as an acceleration sensor SM1, when the operation stick OS is moved, such as shaking. The detection information of the sensor SMA may include various information according to the type of sensor. For example, if the sensor SMA includes a sensor that detects the pressure when the user grips the operation stick OS, the detection information of the sensor SMA includes information on such pressure. Furthermore, for example, if a microphone for recording (inputting) the voice (singing voice, etc.) uttered by the user is provided on the HMD-type game machine 4 or the like, the video data unit OD1 may include information on that voice. Such a video data unit OD1 is prepared for each performance action.

一方、情報管理部OD2は、各動画データ部を管理するための情報が記述された部分である。情報管理部OD2は、各動画データ部の管理に必要な各種の情報を適宜に含み得るが、図11の例では動画データ部(演奏動作)毎にそれに関する情報を管理する演奏レコードODRを含んでいる。演奏レコードODRは、このような管理のために、“演奏ID”、“キャラクタ”、“ユーザ”、“楽曲”、“評価”、“評価者”、及び“日時”の情報を含んでいる。演奏レコードODRには、これらの情報が相互に関連付けられるように記録されている。 Meanwhile, the information management section OD2 is the section in which information for managing each video data section is written. The information management section OD2 may contain various information necessary for managing each video data section as appropriate, but in the example of FIG. 11, it contains a performance record ODR that manages information about each video data section (performance action). For this type of management, the performance record ODR contains information on "performance ID", "character", "user", "music", "rating", "evaluator", and "date and time". The performance record ODR records these pieces of information so that they are mutually associated.

“演奏ID”は、各演奏動作(動画データ部)を管理するために演奏動作毎にユニークな演奏IDを示す情報である。“キャラクタ”は、その演奏動作に対応するキャラクタを特定するための情報である。このような情報として各キャラクタを特定可能な適宜の情報が利用されてよいが、一例としてキャラクタ毎にユニークなキャラクタIDの情報が利用される。具体的には、例えば第3キャラクタ画像54Cを介してプレイした実績に対応する演奏動作の場合、その第3キャラクタ画像54Cに対応するキャラクタIDの情報が“キャラクタ”に記述される。第1キャラクタ画像54A等の場合も同様である。また、各キャラクタは演奏する楽器と対応付けられている。このため、“キャラクタ”の情報は演奏対象の楽器の情報としても機能する。“キャラクタ”に代えて“楽器”の情報(例えば楽器のID)が記述されてもよい。 The "Performance ID" is information indicating a unique performance ID for each performance action in order to manage each performance action (video data section). The "Character" is information for identifying the character corresponding to that performance action. Any suitable information capable of identifying each character may be used as such information, and as an example, character ID information unique to each character is used. Specifically, for example, in the case of a performance action corresponding to an achievement played through the third character image 54C, the character ID information corresponding to the third character image 54C is described in "Character". The same is true for the first character image 54A, etc. Each character is also associated with an instrument to be played. Therefore, the "Character" information also functions as information on the instrument to be played. Instead of "Character", "Instrument" information (for example, the instrument ID) may be described.

“ユーザ”、“楽曲”、及び“評価”は、図9の例、及び図10の例の“ユーザ”、“楽曲”、及び“評価”の情報にそれぞれ対応する。このため、例えば“楽曲”の情報は“ID”、或いは“難易度”といった情報を、“評価”の情報は“種類”、或いは“結果”といった情報を適宜含む場合がある。ただし、図9の例、及び図10の例では、説明の便宜のために“Aユーザ”、“A楽曲”、“N難易度”、“サムアップ”といったユーザの名称等が各情報として示されているが、一例として演奏データODにはそれらの代わりにユーザID、楽曲ID、難易度識別記号、或いはアクションIDといった各ユーザ等を特定可能な情報が記述される。ユーザIDは各ユーザを識別するためにユーザ毎にユニークなIDであり、楽曲IDは各楽曲を識別するために楽曲毎にユニークなIDである。また、難易度識別記号は、各難易度を識別するために難易度毎に付与される記号(数字を含む)である。同様に、アクションIDは、サムアップ等の各評価アクションの種類を識別するために評価アクション毎にユニークなIDである。 The "user", "music", and "rating" correspond to the information of "user", "music", and "rating" in the example of FIG. 9 and the example of FIG. 10, respectively. For this reason, for example, the information of "music" may include information such as "ID" or "difficulty", and the information of "rating" may include information such as "type" or "result". However, in the examples of FIG. 9 and FIG. 10, for convenience of explanation, the names of users such as "A user", "A song", "N difficulty level", and "thumbs up" are shown as each piece of information, but as an example, the performance data OD describes information that can identify each user, such as a user ID, a song ID, a difficulty level identification symbol, or an action ID, instead of these. The user ID is an ID unique to each user to identify each user, and the song ID is an ID unique to each song to identify each song. The difficulty level identification symbol is a symbol (including a number) that is assigned to each difficulty level to identify each difficulty level. Similarly, the action ID is an ID unique to each evaluation action to identify the type of each evaluation action, such as a thumbs up.

一方、“評価者”は“評価”に対応する評価を実行した評価者(ユーザ)を示す情報である。“評価者”には評価者を特定可能な各種の情報が適宜に記述されてよい(“ユーザ”等の他の情報も同様)が、一例として評価者に対応するユーザIDの情報が記述される。“日時”は“評価”に対応する評価が実行された日時を示す情報である。“評価者”及び“日時”の情報は適宜に省略されてよく、例えばその両方が省略され、評価結果のみが“評価”として管理されてもよいが、図11の例では演奏レコードODRはそれらの両方を含んでいる。なお、演奏データODは、これらの情報に限定されず、例えば演奏パフォーマンスの実現、或いはその評価の管理に必要な情報等を適宜に管理してよい。あるいは、“評価者”等の情報のみならず、上述の各種の情報の一部が適宜に省略されてもよい。 On the other hand, "evaluator" is information indicating the evaluator (user) who performed the evaluation corresponding to "evaluation". Various information capable of identifying the evaluator may be appropriately described in "evaluator" (the same applies to other information such as "user"), and as an example, information on the user ID corresponding to the evaluator is described. "Date and time" is information indicating the date and time when the evaluation corresponding to "evaluation" was performed. The information on "evaluator" and "date and time" may be omitted as appropriate, for example, both may be omitted and only the evaluation result may be managed as an "evaluation", but in the example of FIG. 11, the performance record ODR includes both. Note that the performance data OD is not limited to these pieces of information, and may appropriately manage, for example, information necessary for realizing a performance performance or managing the evaluation. Alternatively, not only information such as "evaluator" but also some of the various pieces of information described above may be omitted as appropriate.

次に、演奏選択処理、連携応答処理、パフォーマンス評価処理、及び演奏データ生成処理の手順について説明する。演奏選択処理は、ユーザキャラクタ以外の他のキャラクタに実行させるべき演奏動作を選択する演奏選択機会を提供するための処理である。例えば、ユーザが第3キャラクタ画像54Cを介して音楽ゲームをプレイする場合において、第1キャラクタ画像54A、及び第2キャラクタ画像54Bにそれぞれ実行させるべき演奏動作が演奏選択機会にて選択される。具体的には、同じキャラクタに対して複数の演奏動作の実績が存在する場合、演奏データODはその同じキャラクタに対して複数の動画データ部OD1(複数の演奏動作)を含んでいる。この場合、それらの複数の演奏動作の候補から他のキャラクタに実行させるべき演奏動作が演奏選択機会において選択される。図12の例は、このような演奏選択機会を提供するための手順の一例を示している。この場合、進行制御部43は、音楽ゲームのプレイに使用するキャラクタを選択するためのキャラクタ選択機会をユーザに提供する毎に図12の演奏選択処理を開始し、まずそのキャラクタ選択機会におけるキャラクタの選択結果を取得する(ステップS101)。 Next, the procedures of the performance selection process, the cooperation response process, the performance evaluation process, and the performance data generation process will be described. The performance selection process is a process for providing a performance selection opportunity for selecting a performance action to be performed by a character other than the user character. For example, when a user plays a music game through the third character image 54C, the performance action to be performed by each of the first character image 54A and the second character image 54B is selected in the performance selection opportunity. Specifically, when there are multiple performance actions for the same character, the performance data OD includes multiple video data parts OD1 (multiple performance actions) for the same character. In this case, the performance action to be performed by the other character is selected in the performance selection opportunity from among the multiple performance action candidates. The example in FIG. 12 shows an example of the procedure for providing such a performance selection opportunity. In this case, the progress control unit 43 starts the performance selection process in FIG. 12 every time a character selection opportunity for selecting a character to be used in playing the music game is provided to the user, and first obtains the selection result of the character in the character selection opportunity (step S101).

続いて進行制御部43は、キャラクタ選択機会において選択したキャラクタ以外のキャラクタに実行させるべき演奏動作を選択するための演奏選択機会を提供する(ステップS102)。具体的には、進行制御部43は、演奏データODを参照し、対象のキャラクタ毎に複数の演奏動作の候補(他のユーザの演奏実績、及び予め用意された複数の所定の動作を含んでいてよい)から一つの演奏動作が選択されるように演奏選択機会を提供する。また、このような演奏選択機会は適宜に実現されてよいが、一例として演奏動作の選択に必要な情報を含む演奏選択機会用の選択画面(不図示)を通じて実現される。演奏選択機会における選択肢は、ユーザが選択した楽曲、楽器に対応して提示される。例えば、ユーザが選択した楽曲と同一の楽曲であって、ユーザが選択した楽器とは異なる楽器により生成された演奏データODが、演奏選択機会における選択肢としてユーザに提示される。選択肢の限定条件はこれ以外、例えば演奏データODが作成された期間等を適宜に含んでいてもよい。 Then, the progress control unit 43 provides a performance selection opportunity for selecting a performance action to be performed by a character other than the character selected in the character selection opportunity (step S102). Specifically, the progress control unit 43 refers to the performance data OD and provides a performance selection opportunity so that one performance action is selected from a plurality of performance action candidates (which may include the performance records of other users and a plurality of predetermined actions prepared in advance) for each target character. In addition, such a performance selection opportunity may be realized appropriately, and as an example, it is realized through a selection screen (not shown) for the performance selection opportunity that includes information necessary for selecting a performance action. The options in the performance selection opportunity are presented to the user in accordance with the music and instrument selected by the user. For example, performance data OD that is the same music as the music selected by the user but is generated by an instrument different from the instrument selected by the user is presented to the user as an option in the performance selection opportunity. The limiting conditions of the options may also include other options, such as the period during which the performance data OD was created.

また、演奏動作の選択に必要な情報には、例えば、演奏動作の実績に対応するユーザ(誰の演奏動作であるか)、或いはそのユーザのレベルや得点等の各種成績に関する情報といった各種の情報が適宜に含まれていてよいが、一例として指標情報が含まれる。より具体的には、演奏選択機会用の選択画面には、上述のようにサムアップの実行回数2回、或いは累積評価値11ポイントといった評価者による演奏パフォーマンス(演奏動作)の評価結果が指標情報として選択肢毎に提示される。また、演奏選択機会用の選択画面は、各選択肢(演奏動作の候補)を適宜の手法で提示してよく、例えば演奏データODの新しい順、或いは使用頻度の高い順(使用頻度に基づくランキング形式)に提示してもよいが、累積評価値が指標情報として提示される場合、一例として累積評価値に基づくランキング形式で提示する。進行制御部43は、このような選択肢、及び指標情報を含む選択画面をステップS102において提示することにより演奏選択機会を提供する。なお、指標情報は累積評価値等の他にも、例えばプレイの上手さを示すスコア、或いは盛り上がった演奏を行ったかを示す情報(例えば演奏パフォーマンスを視聴する視聴者等の反応に基づく情報等、適宜のアルゴリズムにより取得されてよい)といった、選択の参考(補助)になる各種の情報を適宜に含んでいてよい。 The information required for selecting a performance action may include various information, such as the user (whose performance action it is) corresponding to the performance action record, or information on the user's level, score, and other various results, as appropriate, and includes index information as an example. More specifically, the selection screen for the performance selection opportunity presents the evaluation results of the performance performance (performance action) by the evaluator, such as the number of thumbs ups performed twice or the cumulative evaluation value of 11 points, as described above, as index information for each option. The selection screen for the performance selection opportunity may present each option (candidate performance action) in an appropriate manner, for example, in order of newness of the performance data OD or in order of frequency of use (ranking format based on frequency of use), but when the cumulative evaluation value is presented as index information, as an example, it is presented in a ranking format based on the cumulative evaluation value. The progress control unit 43 provides a performance selection opportunity by presenting a selection screen including such options and index information in step S102. In addition to the cumulative evaluation value, the index information may include various other information that can be used as a reference (assistance) for selection, such as a score indicating the skill of the player, or information indicating whether the performance was exciting (which may be obtained using an appropriate algorithm, such as information based on the reactions of viewers watching the performance).

次に進行制御部43は、演奏選択機会における選択結果に基づいて他のキャラクタの演奏動作を決定する(ステップS103)。そして、この決定の後に進行制御部43は今回の演奏選択処理を終了する。これにより、ユーザキャラクタ以外の他のキャラクタに実行させるべき演奏動作を選択する演奏選択機会が実現される。また、演奏選択機会では、このような演奏動作の候補として、他のユーザのプレイ実績を含む複数の演奏動作の実績が選択肢の候補として提示される。さらに、その演奏選択機会では、選択肢の候補(演奏動作の実績)毎に評価者による評価結果が選択を補助するように指標情報として提示される。そして、演奏選択機会における選択結果に基づいて、演奏パフォーマンスにおいて他のキャラクタに実際の演奏動作の実績に対応する動作がトレースされる。 The progress control unit 43 then determines the performance actions of the other characters based on the selection result in the performance selection opportunity (step S103). After this determination, the progress control unit 43 ends the current performance selection process. This realizes a performance selection opportunity for selecting a performance action to be performed by a character other than the user character. In addition, in the performance selection opportunity, a plurality of performance action records, including the play records of other users, are presented as candidate options for such performance actions. Furthermore, in the performance selection opportunity, the evaluation results by the evaluator are presented as index information to assist in the selection for each candidate option (performance action record). Then, based on the selection result in the performance selection opportunity, actions corresponding to the actual performance action records are traced by the other characters in the performance performance.

連携応答処理は、各キャラクタに連携状態を形成させるための処理である。各キャラクタは他のユーザによって操作されてもよく、その場合、他のユーザによって応答アクションが実行されたか否か判別され、応答アクションが実行された場合に連携状態が形成されるが、図13の例はコンピュータ(進行制御部43)によって各キャラクタの動作が制御される場合を示している。この場合、進行制御部43は、ユーザキャラクタ(例えば図3の例の第3キャラクタ画像54C)が(周辺視野範囲IR2に他のキャラクタを含む状況において)ユーザによって操作される毎に図13の連携応答処理を開始し、まずそのユーザの操作が連携アクションに該当するか否か判別する(ステップS201)。一例として、そのユーザの操作が中心視野範囲IR1に他のキャラクタを一定割合以上含めるように視線を向ける動作に対応する場合、その操作(動作)は連携アクションに該当する。このため、進行制御部43は、そのユーザの操作が中心視野範囲IR1に他のキャラクタを一定割合以上含める動作に該当するか否か判別する。ユーザの操作が中心視野範囲IR1に他のキャラクタを一定割合以上含める動作(視線を向ける動作)に該当しない場合、つまりそのユーザの操作が連携アクションに該当しない場合、進行制御部43は以降の処理をスキップして今回の連携応答処理を終了する。 The cooperation response process is a process for forming a cooperation state for each character. Each character may be operated by another user, and in that case, it is determined whether or not a response action has been performed by the other user, and if a response action has been performed, a cooperation state is formed. The example of FIG. 13 shows a case where the action of each character is controlled by a computer (progress control unit 43). In this case, the progress control unit 43 starts the cooperation response process of FIG. 13 every time a user character (for example, the third character image 54C in the example of FIG. 3) is operated by a user (in a situation in which the peripheral visual field range IR2 includes other characters), and first determines whether the user's operation corresponds to a cooperation action (step S201). As an example, if the user's operation corresponds to an action of directing the line of sight so that the central visual field range IR1 includes other characters at a certain ratio or more, the operation (action) corresponds to a cooperation action. For this reason, the progress control unit 43 determines whether the user's operation corresponds to an action of including other characters at a certain ratio or more in the central visual field range IR1. If the user's operation does not correspond to an action that includes a certain percentage or more of another character in the central visual field range IR1 (directing one's gaze), in other words, if the user's operation does not correspond to a cooperative action, the progress control unit 43 skips subsequent processing and ends the current cooperative response processing.

一方、ユーザの操作が中心視野範囲IR1に他のキャラクタを一定割合以上含める動作(視線を向ける動作)に該当する場合、つまりそのユーザの操作が連携アクションに該当する場合、進行制御部43はその連携アクションの対象のキャラクタ、つまり中心視野範囲IR1に一定割合以上含まれるキャラクタに応答アクションを実行させる(ステップS202)。具体的には、例えば応答アクションとしてユーザキャラクタに対して視線を向ける(仮想カメラに視線を合わせる;視線を返す)動作が採用される場合、ユーザキャラクタに視線を向ける動作を実行するように、対象のキャラクタの動作を制御する。視線を向ける動作が実行された場合、視線が合った状態となる。 On the other hand, if the user's operation corresponds to an action that includes a certain percentage or more of another character in the central visual field range IR1 (directing one's gaze), in other words, if the user's operation corresponds to a cooperative action, the progress control unit 43 causes the character that is the target of the cooperative action, that is, the character that is included in the central visual field range IR1 at a certain percentage or more, to execute a response action (step S202). Specifically, for example, if the response action involves directing one's gaze at the user character (aligning one's gaze with the virtual camera; returning one's gaze), the action of the target character is controlled so that the character directs its gaze at the user character. When the action of directing one's gaze is executed, the gazes meet.

続いて進行制御部43は、ユーザキャラクタとステップS202において応答アクションを実行させたキャラクタとの間に連携状態を形成させる(ステップS203)。連携状態の形成は適宜に実現されてよく、例えば専用の動作により連携状態が表現される場合にはそのような動作の実行により実現されてもよいが、一例として連携状態の有無を管理するためのフラグの更新により実現される。具体的には、各キャラクタには、連携状態の有無を管理するためのパラメータが設定される。このため、進行制御部43は、このフラグを連携状態の形成を示す状態に更新することにより連携状態の形成を実現する。そして、連携状態を形成した後に進行制御部43は今回の連携応答処理を終了する。これにより、他のキャラクタの動作が連携アクションに応じて応答アクションを実行するように制御される。つまり、ユーザキャラクタと他のキャラクタとの間に連携状態が積極的に形成されるように、他のキャラクタの動作が制御される。そして、連携状態が形成された場合には、その状態がフラグにより管理される。 Then, the progress control unit 43 forms a cooperation state between the user character and the character that performed the response action in step S202 (step S203). The cooperation state may be formed as appropriate, for example, when the cooperation state is expressed by a dedicated action, it may be formed by performing such an action, but as an example, it is realized by updating a flag for managing the presence or absence of the cooperation state. Specifically, a parameter for managing the presence or absence of the cooperation state is set for each character. Therefore, the progress control unit 43 realizes the formation of the cooperation state by updating this flag to a state indicating the formation of the cooperation state. Then, after the cooperation state is formed, the progress control unit 43 ends this cooperation response process. As a result, the action of the other character is controlled to perform a response action in response to the cooperation action. In other words, the action of the other character is controlled so that a cooperation state is actively formed between the user character and the other character. Then, when the cooperation state is formed, the state is managed by the flag.

パフォーマンス評価処理は、他のキャラクタの演奏パフォーマンスを評価するための処理である。演奏パフォーマンスの評価は適宜に実現されてよいが、図14の例は評価キャラクタ(評価者に対応するユーザキャラクタ)による評価アクションに基づいて評価される場合を示している。また、図14の例は連携状態における評価アクションに基づいて演奏パフォーマンスが評価される場合、より具体的には被評価キャラクタと評価キャラクタとの間に相互に意識する状態が形成された後の評価アクションに基づいて演奏パフォーマンスが評価される場合を示している。この場合、進行制御部43は、評価期間における連携状態の形成を条件にその連携状態において評価キャラクタがアクションを実行する毎に図14のパフォーマンス評価処理を開始し、まず評価条件を満たすか否か判別する(ステップS301)。評価条件は演奏パフォーマンスの評価を実行するか否か判別するための条件である。評価条件は適宜に満たされてよいが、一例として評価キャラクタが実行したアクションが評価アクションに該当する場合に満たされる。つまり、評価キャラクタが実行したアクションが、サムアップ、頷き、バンザイ、或いは首振りといった評価アクションとして設定されたアクションに該当する場合に評価条件が満たされる。そして、評価条件が満たされない場合、つまり評価キャラクタが実行したアクションが評価アクションに該当しない場合、進行制御部43は以降の処理をスキップして今回のパフォーマンス評価処理を終了する。 The performance evaluation process is a process for evaluating the performance of other characters. The evaluation of the performance may be realized as appropriate, but the example of FIG. 14 shows a case where the evaluation is based on an evaluation action by the evaluation character (user character corresponding to the evaluator). The example of FIG. 14 also shows a case where the performance is evaluated based on an evaluation action in a cooperation state, more specifically, a case where the performance is evaluated based on an evaluation action after a state of mutual awareness is formed between the evaluation subject character and the evaluation character. In this case, the progress control unit 43 starts the performance evaluation process of FIG. 14 each time the evaluation character performs an action in the cooperation state, subject to the formation of a cooperation state during the evaluation period, and first determines whether the evaluation condition is satisfied (step S301). The evaluation condition is a condition for determining whether to execute an evaluation of the performance performance. The evaluation condition may be satisfied as appropriate, but as an example, it is satisfied when the action performed by the evaluation character corresponds to the evaluation action. In other words, the evaluation condition is satisfied when the action performed by the evaluation character corresponds to an action set as an evaluation action, such as a thumbs up, a nod, a banzai, or a head shake. If the evaluation conditions are not met, that is, if the action performed by the evaluation character does not correspond to the evaluation action, the progress control unit 43 skips the subsequent processing and ends the current performance evaluation process.

一方、評価条件が満たされる場合、つまり評価キャラクタが実行したアクションが評価アクションに該当する場合、進行制御部43は対象のキャラクタ(被評価キャラクタ)を判別する(ステップS302)。被評価キャラクタは評価キャラクタと連携状態を形成しているキャラクタである。このため、進行制御部43は対象のキャラクタとして評価キャラクタと連携状態を形成しているキャラクタを判別する。 On the other hand, if the evaluation conditions are met, that is, if the action performed by the evaluated character corresponds to the evaluated action, the progress control unit 43 determines the target character (evaluated character) (step S302). The evaluated character is a character that has formed a cooperative state with the evaluated character. Therefore, the progress control unit 43 determines the character that has formed a cooperative state with the evaluated character as the target character.

続いて進行制御部43は、評価キャラクタが実行した評価アクションの種類を判別する(ステップS303)。具体的には、進行制御部43は、評価キャラクタが実行した評価アクションが、サムアップ、頷き、バンザイ、或いは首振りといった種類のいずれに該当するか判別する。 Next, the progress control unit 43 determines the type of evaluation action performed by the evaluation character (step S303). Specifically, the progress control unit 43 determines whether the evaluation action performed by the evaluation character corresponds to a thumbs up, a nod, a cheer, or a head shake.

次に進行制御部43は、ステップS302で判別した対象のキャラクタの演奏パフォーマンスを評価する(ステップS304)。演奏パフォーマンスの評価は、例えば図9の例、或いは図10の例に示すように実現される。例えば図9の例の場合、進行制御部43は、ステップS303で判別した評価アクションの種類毎に実行回数をカウントすることにより演奏パフォーマンスの評価を実現する。具体的には、進行制御部43は、ステップS303で判別した評価アクションの種類に対応する“種類”に関連付けられる実行回数が増加するように演奏データODの“結果”の情報を更新することにより、演奏パフォーマンスの評価を実現する。同様に、図10の例の場合、進行制御部43は、ステップS303で判別した評価アクションの種類に設定される評価値を累積評価値に加算することにより演奏パフォーマンスの評価を実現する。そして、進行制御部43は、このような評価の後に今回のパフォーマンス評価処理を終了する。これにより、連携状態の形成を条件に評価期間において評価アクションに基づいて他のキャラクタの演奏パフォーマンスが評価される。なお、評価期間内にステップS304の評価が実行されない(評価アクションが検出されない)場合、進行制御部43は、今回の演奏パフォーマンスの評価結果を評価なし、と評価し、同様に演奏データODを更新する。 Next, the progress control unit 43 evaluates the performance of the target character determined in step S302 (step S304). The evaluation of the performance is realized, for example, as shown in the example of FIG. 9 or the example of FIG. 10. For example, in the case of the example of FIG. 9, the progress control unit 43 realizes the evaluation of the performance by counting the number of times each type of evaluation action determined in step S303 is performed. Specifically, the progress control unit 43 realizes the evaluation of the performance by updating the information of the "result" of the performance data OD so that the number of times associated with the "type" corresponding to the type of evaluation action determined in step S303 increases. Similarly, in the case of the example of FIG. 10, the progress control unit 43 realizes the evaluation of the performance by adding the evaluation value set for the type of evaluation action determined in step S303 to the cumulative evaluation value. Then, the progress control unit 43 ends the current performance evaluation process after such evaluation. As a result, the performance performance of other characters is evaluated based on the evaluation action during the evaluation period on the condition that a cooperation state is formed. If the evaluation in step S304 is not performed within the evaluation period (if the evaluation action is not detected), the progress control unit 43 evaluates the evaluation result of the current performance as no evaluation, and updates the performance data OD in the same manner.

演奏データ生成処理は、各ユーザのプレイ(演奏動作)の実績に基づいて演奏データODを生成するための処理である。演奏データODは適宜に生成されてよく、例えば一律に全ユーザの全プレイの実績に基づいて生成されたり、ユーザごと及び楽曲ごと及び楽器ごとにベストスコア(ノーツ処理の評価またはノーツ処理以外の部分を評価する評価基準におけるベストスコア)となった場合などに生成されたりしてもよいが、一例としてユーザが演奏データODの生成を希望した場合に生成される。この場合、演奏データODの生成を希望したユーザ(別途生成の要否を確認するための機会が適宜にユーザに付与されてよい)のプレイにおいて演奏パフォーマンスが開始されると、データ管理部44は図15の演奏データ生成処理を開始し、まずその演奏パフォーマンスにおけるユーザの操作、つまりユーザキャラクタの動作を記録する(ステップS401)。続いてデータ管理部44は、ステップS401の記録結果に基づいて演奏データODを生成する(ステップS402)。具体的には、データ管理部44は、ユーザキャラクタの動作を再現するための動画データ部OD1、及びそれに対応する各種情報を記録する情報管理部OD2を生成する。そして、演奏データODを生成した後にデータ管理部44は今回の演奏データ生成処理を終了する。これにより、各ユーザのプレイ実績に対応する演奏動作を再現するための演奏データODが生成される。なお、一律に演奏データODが生成され、ユーザが希望した場合やベストスコアが算出された場合等所定条件を満たした場合にそれが保存されてもよい。 The performance data generation process is a process for generating performance data OD based on the performance (performance action) of each user. The performance data OD may be generated appropriately, for example, uniformly based on the performance of all plays of all users, or may be generated when the best score (best score in the evaluation criteria for evaluating the note processing or the part other than the note processing) is achieved for each user, each song, and each instrument. As an example, the performance data OD is generated when the user wishes to generate the performance data OD. In this case, when a performance performance is started in the play of a user who wishes to generate the performance data OD (the user may be given an opportunity to confirm the necessity of generation separately as appropriate), the data management unit 44 starts the performance data generation process of FIG. 15, and first records the user's operation in the performance, that is, the action of the user character (step S401). Next, the data management unit 44 generates the performance data OD based on the recording result of step S401 (step S402). Specifically, the data management unit 44 generates a video data section OD1 for reproducing the actions of the user character, and an information management section OD2 for recording various information corresponding thereto. After generating the performance data OD, the data management unit 44 ends the current performance data generation process. This generates performance data OD for reproducing performance actions corresponding to each user's playing history. Note that the performance data OD may be generated uniformly and saved when a predetermined condition is met, such as when the user wishes or when a best score is calculated.

以上に説明したように、この形態によれば、評価期間の連携状態においてユーザキャラクタ(評価キャラクタ)に評価アクションを実行させるためのサムアップ動作等が実行された場合には、評価アクションの対象の(連携状態を形成している)他のキャラクタによるパフォーマンスがその評価アクションに基づいて評価される。つまり、ユーザキャラクタには演奏パフォーマンスとは別に実行される評価アクションが許容され、その評価アクションを契機に他のキャラクタによる演奏パフォーマンスが、その評価アクションのための行為を通じてユーザキャラクタに対応するユーザ(演奏パフォーマンスの実行者)によって評価される。このため、そのような行為を利用して、複数のキャラクタによる演奏パフォーマンスをそのパフォーマンスの実行者の視点から評価することができる。 As explained above, according to this embodiment, when a thumbs-up action or the like is performed to cause the user character (evaluation character) to perform an evaluation action during a linked state in the evaluation period, the performance of the other characters that are the target of the evaluation action (forming a linked state) is evaluated based on that evaluation action. In other words, the user character is permitted to perform an evaluation action separately from the musical performance, and that evaluation action is used as a trigger for the musical performance of the other characters to be evaluated by the user (the performer of the musical performance) corresponding to the user character through an action for that evaluation action. Therefore, such actions can be used to evaluate the musical performance of multiple characters from the perspective of the performer of that performance.

演奏パフォーマンスは、例えばステージ領域53の周囲のキャラクタを介して演奏パフォーマンスを視聴する観客としてのユーザ、或いは単に映像を介してその演奏パフォーマンスを視聴する視聴者としてのユーザ等、演奏パフォーマンスの実行者以外によって評価されてもよく、その結果も指標情報等として適宜に活用されてよいが、演奏パフォーマンスには実行者にしか評価できない要素も存在する。例えば、自己の演奏パフォーマンスとの親和性等である。ユーザキャラクタの評価アクションが評価に利用される場合、仮に観客等による評価が実行されるとしても、それとは別の視点(基準)による実行者独自の基準に基づいて他のキャラクタの演奏パフォーマンスを評価させることができる。結果として、実行者にしか評価できない要素に基づいて他のキャラクタによるパフォーマンスを評価することができる。 The performance may be evaluated by someone other than the performer of the performance, such as a user as an audience member watching the performance through characters around the stage area 53, or a user as a viewer simply watching the performance through video, and the results may be used as appropriate as index information, etc., but there are also elements of a performance that can only be evaluated by the performer. For example, affinity with one's own performance performance. When the evaluation action of the user character is used for evaluation, even if evaluation is performed by an audience, etc., the performance performance of other characters can be evaluated based on the performer's own criteria from a different perspective (criteria). As a result, the performance of other characters can be evaluated based on elements that can only be evaluated by the performer.

特に、サムアップ、或いは頷きといった、演奏パフォーマンスの一部として実行されても違和感のないアクションが評価アクションとして利用される場合、演奏パフォーマンスの延長として比較的自然に、或いは付加的な演出として他のキャラクタのパフォーマンスを評価することができる。さらに、その評価結果が指標情報として演奏選択機会において提示される場合、評価アクションに基づく演奏パフォーマンスの評価結果を利用して、演奏選択機会においてより好ましい演奏動作の選択を促進することができる。これらにより、ゲームの興趣性の向上を図ることができる。 In particular, when actions such as a thumbs up or a nod, which would not be out of place when performed as part of a performance, are used as evaluation actions, the performance of other characters can be evaluated relatively naturally as an extension of the performance, or as an additional effect. Furthermore, when the evaluation results are presented as index information in the performance selection opportunity, the evaluation results of the performance performance based on the evaluation action can be used to encourage the selection of more preferable performance actions in the performance selection opportunity. These can increase the interest of the game.

以上の形態において、HMD型のゲーム機4の進行制御部43が、図14のステップS304を実行することにより本発明の指示評価手段として機能する。また、HMD型のゲーム機4の進行制御部43が、図12のステップS102を実行することにより本発明の結果提供手段として機能する。 In the above embodiment, the progress control unit 43 of the HMD type game machine 4 functions as the instruction evaluation means of the present invention by executing step S304 in FIG. 14. Also, the progress control unit 43 of the HMD type game machine 4 functions as the result provision means of the present invention by executing step S102 in FIG. 12.

本発明は上述した形態に限定されず、適宜の変形又は変更が施された形態にて実施されてよい。例えば、上述の形態では、各センサSMA、SMBを通じてHMD型のゲーム機4或いは操作スティックOSによってユーザの各種の動作(プレイ行為)が検出されている。しかし、本発明は、このような形態に限定されない。例えば、センサSMA等は、HMD型のゲーム機4に搭載されていなくてもよい。具体的には、例えば専用のプレイルームにおいてゲームがプレイされる場合、そのプレイルームにカメラ等のユーザのプレイ行為を検出するための各種のセンサが必要に応じて適宜の数設けられていてよい。 The present invention is not limited to the above-described embodiment, and may be implemented in a form with appropriate modifications or changes. For example, in the above-described embodiment, various actions (playing actions) of the user are detected by the HMD-type game machine 4 or the operation stick OS through each sensor SMA, SMB. However, the present invention is not limited to such an embodiment. For example, the sensor SMA, etc. may not be mounted on the HMD-type game machine 4. Specifically, for example, when a game is played in a dedicated playroom, an appropriate number of various sensors such as cameras for detecting the user's playing actions may be provided in the playroom as necessary.

上述の形態では、ユーザキャラクタ(例えば第3キャラクタ画像54C)の視野範囲IRには、一体の他のキャラクタ(例えば第2キャラクタ画像54B)のみが入っている。しかし、ユーザキャラクタ(評価キャラクタ)の視野範囲IRには、状況に応じて適宜の数の他のキャラクタが含まれてよい。例えば、上述の形態では各キャラクタの位置はステージ領域53において固定的であるが、各キャラクタはプレイ状況等に応じて適宜に移動してよく、例えば第1キャラクタ画像54A及び第2キャラクタ画像54Bが互いに隣接するように位置してもよい。この場合、第3キャラクタ画像54Cの視野範囲IRには、第1キャラクタ画像54A及び第2キャラクタ画像54Bの両方が入ってもよい。この場合において、連携アクションの対象は適宜に判定されてよく、例えば視野範囲IRにより多くの部分が入っているキャラクタ、視野範囲IRに先に入ったキャラクタ、或いは両方のキャラクタが連携アクションの対象、つまり被評価キャラクタとして判定されてもよい。一方で、視野範囲IRに複数の他のキャラクタが入っている場合、その連携アクションは無効と判定されてもよい。 In the above-mentioned embodiment, the field of view IR of the user character (e.g., the third character image 54C) includes only one other character (e.g., the second character image 54B). However, the field of view IR of the user character (evaluation character) may include an appropriate number of other characters depending on the situation. For example, in the above-mentioned embodiment, the position of each character is fixed in the stage area 53, but each character may move appropriately depending on the play situation, etc., for example, the first character image 54A and the second character image 54B may be positioned so as to be adjacent to each other. In this case, the field of view IR of the third character image 54C may include both the first character image 54A and the second character image 54B. In this case, the target of the cooperation action may be determined appropriately, and for example, the character that is more partially included in the field of view IR, the character that entered the field of view IR first, or both characters may be determined as the target of the cooperation action, that is, the evaluated character. On the other hand, if multiple other characters are included in the field of view IR, the cooperation action may be determined to be invalid.

上述の形態では、バンザイ等の評価アクションは、ユーザによる同様の動作により実現されている。しかし、本発明は、このような形態に限定されない。例えば、サムアップ用のタッチボタンTBの他にも、頷き、バンザイ、或いは首振りといった各評価アクションを実現するための複数のタッチボタンTBが操作スティックOSに設けられていてもよい。 In the above-described embodiment, evaluation actions such as raising one's arms in the air are realized by a similar action by the user. However, the present invention is not limited to this embodiment. For example, in addition to the touch button TB for thumbs-up, the operation stick OS may be provided with a plurality of touch buttons TB for realizing each evaluation action such as nodding, raising one's arms in the air, or shaking one's head.

また、上述の形態では、図12~図15の処理はHMD型のゲーム機4で実行されている。結果として、HMD型のゲーム機4の単体が本発明のゲームシステムとして機能している。しかし、本発明は、このような形態に限定されない。例えば、HMD型のゲーム機4に近距離無線通信等のネットワークを介して接続される各種のゲーム装置(コンピュータ)が図12~図15の処理の全部あるいは一部を実行してもよい。HMD型のゲーム機4に接続されるゲーム装置が図12~図15の処理の全部を実行する場合、このゲーム装置が本発明のゲームシステムとして機能してもよい。あるいは、このようなゲーム装置が本発明のセンターサーバ2として機能してもよい。同様に、例えば、図12~図15の処理の全部あるいは一部はセンターサーバ2によって実行されてもよい。例えば、図12~図15の処理の全部をセンターサーバ2が実行する場合、センターサーバ2単体(複数のサーバ装置を含んでもよい)が本発明のゲームシステムとして機能してもよい。一方で、HMD型のゲーム機4の単体、或いはHMD型のゲーム機4に接続されるゲーム装置(これらの組合せを含む)が本発明のゲームシステムとして機能する場合、センターサーバ2は適宜に省略されてもよい。 In the above embodiment, the processes in Figs. 12 to 15 are executed by the HMD-type game machine 4. As a result, the HMD-type game machine 4 alone functions as the game system of the present invention. However, the present invention is not limited to such an embodiment. For example, various game devices (computers) connected to the HMD-type game machine 4 via a network such as short-range wireless communication may execute all or part of the processes in Figs. 12 to 15. When a game device connected to the HMD-type game machine 4 executes all of the processes in Figs. 12 to 15, this game device may function as the game system of the present invention. Alternatively, such a game device may function as the center server 2 of the present invention. Similarly, for example, all or part of the processes in Figs. 12 to 15 may be executed by the center server 2. For example, when the center server 2 executes all of the processes in Figs. 12 to 15, the center server 2 alone (which may include multiple server devices) may function as the game system of the present invention. On the other hand, if the HMD-type game machine 4 alone or a game device connected to the HMD-type game machine 4 (including a combination of these) functions as the game system of the present invention, the center server 2 may be omitted as appropriate.

上述した実施の形態及び変形例のそれぞれから導き出される本発明の各種の態様を以下に記載する。なお、以下の説明では、本発明の各態様の理解を容易にするために添付図面に図示された対応する部材を括弧書きにて付記するが、それにより本発明が図示の形態に限定されるものではない。 Various aspects of the present invention derived from each of the above-mentioned embodiments and modifications are described below. In the following description, the corresponding components shown in the attached drawings are noted in parentheses to facilitate understanding of each aspect of the present invention, but this does not limit the present invention to the illustrated forms.

本発明のゲームシステムは、各ユーザのプレイ行為を入力するための入力装置(SMA、SMB)、及び前記プレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタ(54C)を含む複数のキャラクタ(54)が表示されるゲーム画面(50)を表示する表示装置(47)に接続され、前記ゲーム画面を通じて前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステム(4)であって、前記ユーザキャラクタから前記複数のキャラクタの他のキャラクタ(54B)に対して前記パフォーマンスに付加されるように実行される付加行動を前記ユーザキャラクタに実行させるための付加指示行為が前記プレイ行為として実行された場合に、当該付加指示行為に基づいて前記他のキャラクタによる前記パフォーマンスを評価する指示評価手段(43)と、前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する結果提供手段(43)と、を備えるものである。 The game system of the present invention is a game system (4) that is connected to an input device (SMA, SMB) for inputting the play actions of each user, and a display device (47) that displays a game screen (50) on which a plurality of characters (54) including at least one user character (54C) operated by each user through the play actions are displayed, and that provides a game including a performance performed by the plurality of characters through the game screen. When an additional instruction action is executed as the play action from the user character to another character (54B) of the plurality of characters so as to cause the user character to perform an additional action that is executed to be added to the performance, the game system includes an instruction evaluation means (43) that evaluates the performance by the other character based on the additional instruction action, and a result providing means (43) that provides each user with an evaluation result of the performance by the other character.

本発明によれば、ユーザキャラクタに付加行動を実行させるための付加指示行為が実行された場合には、付加行動の対象の他のキャラクタによるパフォーマンスがその付加指示行為に基づいて評価される。つまり、ユーザキャラクタには付加行動が許容され、その付加行動を契機に他のキャラクタによるパフォーマンスが付加指示行為を通じてユーザキャラクタに対応するユーザ(パフォーマンスの実行者)によって評価される。そして、その評価結果は各ユーザに提供される。このため、そのような付加指示行為を利用して、複数のキャラクタによるパフォーマンスをそのパフォーマンスの実行者の視点から評価することができる。結果として、実行者にしか評価できない要素に基づいて他のキャラクタによるパフォーマンスを評価することができる。 According to the present invention, when an additional instruction action is executed to cause a user character to execute an additional action, the performance of the other character that is the target of the additional action is evaluated based on the additional instruction action. In other words, the user character is permitted to perform an additional action, and the performance of the other character is evaluated by the user (performer of the performance) corresponding to the user character through the additional instruction action, triggered by the additional action. The evaluation results are then provided to each user. Therefore, by utilizing such additional instruction actions, the performance of multiple characters can be evaluated from the perspective of the performer of the performance. As a result, the performance of the other characters can be evaluated based on elements that can only be evaluated by the performer.

付加指示行為は、他のキャラクタ(評価される対象の被評価キャラクタ)の状態にかわらず実行されてもよいし、ユーザキャラクタ(評価を実行する評価キャラクタ)と他のキャラクタとの間に付加行動(付加指示行為)を受け付ける所定の状態が形成された後に実行されてもよい。例えば、本発明のゲームシステムの一態様において、前記指示評価手段は、前記ユーザキャラクタから前記他のキャラクタに対して実行されるユーザアクションと、当該ユーザアクションに対応する前記他のキャラクタによる対応アクションとによって前記ユーザキャラクタと前記他のキャラクタとの間に形成される連携状態の形成を条件に当該連携状態において前記付加指示行為が実行された場合に、前記他のキャラクタによる前記パフォーマンスを評価してもよい。 The additional instruction action may be executed regardless of the state of the other character (the evaluated character that is the subject of evaluation), or may be executed after a predetermined state in which the additional action (additional instruction action) is accepted is formed between the user character (the evaluation character that performs the evaluation) and the other character. For example, in one aspect of the game system of the present invention, the instruction evaluation means may evaluate the performance by the other character when the additional instruction action is executed in a cooperative state formed between the user character and the other character by a user action executed by the user character on the other character and a corresponding action by the other character corresponding to the user action, on the condition that such a cooperative state is formed.

付加指示行為は適宜の時期に実行されてよく、例えばパフォーマンスの途中において実行されても、パフォーマンスの後に実行されてもよい。例えば、パフォーマンスの評価が連携状態にて実行される態様において、前記指示評価手段は、前記パフォーマンスの後に当該パフォーマンスを評価するための評価期間が設けられる場合に、当該評価期間において前記連携状態で前記付加指示行為が実行されたときに、前記他のキャラクタによる前記パフォーマンスを評価してもよい。 The additional instruction action may be executed at an appropriate time, for example during the performance or after the performance. For example, in a mode in which the evaluation of the performance is executed in a linked state, if an evaluation period for evaluating the performance is provided after the performance, the instruction evaluation means may evaluate the performance by the other character when the additional instruction action is executed in the linked state during the evaluation period.

ユーザアクション、及び対応アクションとして、各種のアクション(行動)が適宜に実行されてよい。例えば、ユーザアクションは、楽器に対して所定の演奏を行うアクションであってもよいし、腕等の各種の部位を適宜に動作させるアクションであってもよい。あるいは、他のキャラクタに声をかけるアクションであってもよい。対応アクションも同様である。このため、例えば、ユーザアクション、及び対応アクションとして互いに視線を向け合う(アイコンタクトを行う)アクションが採用されてもよい。具体的には、例えば、パフォーマンスの評価が連携状態にて実行される態様において、前記連携状態は、前記ユーザキャラクタに設定される視野範囲(IR)に前記他のキャラクタを入れる動作が前記ユーザアクションとして、前記他のキャラクタに設定される視野範囲(IR)に前記ユーザキャラクタを入れる動作が前記対応アクションとして、それぞれ機能するように、前記ユーザキャラクタの視野範囲に含まれる前記他のキャラクタが当該他のキャラクタの視野範囲に前記ユーザキャラクタを入れた場合に形成されてもよい。 As the user action and the corresponding action, various actions (behaviors) may be appropriately executed. For example, the user action may be an action of playing a predetermined piece of music on an instrument, or an action of appropriately moving various parts such as the arms. Alternatively, it may be an action of calling out to another character. The same applies to the corresponding action. For this reason, for example, an action of turning one's gaze towards another (making eye contact) may be adopted as the user action and the corresponding action. Specifically, for example, in a mode in which the evaluation of the performance is executed in a cooperation state, the cooperation state may be formed when the other character included in the visual field of the user character puts the user character into the visual field of the other character, so that the action of putting the other character into the visual field of the user character (IR) set for the user character functions as the user action, and the action of putting the user character into the visual field of the other character (IR) functions as the corresponding action, respectively.

パフォーマンスの評価結果は適宜に活用されてよく、例えばゲームのプレイに関する評価として機能するスコア(勝敗の判定、或いは他のユーザとの間でランキング等を競うための値)に反映されてもよい。あるいは、他のキャラクタの動作がコンピュータによって制御され、パフォーマンスで使用されるべき動作が複数の候補から選択される場合において、パフォーマンスの評価結果はその動作を選択する際の指標として機能してもよい。具体的には、例えば、前記結果提供手段は、前記ユーザキャラクタが過去のプレイにおいて前記パフォーマンスとして実行した動作と同様の動作を実行するように前記パフォーマンスにおいて前記他のキャラクタの動作が制御され、前記ユーザキャラクタの過去のプレイにおける複数の動作から前記他のキャラクタが実際に実行すべき動作を選択するための選択機会が提供される場合に、当該選択機会において各動作を選択するための指標となる指標情報として機能するように前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供してもよい。この場合、パフォーマンスの評価結果を利用して、選択機会においてより好ましい動作の選択を促進することができる。 The performance evaluation result may be appropriately utilized, and may be reflected in a score (a value for determining victory or defeat, or for competing with other users for rankings, etc.) that functions as an evaluation of game play. Alternatively, in a case where the actions of other characters are controlled by a computer and an action to be used in a performance is selected from a plurality of candidates, the performance evaluation result may function as an index for selecting the action. Specifically, for example, in a case where the actions of the other characters are controlled in the performance so as to perform an action similar to an action performed by the user character in the performance in a past play, and a selection opportunity is provided for selecting an action to be actually performed by the other character from a plurality of actions in the user character's past play, the result providing means may provide each user with the performance evaluation result by the other characters to function as index information that serves as an index for selecting each action in the selection opportunity. In this case, the performance evaluation result can be utilized to promote the selection of a more preferable action in the selection opportunity.

付加指示行為に基づくパフォーマンスの評価は適宜の手法により実現されてよい。例えば、好ましいパフォーマンスの場合、或いはその反対の場合にのみ実行される一種類の行為だけが付加指示行為として用意されていてもよい。あるいは、OK、及びNG等の評価結果にそれぞれ関連付けられる複数種類の付加指示行為が用意されていてもよい。また、複数種類の付加指示行為が用意される場合において、各付加指示行為は同様の評価として扱われてもよいし、各付加指示行為の評価には適宜の重み付けが実行されてもよい。例えば、評価結果が指標情報として機能する態様において、前記指示評価手段は、前記付加指示行為として複数種類の付加指示行為が用意される場合に、各ユーザによって実行された付加指示行為としての実際の指示行為の種類が前記指標情報として機能するように、前記実際の指示行為の種類を判別することにより前記他のキャラクタによる前記パフォーマンスを評価してもよい。 The evaluation of the performance based on the additional instruction action may be realized by an appropriate method. For example, only one type of action that is executed only in the case of favorable performance or the opposite case may be prepared as the additional instruction action. Alternatively, multiple types of additional instruction actions that are respectively associated with evaluation results such as OK and NG may be prepared. Furthermore, when multiple types of additional instruction actions are prepared, each additional instruction action may be treated as having the same evaluation, or the evaluation of each additional instruction action may be appropriately weighted. For example, in a mode in which the evaluation result functions as index information, when multiple types of additional instruction actions are prepared as the additional instruction actions, the instruction evaluation means may evaluate the performance by the other character by determining the type of the actual instruction action so that the type of the actual instruction action executed by each user as the additional instruction action functions as the index information.

ゲームとして、各種のゲームが適宜に提供されてよい。同様に、そのようなゲームでは、ゲームの種類に応じて複数のキャラクタによる各種のパフォーマンスが適宜に実行されてよい。例えば、サッカーゲーム、或いは野球ゲーム等のスポーツゲームにおけるゲームのプレイがパフォーマンスとして利用されてもよい。あるいは、音楽ゲームにおけるダンスや演奏等がパフォーマンスとして利用されてもよい。具体的には、例えば、本発明のゲームシステムの一態様において、前記ゲームとして、楽曲のリズムに合わせて前記プレイ行為の実行時期を案内するとともに、当該プレイ行為に伴い前記ユーザキャラクタが前記楽曲を演奏する演奏動作を実行する音楽ゲームが提供され、前記パフォーマンスとして、前記音楽ゲームでは前記複数のキャラクタの各キャラクタによる前記演奏動作が実行されてもよい。 As the game, various games may be provided as appropriate. Similarly, in such games, various performances may be performed by multiple characters as appropriate depending on the type of game. For example, game play in a sports game such as a soccer game or a baseball game may be used as a performance. Alternatively, dancing or playing in a music game may be used as a performance. Specifically, for example, in one aspect of the game system of the present invention, a music game is provided as the game in which the timing of the play action is announced in accordance with the rhythm of a piece of music, and the user character performs a performance action to play the piece of music in conjunction with the play action, and the performance in the music game may be the performance of each of the multiple characters.

他のキャラクタはユーザキャラクタであっても、コンピュータによって動作が制御されるノンプレイヤキャラクタ(いわゆるNPC)であってもよい。例えば、本発明のゲームシステムの一態様において、前記ゲームは、複数のユーザにそれぞれ対応する複数のユーザキャラクタを前記複数のキャラクタが含むようにプレイされ、前記指示評価手段は、前記複数のユーザキャラクタのうち前記ユーザキャラクタとは別のユーザキャラクタに対して前記付加行動が実行された場合に、当該別のユーザキャラクタが前記他のキャラクタとして機能するように、当該別のユーザキャラクタによる前記パフォーマンスを前記付加指示行為に基づいて評価してもよい。 The other character may be a user character or a non-player character (so-called NPC) whose action is controlled by a computer. For example, in one aspect of the game system of the present invention, the game is played such that the multiple characters include multiple user characters corresponding to multiple users, and the instruction evaluation means may evaluate the performance of a user character other than the user character based on the additional instruction action when the additional action is performed on one of the multiple user characters, such that the other user character functions as the other character.

一方、本発明のコンピュータプログラム(PG2)は、前記入力装置、及び前記表示装置に接続されるコンピュータ(41)を、上述のゲームシステムの各手段として機能させるように構成されたものである。 On the other hand, the computer program (PG2) of the present invention is configured to cause the input device and a computer (41) connected to the display device to function as each of the means of the game system described above.

また、本発明の制御方法は、各ユーザのプレイ行為を入力するための入力装置(SMA、SMB)、及び前記プレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタ(54C)を含む複数のキャラクタ(54)が表示されるゲーム画面(50)を表示する表示装置(47)に接続され、前記ゲーム画面を通じて前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステム(4)に組み込まれるコンピュータ(41)に、前記ユーザキャラクタから前記複数のキャラクタの他のキャラクタに対して前記パフォーマンスに付加されるように実行される付加行動を前記ユーザキャラクタに実行させるための付加指示行為が前記プレイ行為として実行された場合に、当該付加指示行為に基づいて前記他のキャラクタによる前記パフォーマンスを評価する指示評価手順と、前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する結果提供手順と、を実行させるものである。本発明のコンピュータプログラム、或いは制御方法を通じて、本発明のゲームシステムを実現することができる。 The control method of the present invention is to cause a computer (41) incorporated in a game system (4) that is connected to an input device (SMA, SMB) for inputting the play actions of each user and a display device (47) that displays a game screen (50) in which a plurality of characters (54) including at least one user character (54C) operated by each user through the play actions are displayed, and that provides a game including a performance performed by the plurality of characters through the game screen, to execute, when an additional instruction action is executed as the play action from the user character to another character of the plurality of characters so as to be added to the performance, an instruction evaluation step for evaluating the performance by the other character based on the additional instruction action, and a result providing step for providing each user with an evaluation result of the performance by the other character. The game system of the present invention can be realized through the computer program or control method of the present invention.

1 ゲームシステム
2 センターサーバ
4 HMD型のゲーム機(ゲームシステム)
41 制御ユニット(コンピュータ)
43 進行制御部(指示評価手段、結果提供手段)
47 ディスプレイ(表示装置)
50 ゲーム画面
54 キャラクタ画像(キャラクタ)
54B 第2キャラクタ画像(他のキャラクタ、別のユーザキャラクタ)
54C 第3キャラクタ画像(ユーザキャラクタ)
IR 視野範囲
SMA センサ(入力装置)
SMB センサ(入力装置)
1 Game system 2 Center server 4 HMD type game machine (game system)
41 Control unit (computer)
43 Progress control unit (instruction evaluation means, result providing means)
47 Display (display device)
50 Game screen 54 Character image (character)
54B Second character image (another character, another user character)
54C Third character image (user character)
IR field of view SMA sensor (input device)
SMB Sensor (Input device)

Claims (9)

各ユーザのプレイ行為を入力するための入力装置、及び前記プレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタを含む複数のキャラクタが表示されるゲーム画面を表示する表示装置に接続され、前記ゲーム画面を通じて前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムであって、
前記ユーザキャラクタから前記複数のキャラクタの他のキャラクタに対して前記パフォーマンスに付加されるように実行される付加行動を前記ユーザキャラクタに実行させるための付加指示行為が前記プレイ行為として実行された場合に、当該付加指示行為を評価要素として前記他のキャラクタによる前記パフォーマンスを評価する指示評価手段と、
前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する結果提供手段と、を備える、ゲームシステム。
A game system connected to an input device for inputting play actions of each user and a display device for displaying a game screen on which a plurality of characters including at least one user character operated by each user through the play actions are displayed, the game system providing a game including a performance performed by the plurality of characters through the game screen,
an instruction evaluation means for evaluating the performance by the other character using an additional instruction action as an evaluation element when an additional instruction action for causing the user character to perform an additional action that is executed from the user character to the other character of the plurality of characters so as to be added to the performance is executed as the play action;
A result providing means for providing each user with an evaluation result of the performance by the other characters.
前記指示評価手段は、前記ユーザキャラクタから前記他のキャラクタに対して実行されるユーザアクションと、当該ユーザアクションに対応する前記他のキャラクタによる対応アクションとによって前記ユーザキャラクタと前記他のキャラクタとの間に形成される連携状態の形成を条件に、当該連携状態において前記付加指示行為が実行された場合に、前記他のキャラクタによる前記パフォーマンスを評価する、請求項1に記載のゲームシステム。 The game system according to claim 1, wherein the instruction evaluation means evaluates the performance of the other character when the additional instruction action is performed in a linked state, on the condition that a linked state is formed between the user character and the other character by a user action performed by the user character on the other character and a corresponding action by the other character corresponding to the user action. 各ユーザのプレイ行為を入力するための入力装置、及び前記プレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタを含む複数のキャラクタが表示されるゲーム画面を表示する表示装置に接続され、前記ゲーム画面を通じて前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムであって、
前記ユーザキャラクタから前記複数のキャラクタの他のキャラクタに対して前記パフォーマンスに付加されるように実行される付加行動を前記ユーザキャラクタに実行させるための付加指示行為が前記プレイ行為として実行された場合に、当該付加指示行為に基づいて前記他のキャラクタによる前記パフォーマンスを評価する指示評価手段と、
前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する結果提供手段と、
を備え、
前記指示評価手段は、前記ユーザキャラクタから前記他のキャラクタに対して実行されるユーザアクションと、当該ユーザアクションに対応する前記他のキャラクタによる対応アクションとによって前記ユーザキャラクタと前記他のキャラクタとの間に形成される連携状態の形成を条件に、当該連携状態において前記付加指示行為が実行された場合に、前記他のキャラクタによる前記パフォーマンスを評価し、
前記連携状態は、前記ユーザキャラクタに設定される視野範囲に前記他のキャラクタを入れる動作が前記ユーザアクションとして、前記他のキャラクタに設定される視野範囲に前記ユーザキャラクタを入れる動作が前記対応アクションとして、それぞれ機能するように、前記ユーザキャラクタの視野範囲に含まれる前記他のキャラクタが当該他のキャラクタの視野範囲に前記ユーザキャラクタを入れた場合に形成される、ゲームシステム。
A game system connected to an input device for inputting play actions of each user and a display device for displaying a game screen on which a plurality of characters including at least one user character operated by each user through the play actions are displayed, the game system providing a game including a performance performed by the plurality of characters through the game screen,
an instruction evaluation means for evaluating the performance by the other character based on an additional instruction action when an additional instruction action for causing the user character to perform an additional action that is executed from the user character to the other character of the plurality of characters so as to be added to the performance is executed as the play action;
a result providing means for providing each user with a result of evaluation of the performance by the other characters;
Equipped with
the instruction evaluation means, on the condition that a cooperative state is formed between the user character and the other character by a user action executed from the user character to the other character and a corresponding action by the other character corresponding to the user action, evaluates the performance by the other character when the additional instruction action is executed in the cooperative state;
A game system in which the coordinated state is formed when another character included in the field of view of the user character enters the field of view of the other character, such that the action of entering the other character into the field of view set for the user character functions as the user action, and the action of entering the user character into the field of view set for the other character functions as the corresponding action.
前記指示評価手段は、前記パフォーマンスの後に当該パフォーマンスを評価するための評価期間が設けられる場合に、当該評価期間において前記連携状態で前記付加指示行為が実行されたときに、前記他のキャラクタによる前記パフォーマンスを評価する、請求項2又は3に記載のゲームシステム。 The game system according to claim 2 or 3, wherein the instruction evaluation means evaluates the performance by the other character when the additional instruction action is executed in the linked state during an evaluation period in the case where an evaluation period for evaluating the performance is provided after the performance. 前記結果提供手段は、前記ユーザキャラクタが過去のプレイにおいて前記パフォーマンスとして実行した動作と同様の動作を実行するように前記パフォーマンスにおいて前記他のキャラクタの動作が制御され、前記ユーザキャラクタの過去のプレイにおける複数の動作から前記他のキャラクタが実際に実行すべき動作を選択するための選択機会が提供される場合に、当該選択機会において各動作を選択するための指標となる指標情報として機能するように前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する、請求項1~4のいずれか一項に記載のゲームシステム。 The game system according to any one of claims 1 to 4, wherein the result providing means provides each user with an evaluation result of the performance by the other character to function as index information serving as an index for selecting each action in a selection opportunity when the actions of the other character in the performance are controlled so as to perform the same action as the action performed by the user character in the performance in a past play, and a selection opportunity is provided for selecting an action that the other character should actually perform from a plurality of actions in the past play of the user character. 前記指示評価手段は、前記付加指示行為として複数種類の付加指示行為が用意される場合に、各ユーザによって実行された付加指示行為としての実際の指示行為の種類が前記指標情報として機能するように、前記実際の指示行為の種類を判別することにより前記他のキャラクタによる前記パフォーマンスを評価する、請求項5に記載のゲームシステム。 The game system according to claim 5, wherein the instruction evaluation means, when multiple types of additional instruction actions are prepared as the additional instruction actions, evaluates the performance of the other characters by determining the type of the actual instruction action performed by each user as the additional instruction action so that the type of the actual instruction action functions as the index information. 前記ゲームとして、楽曲のリズムに合わせて前記プレイ行為の実行時期を案内するとともに、当該プレイ行為に伴い前記ユーザキャラクタが前記楽曲を演奏する演奏動作を実行する音楽ゲームが提供され、
前記パフォーマンスとして、前記音楽ゲームでは前記複数のキャラクタの各キャラクタによる前記演奏動作が実行される、請求項1~6のいずれか一項に記載のゲームシステム。
As the game, a music game is provided in which the timing of the play action is guided in accordance with the rhythm of a piece of music, and the user character performs a performance action of playing the piece of music in association with the play action;
The game system according to any one of claims 1 to 6, wherein the performance in the music game is performed by each of the plurality of characters performing the musical performance action.
前記入力装置、及び前記表示装置に接続されるコンピュータを、請求項1~のいずれか一項に記載のゲームシステムの各手段として機能させるように構成されたコンピュータプログラム。 A computer program configured to cause a computer connected to said input device and said display device to function as each of the means of the game system according to any one of claims 1 to 7 . 各ユーザのプレイ行為を入力するための入力装置、及び前記プレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタを含む複数のキャラクタが表示されるゲーム画面を表示する表示装置に接続され、前記ゲーム画面を通じて前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムに組み込まれるコンピュータに、
前記ユーザキャラクタから前記複数のキャラクタの他のキャラクタに対して前記パフォーマンスに付加されるように実行される付加行動を前記ユーザキャラクタに実行させるための付加指示行為が前記プレイ行為として実行された場合に、当該付加指示行為を評価要素として前記他のキャラクタによる前記パフォーマンスを評価する指示評価手順と、
前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する結果提供手順と、
を実行させる、制御方法。
a computer that is incorporated in a game system that is connected to an input device for inputting play actions of each user and a display device that displays a game screen on which a plurality of characters including at least one user character operated by each user through the play actions are displayed, the computer providing a game including a performance performed by the plurality of characters through the game screen;
an instruction evaluation step in which, when an additional instruction action is executed as the play action by the user character to cause the user character to execute an additional action that is executed from the user character to another character of the plurality of characters so as to be added to the performance, the additional instruction action is used as an evaluation element to evaluate the performance by the other character;
a result providing step of providing each user with a result of evaluation of the performance by the other characters;
A control method for executing the above.
JP2021038638A 2021-03-10 2021-03-10 Game system, computer program used therein, and control method Active JP7659885B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021038638A JP7659885B2 (en) 2021-03-10 2021-03-10 Game system, computer program used therein, and control method
PCT/JP2022/009922 WO2022191170A1 (en) 2021-03-10 2022-03-08 Game system, computer program employed in same, and control method
KR1020237029469A KR102821624B1 (en) 2021-03-10 2022-03-08 Game system, computer program used therein and control method
CN202280019694.6A CN116997395A (en) 2021-03-10 2022-03-08 Game system, computer program used in the game system, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021038638A JP7659885B2 (en) 2021-03-10 2021-03-10 Game system, computer program used therein, and control method

Publications (2)

Publication Number Publication Date
JP2022138642A JP2022138642A (en) 2022-09-26
JP7659885B2 true JP7659885B2 (en) 2025-04-10

Family

ID=83228032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021038638A Active JP7659885B2 (en) 2021-03-10 2021-03-10 Game system, computer program used therein, and control method

Country Status (4)

Country Link
JP (1) JP7659885B2 (en)
KR (1) KR102821624B1 (en)
CN (1) CN116997395A (en)
WO (1) WO2022191170A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009297221A (en) 2008-06-12 2009-12-24 Nintendo Co Ltd Game program and game apparatus
JP2014054304A (en) 2012-09-11 2014-03-27 Sony Computer Entertainment Inc Game device, game server, game control method, and game control program
JP2016016146A (en) 2014-07-09 2016-02-01 株式会社カプコン Game program and game device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2206539A1 (en) * 2007-06-14 2010-07-14 Harmonix Music Systems, Inc. Systems and methods for simulating a rock band experience
JP6832061B2 (en) * 2015-12-29 2021-02-24 株式会社バンダイナムコエンターテインメント Game equipment and programs
JP2019036239A (en) 2017-08-21 2019-03-07 株式会社コロプラ Information processing method, information processing program, information processing system, and information processing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009297221A (en) 2008-06-12 2009-12-24 Nintendo Co Ltd Game program and game apparatus
JP2014054304A (en) 2012-09-11 2014-03-27 Sony Computer Entertainment Inc Game device, game server, game control method, and game control program
JP2016016146A (en) 2014-07-09 2016-02-01 株式会社カプコン Game program and game device

Also Published As

Publication number Publication date
WO2022191170A1 (en) 2022-09-15
JP2022138642A (en) 2022-09-26
KR102821624B1 (en) 2025-06-18
CN116997395A (en) 2023-11-03
KR20230136648A (en) 2023-09-26

Similar Documents

Publication Publication Date Title
TW202202212A (en) Method of haptic response and interacting
JP2025031760A (en) Game system, computer program used therein, and control method
JP7317364B2 (en) Game system, computer program used therefor, and control method
JP7154610B2 (en) GAME VIEWING SYSTEM, COMPUTER PROGRAM FOR GAME VIEWING SYSTEM, AND GAME VIEWING SYSTEM CONTROL METHOD
JP6547032B1 (en) Game program, method, and terminal device
WO2025071673A1 (en) Automatic creation and recommendation of video game fragments
JP2024019265A (en) Game system, computer program used therefor, and control method
JP7659885B2 (en) Game system, computer program used therein, and control method
O’Donovan et al. Rabbit run: Gaze and voice based game interaction
JP7636505B2 (en) Programs and delivery systems
WO2025090238A1 (en) Annotating player or spectator sentiment for video game fragment generation
US12220644B2 (en) Watching system, computer program for watching system, and control method for watching system
CN119497644A (en) Report and crowdsource review of in-game activity for user appropriateness
WO2022137375A1 (en) Method, computer-readable medium, and information processing device
US20250128158A1 (en) Method and system for creating and sharing video game annotations
JP7093590B1 (en) Game system, computer program and control method
JP7174456B1 (en) Game system, computer program used therefor, and control method
JP7237361B2 (en) GAME VIEWING SYSTEM, COMPUTER PROGRAM FOR GAME VIEWING SYSTEM, AND GAME VIEWING SYSTEM CONTROL METHOD
WO2022137377A1 (en) Information processing method, computer-readable medium, computer system, and information processing device
Champlin Video Game Play and Apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250325

R150 Certificate of patent or registration of utility model

Ref document number: 7659885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150