JP2010029375A - Game system, program, and information storage medium - Google Patents
Game system, program, and information storage medium Download PDFInfo
- Publication number
- JP2010029375A JP2010029375A JP2008193668A JP2008193668A JP2010029375A JP 2010029375 A JP2010029375 A JP 2010029375A JP 2008193668 A JP2008193668 A JP 2008193668A JP 2008193668 A JP2008193668 A JP 2008193668A JP 2010029375 A JP2010029375 A JP 2010029375A
- Authority
- JP
- Japan
- Prior art keywords
- character
- sound
- attack
- program
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
【課題】 キャラクタの攻撃による音のバリエーションを増やすことが可能なプログラム、情報記憶媒体及びゲームシステムを提供すること。
【解決手段】 複数のキャラクタが互いに攻撃動作を行うゲームのためのプログラムであって、キャラクタに複数種類の攻撃動作を行わせる動作演算を行う動作演算部と、一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたか否かを判断するヒット判断部と、前記ヒット判断部によってヒットしたと判断された場合に、前記一方のキャラクタの攻撃動作に基づいて、前記他方のキャラクタを構成する複数のパーツオブジェクトのうち、少なくとも1つのパーツオブジェクトを特定するパーツ特定部と、前記特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を出力するための処理を行う音処理部としてコンピュータを機能させることを特徴とする。
【選択図】図12PROBLEM TO BE SOLVED: To provide a program, an information storage medium, and a game system capable of increasing sound variations caused by character attacks.
A program for a game in which a plurality of characters perform attacking actions with each other, a motion calculating section for performing a motion calculation for causing the characters to perform a plurality of types of attacking actions, and an attack by the attacking action of one character. A hit determination unit that determines whether or not the other character has been hit, and a plurality of characters that constitute the other character based on the attack action of the one character when it is determined that the hit determination unit has hit A part specifying unit that specifies at least one part object, and a sound processing unit that performs processing for outputting first and second sounds corresponding to the specified at least one part object It is characterized by making a computer function.
[Selection] Figure 12
Description
本発明は、ゲームシステム、プログラム、及び情報記憶媒体に関する。 The present invention relates to a game system, a program, and an information storage medium.
従来から、2つのキャラクタの攻撃動作を画面上で行わせるゲーム機が知られている。このようなゲーム機では、攻撃動作に関する音声を操作手段の操作に応じて再生するものがある(例えば特許文献1)。
しかしながら、従来のゲーム機では、攻撃動作に関する音声のバリエーションがなく、また音声のバリエーションを増やそうとすると音声データの記憶領域が増大するといった問題点があった。 However, the conventional game machine has a problem that there is no voice variation related to the attacking action, and if the voice variation is increased, the storage area of the voice data is increased.
本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、キャラクタの攻撃による音のバリエーションを増やすことが可能なプログラム、情報記憶媒体及びゲームシステムを提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a program, an information storage medium, and a game system that can increase variations in sound due to character attacks. It is in.
(1)本発明は、複数のキャラクタが互いに攻撃動作を行うゲームのためのプログラムであって、
キャラクタに複数種類の攻撃動作を行わせる動作演算を行う動作演算部と、
一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたか否かを判断するヒット判断部と、
前記ヒット判断部によってヒットしたと判断された場合に、前記一方のキャラクタの攻撃動作に基づいて、前記他方のキャラクタを構成する複数のパーツオブジェクトのうち、少なくとも1つのパーツオブジェクトを特定するパーツ特定部と、
前記特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を出力するための処理を行う音処理部としてコンピュータを機能させることを特徴とする。
(1) The present invention is a program for a game in which a plurality of characters attack each other,
A motion calculation unit for performing a motion calculation to cause a character to perform a plurality of types of attack motions
A hit determination unit that determines whether an attack by the attack action of one character hits the other character;
A part identifying unit that identifies at least one part object among a plurality of part objects constituting the other character based on the attack action of the one character when it is determined by the hit determining unit When,
A computer is caused to function as a sound processing unit that performs processing for outputting first and second sounds corresponding to the specified at least one part object.
また本発明は、上記各部を含むゲームシステムに関係する。また本発明はコンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶した情報記憶媒体に関係する。 The present invention also relates to a game system including the above-described units. The present invention is also a computer-readable information storage medium, and relates to an information storage medium storing a program that causes a computer to function as each of the above-described units.
本発明において、特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を出力するとは、特定された1つのパーツオブジェクトに対応する第1、第2の音を出力する場合と、特定された2つのパーツオブジェクトのそれぞれに対応する第1、第2の音を出力する場合とを含む。 In the present invention, outputting the first and second sounds corresponding to the specified at least one part object means outputting the first and second sounds corresponding to the specified one part object; And outputting the first and second sounds corresponding to each of the two specified part objects.
本発明によれば、一方のキャラクタの攻撃動作に基づいて、他方のキャラクタを構成する複数のパーツオブジェクトのうち、2つのパーツオブジェクトを特定し、特定された2つのパーツオブジェクトのそれぞれに対応する第1、第2の音を順次出力することで、一方のキャラクタの攻撃動作に応じて特定されるパーツオブジェクトに対応する2つの音を出力することができる。 According to the present invention, based on the attacking action of one character, two part objects are identified from among the plurality of part objects constituting the other character, and the second part object corresponding to each of the identified two part objects is identified. By sequentially outputting the first and second sounds, it is possible to output two sounds corresponding to the part object specified according to the attack action of one character.
(2)また本発明に係るプログラム及び情報記憶媒体では、
前記音処理部は、
前記一方のキャラクタの攻撃動作又は前記キャラクタに設定されたパラメータに基づいて、前記第1、第2の音の音量、音程、出力順序及び合成比率の少なくとも1つを調整するようにしてもよい。
(2) In the program and information storage medium according to the present invention,
The sound processing unit
You may make it adjust at least 1 of the volume of the said 1st, 2nd sound, a pitch, an output order, and a synthetic | combination ratio based on the attack action of said one character, or the parameter set to the said character.
本発明によれば、一方のキャラクタの攻撃動作やキャラクタのパラメータに応じて第1、第2の音を変化させることができる。 According to the present invention, the first and second sounds can be changed according to the attacking action of one character and the parameters of the character.
(3)また本発明に係るプログラム及び情報記憶媒体では、
前記パーツ特定部は、
前記一方のキャラクタの攻撃動作と前記他方のキャラクタの姿勢とに基づいて、前記少なくとも1つのパーツオブジェクトを特定するようにしてもよい。
(3) In the program and information storage medium according to the present invention,
The parts identification part is
The at least one part object may be specified based on the attack action of the one character and the posture of the other character.
本発明によれば、一方のキャラクタの攻撃動作と他方のキャラクタの姿勢に応じて特定されるパーツオブジェクトに対応する2つの音を出力することができる。 According to the present invention, it is possible to output two sounds corresponding to a part object specified according to the attack action of one character and the posture of the other character.
(4)また本発明に係るプログラム及び情報記憶媒体では、
前記パーツ特定部は、
前記一方のキャラクタの攻撃動作に基づいて、前記他方のキャラクタを構成する複数のパーツオブジェクトのうち、2つのパーツオブジェクトを特定し、
前記音処理部は、
前記特定された2つのパーツオブジェクトのそれぞれに対応する第1、第2の音を順次出力するための処理を行うようにしてもよい。
(4) In the program and information storage medium according to the present invention,
The parts identification part is
Based on the attacking action of the one character, specify two part objects among a plurality of part objects constituting the other character,
The sound processing unit
You may make it perform the process for outputting the 1st, 2nd sound corresponding to each of the specified two part objects sequentially.
本発明によれば、一方のキャラクタの攻撃動作に応じて特定される2つのパーツオブジェクトのそれぞれに対応する2つの音を出力することができる。 According to the present invention, it is possible to output two sounds corresponding to each of two part objects specified according to the attack action of one character.
(5)また本発明に係るプログラム及び情報記憶媒体では、
前記音処理部は、
前記一方のキャラクタの攻撃動作又は前記キャラクタに設定されたパラメータに基づいて、前記第1の音を出力してから前記第2の音を出力するまでの時間を調整するようにしてもよい。
(5) In the program and information storage medium according to the present invention,
The sound processing unit
The time from when the first sound is output until the second sound is output may be adjusted based on the attack action of the one character or the parameters set for the character.
本発明によれば、一方のキャラクタの攻撃動作やキャラクタのパラメータに応じて第1の音と第2の音とのずれを変化させることができる。 According to the present invention, it is possible to change the difference between the first sound and the second sound in accordance with the attack action of one character and the parameters of the character.
(6)また本発明に係るプログラム及び情報記憶媒体では、
前記音処理部は、
前記第1の音を出力してから前記第2の音を出力するまでの間に、前記一方のキャラクタの攻撃動作に対応する第3の音を出力するための処理を行うようにしてもよい。
(6) In the program and information storage medium according to the present invention,
The sound processing unit
Between the time when the first sound is output and the time when the second sound is output, a process for outputting a third sound corresponding to the attack action of the one character may be performed. .
本発明によれば、一方のキャラクタの攻撃動作に対応する音を出力することができる。 According to the present invention, it is possible to output a sound corresponding to the attack action of one character.
(7)また本発明に係るプログラム及び情報記憶媒体では、
前記音処理部は、
前記第1、第2の音を出力する前又は出力した後に、前記一方のキャラクタの攻撃動作に対応する第3の音を出力するための処理を行うようにしてもよい。
(7) In the program and information storage medium according to the present invention,
The sound processing unit
A process for outputting a third sound corresponding to the attack action of the one character may be performed before or after outputting the first and second sounds.
本発明によれば、一方のキャラクタの攻撃動作に対応する音を出力することができる。 According to the present invention, it is possible to output a sound corresponding to the attack action of one character.
(8)また本発明に係るプログラム及び情報記憶媒体では、
前記音処理部は、
前記一方のキャラクタの攻撃動作又は前記キャラクタに設定されたパラメータに基づいて、前記第3の音の長さ、音量及び音程の少なくとも1つを調整するようにしてもよい。
(8) In the program and information storage medium according to the present invention,
The sound processing unit
At least one of the length, volume and pitch of the third sound may be adjusted based on the attack action of the one character or the parameters set for the character.
本発明によれば、一方のキャラクタの攻撃動作やキャラクタのパラメータに応じて第3の音を変化させることができる。 According to the present invention, it is possible to change the third sound according to the attack action of one character or the character parameter.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.構成
図1に本実施形態のゲームシステムの機能ブロック図の一例を示す。なお本実施形態のゲームシステムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of the game system of the present embodiment. Note that the game system of this embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.
操作部160は、プレーヤがオブジェクト(キャラクタ、移動体)の操作データを入力するためのものであり、その機能は、キーボート、マウス、レバー、ボタン、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。
The
記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部170は、ワーク領域として使用される主記憶部172と、最終的な表示画像等が記憶されるフレームバッファ174と、オブジェクトのモデルデータが記憶されるオブジェクトデータ記憶部176と、音データが記憶される音データ記憶部177と、各オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部178と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ179とを含む。なお、これらの一部を省略する構成としてもよい。
The
特に本実施形態のオブジェクトデータ記憶部176は、キャラクタを構成するパーツオブジェクトのモデルデータ及び属性データを記憶する。
In particular, the object
また本実施形態の音データ記憶部177は、キャラクタを構成するパーツオブジェクトに対応する第1、第2の音と、キャラクタが持つ武器に対応する第3の音の音データを記憶する。
In addition, the sound
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。
The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The
表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。
The
音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。
The
通信部196は外部(例えば他のゲームシステム、サーバ)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
The
なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信してゲームシステムを機能させる場合も本発明の範囲内に含む。
Note that a program or data for causing a computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server is received via the network, and the received program or data is received by the
処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここで、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ヒットチェック処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。
The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the
特に、処理部100は、オブジェクト空間設定部110、移動・動作処理部112(動作演算部)、ヒット判断部114、パーツ特定部116、音処理部117、仮想カメラ制御部118、描画部120を含む。
In particular, the
オブジェクト空間設定部110は、キャラクタ、移動体、建物、球場、車、樹木、柱、壁、マップなどの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義であり、例えば、ワールド座標系でのX、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。 The object space setting unit 110 includes various objects representing objects such as characters, moving objects, buildings, stadiums, cars, trees, pillars, walls, and maps (objects composed of primitives such as polygons, free-form surfaces, or subdivision surfaces). ) Is set in the object space. For example, the position and rotation angle (synonymous with the direction and direction of the object in the world coordinate system, for example, rotation when rotating clockwise when viewed from the positive direction of each axis of the X, Y, and Z axes in the world coordinate system. The angle is determined, and the object is arranged at the position (X, Y, Z) at the rotation angle (rotation angle about the X, Y, Z axis).
移動・動作処理部112は、オブジェクト(キャラクタ、移動体等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)、物理法則などに基づいて、オブジェクトをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。
The movement /
特に本実施形態の移動・動作処理部112(動作演算部)は、操作部160からの操作データに基づいて、キャラクタに複数種類の攻撃動作を行わせたり、キャラクタに特定の姿勢をとらせたりする動作演算を行う。なお前記攻撃動作は、武器を用いた攻撃動作であってもよい。
In particular, the movement / motion processing unit 112 (motion calculation unit) of the present embodiment causes the character to perform a plurality of types of attack motions based on the operation data from the
ヒット判断部114は、移動・動作処理部112による演算結果に基づいて、一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたか否かを判断する。
Based on the calculation result by the movement /
パーツ特定部116は、ヒット判断部114によってヒットしたと判断された場合に、移動・動作処理部112で得られた前記一方のキャラクタの攻撃動作(例えば、攻撃方向)に基づいて、他方のキャラクタを構成する複数のパーツオブジェクトのうち、少なくとも1つパーツオブジェクトを特定する処理を行う。
When the hit
またパーツ特定部116は、移動・動作処理部112で得られた前記一方のキャラクタの攻撃動作と前記他方のキャラクタの姿勢とに基づいて、前記少なくとも1つのパーツオブジェクトを特定するようにしてもよい。
The
またパーツ特定部116は、移動・動作処理部112で得られた前記一方のキャラクタの攻撃動作に基づいて、他方のキャラクタを構成する複数のパーツオブジェクトのうち、2つのパーツオブジェクトを特定する処理を行うようにしてもよい。
Further, the
音処理部117は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。
The
特に本実施形態の音処理部117は、パーツ特定部116によって特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を、音出力部192に出力する処理を行う。すなわち、パーツ特定部116によって特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を特定するための音特定データを求め、求めた音特定データに基づいて、第1、第2の音の音データ(波形データ)を音データ記憶部177から読み出し、読み出した第1、第2の音の音データを合成(ミキシング)することによってゲーム音を生成し、音出力部192に出力する処理を行う。
In particular, the
また音処理部117は、前記一方のキャラクタの攻撃動作(例えば、攻撃方向、攻撃力、攻撃動作に用いられた武器の種類)又は前記キャラクタに設定されたパラメータ(例えば、キャラクタの種類、体力等を示すパラメータ)に基づいて、前記第1、第2の音の音量、音程、出力順序及び合成比率の少なくとも1つを調整するようにしてもよい。すなわち、攻撃動作やパラメータに基づいて、第1、第2の音の音量を調整するための音量データ、第1、第2の音の音程を調整するための音程データ、第1、第2の音の出力順序を調整するための出力順序データ、第1、第2の音の合成比率(第1、第2の音を合成する際の音の長さの比率、或いは第1、第2の音を合成する際の音量の比率)を調整するための合成比率データを求め、求めた音量データ、音程データ、出力順序データ、合成比率データに基づき第1、第2の音の音データを調整してゲーム音を生成するようにしてもよい。
Further, the
また音処理部117は、パーツ特定部116によって特定された2つのパーツオブジェクトのそれぞれに対応する第1、第2の音を、音出力部192に順次出力する処理を行うようにしてもよい。すなわち、読み出した第1、第2の音の音データの再生開始タイミングをずらして合成することによりゲーム音を生成するようにしてもよい。
In addition, the
また音処理部117は、前記一方のキャラクタの攻撃動作(例えば、攻撃方向)又は前記キャラクタに設定されたパラメータ(例えば、キャラクタの種類、体力等を示すパラメータ)に基づいて、前記第1の音を出力してから前記第2の音を出力するまでの時間を調整するようにしてもよい。すなわち、前記攻撃動作やパラメータに基づき第1の音を出力してから前記第2の音を出力するまでの時間を調整するためのタイミングデータを求め、求めたタイミングデータに基づき第1、第2の音の音データの再生開始タイミングをずらして合成するようにしてもよい。
The
また音処理部117は、前記第1の音を出力してから前記第2の音を出力するまでの間に、一方のキャラクタの攻撃動作(例えば、攻撃動作に用いられた武器)に対応する第3の音を、音出力部192に出力するようにしてもよい。すなわち上記攻撃動作に対応する第3の音を特定するための音特定データを求め、求めた音特定データに基づいて、第3の音の音データを音データ記憶部177から読み出し、読み出した第3の音の音データと、読み出した第1、第2の音の音データの再生順序が、第1の音、第3の音、第2の音の順になるように、第1、第2、第3の音の音データを合成するようにしてもよい。
The
また音処理部117は、前記第1、第2の音を出力する前又は出力した後に、前記一方のキャラクタの攻撃動作(例えば、攻撃動作に用いられた武器)に対応する第3の音を、音出力部192に出力するようにしてもよい。すなわち上記攻撃動作に対応する第3の音を特定するための音特定データを求め、求めた音特定データに基づいて、第3の音の音データを音データ記憶部177から読み出し、読み出した第3の音の音データと、第1、第2の音の音データの再生順序が、第3の音、第1、第2の音、或いは第1、第2の音、第3の音の順になるように、第1、第2、第3の音の音データを合成するようにしてもよい。
The
また音処理部117は、前記一方のキャラクタの攻撃動作(例えば、攻撃方向、攻撃力)又は前記キャラクタに設定されたパラメータ(例えば、キャラクタの種類、体力等を示すパラメータ)に基づいて、前記第3の音の長さ、音量及び音程の少なくとも1つを調整する。すなわち、攻撃動作やパラメータに基づいて、第3の音の長さを調整するための再生時間データ、第3の音の音量を調整するための音量データ、第3の音の音程を調整するための音程データを求め、求めた再生時間データ、音量データ、音程データに基づき第3の音の音データを調整してゲーム音を生成するようにしてもよい。
The
仮想カメラ制御部118は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、操作部160によりプレーヤが入力した操作データ、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータ、プログラム(移動・動作アルゴリズム)等に基づいて、ワールド座標系における仮想カメラの位置(X、Y、Z)、回転角度(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)、速度、或いは加速度を制御する処理を行う。要するに、視点位置、視線方向、画角を制御する処理を行う。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。
The virtual
描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクトの各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。
The
頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、射影変換(透視変換、投影変換)、ビューポート変換(スクリーン座標変換)、光源計算等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。ジオメトリ処理後のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。
In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, projective transformation (perspective transformation) , Projection conversion), viewport conversion (screen coordinate conversion), light source calculation, and other geometric processing are performed, and based on the processing results, the vertex data given to the vertex group constituting the object is changed (updated, adjusted). To do. Object data after the geometry processing (position coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) is stored in the object
そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。 Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed.
ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。 In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to a drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.
そして描画部120は、オブジェクトを描画する際に、テクスチャマッピング、隠面消去処理等を行う。
The
テクスチャマッピングは、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部178からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。
Texture mapping is a process for mapping a texture (texel value) stored in the
隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ179(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ179に格納されるZ値を参照する。そして参照されたZバッファ179のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ179のZ値を新たなZ値に更新する。
As the hidden surface removal processing, hidden surface removal processing by a Z buffer method (depth comparison method, Z test) using a Z buffer 179 (depth buffer) in which a Z value (depth information) of a drawing pixel is stored may be performed. it can. That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the
なお、本実施形態のゲームシステムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用の装置にしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備える装置にしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。 Note that the game system of the present embodiment may be a device dedicated to the single player mode that can be played by only one player, or may be a device that also has a multiplayer mode that can be played by a plurality of players. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).
2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。
2. Next, the method of this embodiment will be described with reference to the drawings.
2−1.ゲーム概要
図2に、本実施形態のゲーム画像の一例を示す。
2-1. Game Overview FIG. 2 shows an example of a game image of the present embodiment.
本実施形態では、操作部からの操作データに基づき複数のキャラクタに攻撃動作を行わせる。そして、複数のキャラクタを含むオブジェクト空間を仮想カメラから見た画像が生成され、ゲーム画像GIとして表示される。 In the present embodiment, a plurality of characters are caused to perform an attack action based on operation data from the operation unit. And the image which looked at the object space containing a some character from the virtual camera is produced | generated, and it displays as game image GI.
プレーヤは、操作部を操作して操作対象となるキャラクタ(図3に示すキャラクタA又はキャラクタB)に武器SDを用いた複数種類の攻撃動作を行わせることができる。例えば、攻撃方向の異なる複数の攻撃動作として、剣SDを上から下へ振り下ろす「縦斬り」、剣SDを右から左へ或いは剣SDを左から右へ振る「横斬り」、剣SDを前方へ突き出す「突き」等の攻撃動作を行わせることができる。またプレーヤは、操作部を操作してキャラクタに「立ち」、「しゃがみ」、「ジャンプ」等の姿勢をとらせることができる。なおプレーヤは、複数種類の武器(例えば西洋剣、日本刀、竹刀)からキャラクタに持たせる武器SDを選択することができる。 The player can operate the operation unit to cause the character to be operated (character A or character B shown in FIG. 3) to perform a plurality of types of attack operations using the weapon SD. For example, as a plurality of attack operations with different attack directions, “vertical slashing” in which the sword SD is swung down from top to bottom, “horizontal slashing” in which the sword SD is swung from right to left or sword SD from left to right, It is possible to perform an attacking action such as a “protrusion” projecting forward. Further, the player can operate the operation unit to cause the character to take a posture such as “standing”, “squatting”, and “jumping”. Note that the player can select a weapon SD to be given to the character from a plurality of types of weapons (for example, Western sword, Japanese sword, bamboo sword).
2−2.第1、第2のパーツオブジェクトの特定
図3に示すように、本実施形態のキャラクタ(ここでは、図2に示すキャラクタAの例)は、それぞれ頭、腕、胴、足などを表す複数のパーツオブジェクトPOにより構成される。そして本実施形態では、一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたと判断した場合に、一方のキャラクタの攻撃動作の種類(攻撃方向)と他方のキャラクタ(攻撃を受けるキャラクタ)の姿勢とに基づいて、他方のキャラクタを構成する複数のパーツオブジェクトPOのうち第1、第2のパーツオブジェクト(2つのパーツオブジェクト)を特定する。
2-2. Identification of First and Second Part Objects As shown in FIG. 3, the character of the present embodiment (here, the example of the character A shown in FIG. 2) has a plurality of parts representing the head, arms, torso, legs, etc. It is composed of a part object PO. In this embodiment, when it is determined that the attack by the attack action of one character hits the other character, the type of attack action (attack direction) of one character and the other character (character subjected to attack) Based on the posture, the first and second part objects (two part objects) are specified among the plurality of part objects PO constituting the other character.
図4は、パーツオブジェクトを特定する際に参照するテーブルの一例である。 FIG. 4 is an example of a table referred to when specifying a part object.
本実施形態では、図4に示すパーツ特定テーブル200を参照して、一方のキャラクタの攻撃方向210と他方のキャラクタの姿勢220に対応する他方のキャラクタの第1のパーツ230及び第2のパーツ240を特定する。
In the present embodiment, referring to the part identification table 200 shown in FIG. 4, the
ここで、第1のパーツ230には、一方のキャラクタが武器を用いた攻撃動作を他方のキャラクタに対して行った場合の、当該武器が最初に接触する位置にあるパーツオブジェクトが規定され、第2のパーツ240には、当該武器が他方のキャラクタの体から抜ける位置にあるパーツオブジェクトが規定されている。
Here, in the
例えば、一方のキャラクタの攻撃行動の攻撃方向210が「縦斬り」であり、他方のキャラクタ(ここではキャラクタAの例)の姿勢220が「立ち」である場合には、当該攻撃動作による武器の移動軌跡は、図5(A)に示すようになるため、他方のキャラクタを構成する複数のパーツオブジェクトのうち、武器が最初に接触する位置にある「頭」のパーツオブジェクトが第1のパーツ230として規定され、武器が抜ける位置にある「右足」のパーツオブジェクトが第2のパーツ240として規定されている。
For example, when the attack direction 210 of one character's attack action is “vertical slash” and the
また、攻撃方向210が「右から左への横切り」であり、姿勢220が「立ち」である場合には、当該攻撃動作による武器の移動軌跡は、図5(B)に示すようになるため、武器が最初に接触する位置にある「左胴」のパーツオブジェクトが第1のパーツ230として規定され、武器が抜ける位置にある「右胴」のパーツオブジェクトが第2のパーツ240として規定されている。
Further, when the attack direction 210 is “crossing from right to left” and the
また、攻撃方向210が「右から左への横切り」であり、姿勢220が「しゃがみ」である場合には、当該攻撃動作による武器の移動軌跡は、図5(C)に示すようになるため、武器が最初に接触する位置にある「左腕」のパーツオブジェクトが第1のパーツ230として規定され、武器が抜ける位置にある「右腕」のパーツオブジェクトが第2のパーツ240として規定されている。
When the attack direction 210 is “crossing from right to left” and the
このように本実施形態によれば、一方のキャラクタの攻撃方向と他方のキャラクタの姿勢に対応付けて、武器が接触する位置にある第1のパーツオブジェクトと武器が体から抜ける位置にある第2のパーツオブジェクトを予め規定しておくことで、武器の移動軌跡と各パーツオブジェクトとのヒットチェック処理をその都度行うことなく、攻撃動作と姿勢に応じた前記第1、第2のパーツオブジェクトを簡単な処理で特定することができる。 As described above, according to the present embodiment, the first part object at the position where the weapon comes in contact with the attack direction of the one character and the posture of the other character and the second position at which the weapon comes out of the body. By pre-defining the parts object, the first and second part objects corresponding to the attack action and posture can be simplified without performing the hit check process between the weapon movement trajectory and each part object each time. Can be identified by simple processing.
2−3.第1、第2の音の特定
図6、図7は、第1、第2の音を特定する際に参照するテーブルの一例である。
2-3. Identification of First and Second Sounds FIGS. 6 and 7 are examples of tables that are referred to when identifying the first and second sounds.
本実施形態では、特定された第1、第2のパーツオブジェクトのそれぞれに対応する第1、第2の音を特定して順次出力する。 In the present embodiment, the first and second sounds corresponding to the specified first and second part objects are specified and sequentially output.
図6に示す素材特定テーブル300は、各キャラクタ310の複数のパーツ320のそれぞれに対応する素材330を規定する。例えば、鎧や兜を表す(鎧や兜を着けた)パーツオブジェクトについては素材330として「金属」が規定され、布地を表すパーツオブジェクトについては素材として「布」が規定され、素肌を表すパーツオブジェクトについては素材として「素肌」が規定され、甲羅を表すパーツオブジェクトについては素材として「甲羅」が規定されている。
The material specifying table 300 shown in FIG. 6 defines a material 330 corresponding to each of the plurality of
図7に示す音特定テーブル400は、パーツオブジェクトの各素材410に対応する第1、第2の音を特定するための第1、第2の音データ420、430を規定する。ここで、第1の音データ420には、武器が第1のパーツオブジェクトに接触するときに発生する音であって、当該パーツオブジェクトの素材に応じた音が規定され、第2の音データ430には、武器が第2のパーツオブジェクトから抜けるときに発生する音であって、当該パーツオブジェクトの素材に応じた音が規定されている。
The sound specification table 400 shown in FIG. 7 defines first and
本実施形態では、図6に示す素材特定テーブル300を参照して、第1のパーツオブジェクト320に対応する素材300を特定し、次に図7に示す音特定テーブル400を参照して、特定された素材410に対応する第1の音データ420を特定する。同様に図6に示す素材特定テーブル300を参照して、第2のパーツオブジェクト320に対応する素材300を特定し、次に図7に示す音特定テーブル400を参照して、特定された素材410に対応する第2の音データ430を特定する。
In the present embodiment, the material specifying table 300 shown in FIG. 6 is referred to, the
例えば、図5(A)に示す場合についてみると、第1のパーツオブジェクトとして特定された「頭」に対応する素材300として「金属」を特定し、素材「金属」に対応する第1の音データ420として、武器が金属に接触するときに発生する音「S1−1」を特定する。同様に、第2のパーツオブジェクトとして特定された「右足」に対応する素材300として「素肌」を特定し、素材「素肌」に対応する第2の音データ430として、武器が素肌から抜けてくるときに発生する音「S2−3」を特定する。
For example, in the case shown in FIG. 5A, “metal” is identified as the material 300 corresponding to the “head” identified as the first part object, and the first sound corresponding to the material “metal” is identified. As
このように本実施形態によれば、武器が接触する位置にあるパーツオブジェクトの素材に応じた第1の音と、武器が抜ける位置にあるパーツオブジェクトの素材に応じた第2の音とを簡単な処理で特定して出力することができる。 Thus, according to the present embodiment, the first sound according to the material of the part object at the position where the weapon comes into contact and the second sound according to the material of the part object at the position where the weapon comes off can be easily obtained. Can be specified and output by simple processing.
2−4.第3の音の特定
図8は、第3の音を特定する際に参照するテーブルの一例である。
2-4. Specifying Third Sound FIG. 8 is an example of a table referred to when specifying the third sound.
本実施形態では、一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたと判断した場合に、図8に示す音特定テーブル500を参照して、当該攻撃動作に用いられた武器510に対応する第3の音データ520を特定して出力する。ここで第3の音データ520には、各武器が他のキャラクタ通過するときに発生する音(武器自体のヒット音)が規定されている。
In this embodiment, when it is determined that an attack by the attack action of one character hits the other character, the sound identification table 500 shown in FIG. 8 is referred to correspond to the weapon 510 used in the attack action. The
2−5.第1、第2、第3の音の出力
図9(A)、図9(B)は、第1、第2、第3の音を順次出力する場合のタイムチャートの一例を示す図である。
2-5. Output of First, Second, and Third Sounds FIGS. 9A and 9B are diagrams illustrating an example of a time chart when the first, second, and third sounds are sequentially output. .
本実施形態では、第1、第2、第3の音データ(波形データ)を音データ記憶部177から読み出し、読み出した第1、第2、第3の音データを、図9(A)、図9(B)に示すように、第1の音、第3の音、第2の音の順で、3つのチャンネル(ch1、ch2、ch3)から再生タイミングをずらして順次再生し、3つのチャンネルから再生された音を合成(ミキシング)して出力する処理を行う。
In the present embodiment, the first, second, and third sound data (waveform data) is read from the sound
すなわち一方のキャラクタの武器を用いた攻撃が他方のキャラクタにヒットした場合に、当該武器が他方のキャラクタのパーツに接触するときに発生する音(第1の音)、当該武器が他方のキャラクタを通過するときに発生する音(第3の音)、当該武器が他方のキャラクタのパーツから抜けるときに発生する音(第2の音)をずらしながら順次再生する。 That is, when an attack using the weapon of one character hits the other character, the sound (first sound) that is generated when the weapon comes in contact with the other character's parts, The sound (third sound) generated when passing through and the sound (second sound) generated when the weapon comes out of the other character's part are sequentially reproduced while being shifted.
このように本実施形態によれば、一方のキャラクタの攻撃方向と他方のキャラクタの姿勢、及び他方のキャラクタのパーツの素材に基づき特定される第1、第2の音と、武器の種類によって特定される第3の音の組み合わせにより攻撃時の音を表現することができ、攻撃時の音のバリエーションを増やすことができる。 As described above, according to the present embodiment, the first and second sounds specified based on the attack direction of one character, the posture of the other character, and the material of the parts of the other character, and the type of weapon are specified. The sound at the time of attack can be expressed by the combination of the 3rd sound to be performed, and the variation of the sound at the time of attack can be increased.
なお、本実施形態では、一方のキャラクタの攻撃動作の種類(攻撃方向)に基づいて、第1の音を出力(再生)し始めてから第2の音を出力するまでの時間T1と、第3の音の長さT2(第3の音を出力し始めてから音量を低下させる(フェードアウトさせる)までの時間)とを調整する。 In the present embodiment, based on the attack action type (attack direction) of one character, the time T1 from when the first sound starts to be output (played back) until the second sound is output, and the third The sound length T2 (the time from the start of outputting the third sound until the volume is lowered (fade out)) is adjusted.
すなわち、一方のキャラクタの攻撃方向が「縦斬り」である場合には、武器が他方のキャラクタを通過する時間(武器がキャラクタに接触してから抜けるまでの時間)が長くなる(図5(A)参照)ため、図9(A)に示すように、第2の音を出力する時間T1と第3の音の長さT2が長くなるように調整している。また、一方のキャラクタの攻撃方向が「横斬り」である場合には、武器が他方のキャラクタを通過する時間が短くなる(図5(B)参照)ため、図9(B)に示すように第2の音を出力する時間T1と第3の音の長さT2が「縦斬り」の場合と比較して短くなるように調整している。 That is, when the attack direction of one character is “vertical cut”, the time for the weapon to pass through the other character (the time from when the weapon comes into contact with the character until it comes off) becomes longer (FIG. 5A). Therefore, as shown in FIG. 9A, the time T1 for outputting the second sound and the length T2 of the third sound are adjusted to be longer. Also, when the attack direction of one character is “horizontal slash”, the time for the weapon to pass through the other character is shortened (see FIG. 5B), so as shown in FIG. 9B. The time T1 for outputting the second sound and the length T2 of the third sound are adjusted to be shorter than in the case of “vertical cutting”.
また、一方又は他方のキャラクタに設定されたパラメータに基づき第2の音を出力する時間T1と第3の音の長さT2とを調整するようにしてもよい。例えば攻撃動作を行った一方のキャラクタに設定された体力値が大きいほど、或いは攻撃を受けた他方のキャラクタに設定された体力値が小さいほど、時間T1と長さT2とが長くなるように調整するようにしてもよい。 Also, the time T1 for outputting the second sound and the length T2 of the third sound may be adjusted based on the parameters set for one or the other character. For example, the time T1 and the length T2 are adjusted to be longer as the stamina value set for one of the attacking characters is larger or as the stamina value set for the other character under attack is smaller. You may make it do.
このようにすると、一方のキャラクタの攻撃方向や各キャラクタに設定されたパラメータに応じて、攻撃時に発生させる音全体の長さ(第1の音を出力し始めてから第2の音を出力し終わるまでの時間)を変化させることができる。 In this way, according to the attack direction of one character and the parameters set for each character, the total length of the sound generated at the time of attack (after the first sound starts to be output and the second sound is finished to be output) Time).
2−6.第1、第2、第3の音の調整
本実施形態では、一方のキャラクタの攻撃動作(攻撃力)に基づいて第1、第2、第3の音の音量を調整して出力している。
2-6. Adjustment of the first, second, and third sounds In this embodiment, the volume of the first, second, and third sounds is adjusted and output based on the attack action (attack power) of one character. .
図10は、一方のキャラクタの攻撃力と、第1、第2、第3の音の音量との関係を示す図である。図10に示すように、本実施形態では、一方のキャラクタの攻撃力(例えば、キャラクタやキャラクタの持つ武器に対応付けて設定されるゲームパラメータの値)が大きいほど第1、第2、第3の音の音量が大きくなるように調節している。また一方のキャラクタの攻撃動作によって他方のキャラクタの受けるダメージ量を求め、求めたダメージ量が大きいほど第1、第2、第3の音の音量が大きくなるように調節してもよい。また、一方のキャラクタの体力値が大きいほど、或いは他方のキャラクタの体力値が小さいほど、第1、第2、第3の音の音量が大きくなるように調節してもよい。 FIG. 10 is a diagram illustrating the relationship between the attack power of one character and the volume of the first, second, and third sounds. As shown in FIG. 10, in the present embodiment, the first, second, and third are increased as the attack power of one character (for example, the value of the game parameter set in association with the character or the weapon possessed by the character) increases. The volume of the sound is adjusted to be loud. Further, the amount of damage received by the other character by the attacking action of one character may be obtained, and the volume of the first, second, and third sounds may be adjusted to increase as the obtained amount of damage increases. Further, the volume of the first, second, and third sounds may be adjusted to increase as the physical strength value of one character is larger or the physical strength value of the other character is smaller.
また本実施形態では、一方のキャラクタの攻撃動作(攻撃力、攻撃方向)に基づいて第1、第2、第3の音の音程を調整して出力している。 In this embodiment, the pitches of the first, second, and third sounds are adjusted and output based on the attack action (attack power, attack direction) of one character.
図11(A)は、一方のキャラクタの攻撃方向が「縦斬り」である場合の、第1、第2、第3の音の音程の変化の一例を示す図である。また、図11(B)は、一方のキャラクタの攻撃方向が「横斬り」である場合の、第1、第2、第3の音の音程の変化を示す図である。図11(A)、図11(B)において、実線は攻撃力が「50」である場合の各音の音程の変化を示し、破線は攻撃力が「10」である場合の各音の音程の変化を示す。 FIG. 11A is a diagram illustrating an example of changes in the pitches of the first, second, and third sounds when the attack direction of one character is “vertical cut”. FIG. 11B is a diagram showing changes in the pitch of the first, second, and third sounds when the attack direction of one character is “horizontal cut”. In FIGS. 11A and 11B, the solid line indicates the change in the pitch of each sound when the attack power is “50”, and the broken line indicates the pitch of each sound when the attack power is “10”. Shows changes.
図11(A)、図11(B)に示すように、本実施形態では、一方のキャラクタの攻撃力が大きいほど第1、第2、第3の音の音程の変化(ピッチ変化)が大きくなるように調節している。また一方のキャラクタの攻撃方向が「縦斬り」である場合の方が「横斬り」である場合に比べて音程の変化が大きくなるように調整している。また、一方のキャラクタの体力値が大きいほど、或いは他方のキャラクタの体力値が小さいほど、第1、第2、第3の音の音程の変化が大きくなるように調節してもよい。 As shown in FIGS. 11 (A) and 11 (B), in this embodiment, the greater the attack power of one character, the greater the change in pitch (pitch change) of the first, second, and third sounds. It is adjusted so that In addition, adjustment is made so that the pitch change is greater when the attack direction of one character is “vertical cut” than when “cutting horizontal”. Further, the adjustment may be performed such that the change in the pitch of the first, second, and third sounds increases as the physical strength value of one character increases or the physical strength value of the other character decreases.
このように本実施形態によれば、一方のキャラクタの攻撃力や攻撃方向、各キャラクタに設定されたパラメータによって基本となる音(第1、第2、第3の音)の音量や音程を調節することにより、音データ用の記憶領域を増大させることなく、攻撃時の音のバリエーションを増やすことができる。 Thus, according to this embodiment, the volume and pitch of the basic sound (first, second, and third sounds) are adjusted according to the attack power and attack direction of one character and the parameters set for each character. By doing so, the variation of the sound at the time of attack can be increased, without increasing the storage area for sound data.
3.本実施形態の処理
次に、本実施形態の処理の一例について図12のフローチャートを用いて説明する。
3. Processing of this Embodiment Next, an example of processing of this embodiment will be described using the flowchart of FIG.
まず、移動・動作処理部112は、操作部160からの操作データに基づきキャラクタに武器を用いた複数種類の攻撃動作を行わせ、或いは特定の姿勢をとらせる動作演算を行う(ステップS10)。
First, the movement /
次に、ヒット判断部114は、移動・動作処理部112により求められた、キャラクタの位置と一方のキャラクタの攻撃動作の種類(攻撃方向)と他方のキャラクタの姿勢とに基づいて、一方のキャラクタの攻撃が他方のキャラクタにヒットしたか否かを判断する(ステップS12)。
Next, based on the character position, the type of attack action (attack direction) of one character, and the posture of the other character, the
ステップS12の処理においてヒットしたと判断された場合には、パーツ特定部116は、移動・動作処理部112により求められた、一方のキャラクタの攻撃方向と他方のキャラクタの姿勢とに基づいて、他方のキャラクタを構成する複数のパーツオブジェクトのうち、第1、第2のパーツオブジェクトを特定する(ステップS14)。
If it is determined in step S12 that the hit has been made, the
次に、音処理部116は、第1、第2のパーツオブジェクトの素材(属性データ)に対応する第1、第2の音を特定し(ステップS16)、一方のキャラクタの攻撃動作に用いられた武器に対応する第3の音を特定する(ステップS18)。
Next, the
次に、音処理部116は、一方のキャラクタの攻撃方向に基づいて、第2の音を出力するタイミング(第1の音を出力し始めてから第2の音を出力するまでの時間)を決定する(ステップS20)。
Next, the
次に、音処理部116は、一方のキャラクタの攻撃方向、攻撃力に基づき第1の音の音量、音程の変化を求め、求めた音量、音程の変化に従って第1の音を調整して出力する(ステップS22)。
Next, the
次に、音処理部116は、一方のキャラクタの攻撃方向、攻撃力に基づき第3の音の長さ、音量、音程の変化を求め、第1の音の出力を開始してから所定フレーム後に、求めた音の長さ、音量、音程の変化に従って第3の音を調整して出力する(ステップS24)。
Next, the
次に、音処理部116は、一方のキャラクタの攻撃方向、攻撃力に基づき第2の音の音量、音程の変化を求め、ステップS20の処理で決定されたタイミングで、求めた音量、音程の変化に従って第2の音を調節して出力する(ステップS26)。
Next, the
4.変形例
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
4). Modifications The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.
例えば、本実施形態では、一方のキャラクタの攻撃動作に基づき他方のキャラクタの2つのパーツオブジェクトを特定する場合について説明したが、一方のキャラクタの攻撃動作に基づき他方のキャラクタの1つのパーツオブジェクトを特定して、特定された1つのパーツオブジェクトに対応する第1、第2の音を出力するようにしてもよい。 For example, in this embodiment, the case where two part objects of the other character are specified based on the attack action of one character has been described. However, one part object of the other character is specified based on the attack action of one character. Then, the first and second sounds corresponding to one specified part object may be output.
すなわち、一方のキャラクタの武器を用いた攻撃動作と他方のキャラクタの姿勢に基づいて、当該武器が最初に接触する位置にあるパーツオブジェクト、或いは当該武器が他方のキャラクタの体から抜ける位置にあるパーツオブジェクトを特定する。 That is, based on the attack action using the weapon of one character and the posture of the other character, the part object at the position where the weapon first contacts, or the part at the position where the weapon comes out of the body of the other character Identify the object.
そして、図13(A)に示すような素材特定テーブル600を参照して、特定されたパーツオブジェクト620に対応する2つの素材630を特定する。ここでは「右腕」のパーツオブジェクトに対応する2つの素材として、「金属」と「布」の2つの素材が規定されており、例えば、当該パーツオブジェクトが布地の服の上に金属製の鎧を重ね着した状態であることを示している。
Then, with reference to the material specifying table 600 as shown in FIG. 13A, two
そして、図13(B)に示すような音特定テーブル700を参照して、特定された2つの素材710それぞれに対応する2つの音データ720を第1、第2の音として特定する。例えば、「右腕」のパーツオブジェクトが特定された場合には、このパーツオブジェクトに対応する2つの素材「金属」、「布」のそれぞれに対応する第1、第2の音データ「S1」、「S2」を特定する。そして本実施形態で説明した手法と同様に、第3の音データを特定する。
Then, with reference to the sound specification table 700 as shown in FIG. 13B, the two
そして、特定された第1、第2、第3の音データを音データ記憶部177から読み出し、読み出した第1、第2、第3の音データを、図14(A)に示すように、第3の音、第1の音、第2の音の順で、3つのチャンネルから再生タイミングをずらして順次再生し、3つのチャンネルから再生された音を合成して出力する。また図14(B)に示すように、第1の音、第2の音、第3の音の順で順次再生して合成するようにしてもよい。
Then, the identified first, second, and third sound data are read from the sound
ここで、一方のキャラクタの攻撃動作又はキャラクタに設定されたパラメータ(例えば体力値)に基づいて、第1、第2の音の出力順序や、第1、第2の音の合成比率(第1、2の音の長さの比率、第1、第2の音の音量の比率)を調整するようにしてもよい。例えば、図14(C)に示すように、攻撃を行った一方のキャラクタの体力値や攻撃力が大きいほど、第1の音(例えば鎧の音)の長さT3に対する第2の音(例えば布地の音)の長さT4の比率(T4/T3)が大きくなるように、或いは第1の音の音量V1に対する第2の音の音量V2の比率(V2/V1)が大きくなるように調整してもよい。このようにすると、一方のキャラクタの攻撃力等が大きいことにより、一方のキャラクタの持つ武器が他方のキャラクタの鎧を突き破って布地の服に到達したことを音により表現することができる。 Here, based on the attack action of one character or a parameter (for example, physical strength value) set for the character, the output order of the first and second sounds and the synthesis ratio of the first and second sounds (first The ratio of the lengths of the two sounds and the ratio of the volume of the first and second sounds may be adjusted. For example, as shown in FIG. 14C, as the physical strength value or attack power of one character that has made an attack increases, the second sound (for example, armor sound) with respect to the length T3 of the first sound (for example, armor sound) The ratio (T4 / T3) of the length (T4) of the fabric sound) is increased, or the ratio (V2 / V1) of the volume V2 of the second sound to the volume V1 of the first sound is increased. May be. In this way, it is possible to express by sound that the weapon possessed by one character has penetrated the armor of the other character and arrived at the clothing of the fabric due to the high attack power or the like of one character.
100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部(動作演算部)、114 ヒット判断部、116 パーツ特定部、117 音処理部、118 仮想カメラ制御部、120 描画部、160 操作部、170 記憶部、180 情報記憶媒体、190 表示部、192 音出力部、196 通信部 100 processing unit, 110 object space setting unit, 112 movement / motion processing unit (motion calculation unit), 114 hit determination unit, 116 part identification unit, 117 sound processing unit, 118 virtual camera control unit, 120 drawing unit, 160 operation unit , 170 storage unit, 180 information storage medium, 190 display unit, 192 sound output unit, 196 communication unit
Claims (10)
キャラクタに複数種類の攻撃動作を行わせる動作演算を行う動作演算部と、
一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたか否かを判断するヒット判断部と、
前記ヒット判断部によってヒットしたと判断された場合に、前記一方のキャラクタの攻撃動作に基づいて、前記他方のキャラクタを構成する複数のパーツオブジェクトのうち、少なくとも1つのパーツオブジェクトを特定するパーツ特定部と、
前記特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を出力するための処理を行う音処理部としてコンピュータを機能させることを特徴とするプログラム。 A program for a game in which a plurality of characters attack each other,
A motion calculation unit for performing a motion calculation to cause a character to perform a plurality of types of attack motions;
A hit determination unit that determines whether an attack by the attack action of one character hits the other character;
A part identifying unit that identifies at least one part object among a plurality of part objects constituting the other character based on the attack action of the one character when it is determined by the hit determining unit When,
A program that causes a computer to function as a sound processing unit that performs processing for outputting first and second sounds corresponding to at least one identified part object.
前記音処理部は、
前記一方のキャラクタの攻撃動作又は前記キャラクタに設定されたパラメータに基づいて、前記第1、第2の音の音量、音程、出力順序及び合成比率の少なくとも1つを調整することを特徴とするプログラム。 In claim 1,
The sound processing unit
A program that adjusts at least one of a volume, a pitch, an output order, and a composition ratio of the first and second sounds based on an attack action of the one character or a parameter set for the character. .
前記パーツ特定部は、
前記一方のキャラクタの攻撃動作と前記他方のキャラクタの姿勢とに基づいて、前記少なくとも1つのパーツオブジェクトを特定することを特徴とするプログラム。 In claim 1 or 2,
The parts identification part is
A program for specifying the at least one part object based on an attack action of the one character and a posture of the other character.
前記パーツ特定部は、
前記一方のキャラクタの攻撃動作に基づいて、前記他方のキャラクタを構成する複数のパーツオブジェクトのうち、2つのパーツオブジェクトを特定し、
前記音処理部は、
前記特定された2つのパーツオブジェクトのそれぞれに対応する第1、第2の音を順次出力するための処理を行うことを特徴とするプログラム。 In any one of Claim 1 thru | or 3, The said part specific | specification part is
Based on the attacking action of the one character, specify two part objects among a plurality of part objects constituting the other character,
The sound processing unit
A program for performing processing for sequentially outputting first and second sounds corresponding to each of the two specified part objects.
前記音処理部は、
前記一方のキャラクタの攻撃動作又は前記キャラクタに設定されたパラメータに基づいて、前記第1の音を出力してから前記第2の音を出力するまでの時間を調整することを特徴とするプログラム。 In claim 4,
The sound processing unit
A program for adjusting a time from when the first sound is output to when the second sound is output based on an attack action of the one character or a parameter set for the character.
前記音処理部は、
前記第1の音を出力してから前記第2の音を出力するまでの間に、前記一方のキャラクタの攻撃動作に対応する第3の音を出力するための処理を行うことを特徴とするプログラム。 In claim 4 or 5,
The sound processing unit
A process for outputting a third sound corresponding to the attack action of the one character is performed between the output of the first sound and the output of the second sound. program.
前記音処理部は、
前記第1、第2の音を出力する前又は出力した後に、前記一方のキャラクタの攻撃動作に対応する第3の音を出力するための処理を行うことを特徴とするプログラム。 In any one of Claims 1 thru | or 3,
The sound processing unit
A program for performing a process for outputting a third sound corresponding to the attack action of the one character before or after outputting the first and second sounds.
前記音処理部は、
前記一方のキャラクタの攻撃動作又は前記キャラクタに設定されたパラメータに基づいて、前記第3の音の長さ、音量及び音程の少なくとも1つを調整することを特徴とするプログラム。 In claim 6 or 7,
The sound processing unit
A program that adjusts at least one of the length, volume, and pitch of the third sound based on an attack action of the one character or a parameter set for the character.
キャラクタに複数種類の攻撃動作を行わせる動作演算を行う動作演算部と、
一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたか否かを判断するヒット判断部と、
前記ヒット判断部によってヒットしたと判断された場合に、前記一方のキャラクタの攻撃動作に基づいて、前記他方のキャラクタを構成する複数のパーツオブジェクトのうち、少なくとも1つのパーツオブジェクトを特定するパーツ特定部と、
前記特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を出力するための処理を行う音処理部とを含むことを特徴とするゲームシステム。 A game system for a game in which a plurality of characters attack each other,
A motion calculation unit for performing a motion calculation to cause a character to perform a plurality of types of attack motions;
A hit determination unit that determines whether an attack by the attack action of one character hits the other character;
A part identifying unit that identifies at least one part object among a plurality of part objects constituting the other character based on the attack action of the one character when it is determined by the hit determining unit When,
And a sound processing unit that performs processing for outputting first and second sounds corresponding to the specified at least one part object.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008193668A JP2010029375A (en) | 2008-07-28 | 2008-07-28 | Game system, program, and information storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008193668A JP2010029375A (en) | 2008-07-28 | 2008-07-28 | Game system, program, and information storage medium |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010029375A true JP2010029375A (en) | 2010-02-12 |
Family
ID=41734583
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008193668A Withdrawn JP2010029375A (en) | 2008-07-28 | 2008-07-28 | Game system, program, and information storage medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010029375A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013012811A (en) * | 2011-06-28 | 2013-01-17 | Square Enix Co Ltd | Proximity passage sound generation device |
| JP2015039489A (en) * | 2013-08-21 | 2015-03-02 | 株式会社三共 | Game machine |
| WO2015198646A1 (en) * | 2014-06-25 | 2015-12-30 | 株式会社カプコン | Game device, sound effect processing method, and recording medium |
| JP2016135254A (en) * | 2016-02-03 | 2016-07-28 | 株式会社カプコン | Sound effect processing program and game device |
| JP2018143479A (en) * | 2017-03-06 | 2018-09-20 | 株式会社カプコン | Game program and game system |
| CN115937364A (en) * | 2022-12-12 | 2023-04-07 | 网易(杭州)网络有限公司 | Processing method, device, storage medium and electronic equipment of interactive animation |
-
2008
- 2008-07-28 JP JP2008193668A patent/JP2010029375A/en not_active Withdrawn
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013012811A (en) * | 2011-06-28 | 2013-01-17 | Square Enix Co Ltd | Proximity passage sound generation device |
| JP2015039489A (en) * | 2013-08-21 | 2015-03-02 | 株式会社三共 | Game machine |
| WO2015198646A1 (en) * | 2014-06-25 | 2015-12-30 | 株式会社カプコン | Game device, sound effect processing method, and recording medium |
| JP2016007399A (en) * | 2014-06-25 | 2016-01-18 | 株式会社カプコン | Sound effect processing program and game device |
| US11027200B2 (en) | 2014-06-25 | 2021-06-08 | Capcom Co., Ltd. | Game device, method and non-transitory computer-readable storage medium |
| JP2016135254A (en) * | 2016-02-03 | 2016-07-28 | 株式会社カプコン | Sound effect processing program and game device |
| JP2018143479A (en) * | 2017-03-06 | 2018-09-20 | 株式会社カプコン | Game program and game system |
| CN115937364A (en) * | 2022-12-12 | 2023-04-07 | 网易(杭州)网络有限公司 | Processing method, device, storage medium and electronic equipment of interactive animation |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9789401B2 (en) | Game device, game system, and information storage medium | |
| US20090244064A1 (en) | Program, information storage medium, and image generation system | |
| JP2010022646A (en) | Program, information storage medium, and image generation system | |
| JP6993585B2 (en) | Game programs and game equipment | |
| JP2010029375A (en) | Game system, program, and information storage medium | |
| JP2010033297A (en) | Program, information storage medium, and image generation system | |
| JP4804122B2 (en) | Program, texture data structure, information storage medium, and image generation system | |
| JP3367934B2 (en) | Game system, image drawing method in game system, and computer-readable recording medium storing game program | |
| JP2010231364A (en) | Image generation system, program, and information storage medium | |
| JP4651527B2 (en) | Program, information storage medium, and image generation system | |
| JP4749198B2 (en) | Program, information storage medium, and image generation system | |
| JP2004334801A (en) | Image generation system, program, and information storage medium | |
| JP2006252426A (en) | Program, information storage medium, and image generation system | |
| US20100144448A1 (en) | Information storage medium, game device, and game system | |
| JP2005275796A (en) | Program, information storage medium, and image generation system | |
| JP4632855B2 (en) | Program, information storage medium, and image generation system | |
| JP2008310377A (en) | Image generation system, program, and information storage medium | |
| JP2010033285A (en) | Program, information storage medium, and image generation system | |
| JP2010033253A (en) | Program, information storage medium, and image generation system | |
| JP4521811B2 (en) | Program, information storage medium, and image generation system | |
| JP2007164323A (en) | Program, information storage medium, and image generation system | |
| JP3763057B2 (en) | Image generation device | |
| JP4641831B2 (en) | Program, information storage medium, and image generation system | |
| JP2010033300A (en) | Program, information storage medium, and image generation system | |
| JP4680670B2 (en) | Program, information storage medium, and image generation system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20111004 |