[go: up one dir, main page]

JP2010029375A - Game system, program, and information storage medium - Google Patents

Game system, program, and information storage medium Download PDF

Info

Publication number
JP2010029375A
JP2010029375A JP2008193668A JP2008193668A JP2010029375A JP 2010029375 A JP2010029375 A JP 2010029375A JP 2008193668 A JP2008193668 A JP 2008193668A JP 2008193668 A JP2008193668 A JP 2008193668A JP 2010029375 A JP2010029375 A JP 2010029375A
Authority
JP
Japan
Prior art keywords
character
sound
attack
program
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008193668A
Other languages
Japanese (ja)
Inventor
Yoshihito Yano
義人 矢野
Takayuki Kakinuma
孝行 柿沼
Shinobu Futamura
忍 二村
Toshitaro Nitta
俊太郎 新田
Rei Hata
玲 波多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2008193668A priority Critical patent/JP2010029375A/en
Publication of JP2010029375A publication Critical patent/JP2010029375A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】 キャラクタの攻撃による音のバリエーションを増やすことが可能なプログラム、情報記憶媒体及びゲームシステムを提供すること。
【解決手段】 複数のキャラクタが互いに攻撃動作を行うゲームのためのプログラムであって、キャラクタに複数種類の攻撃動作を行わせる動作演算を行う動作演算部と、一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたか否かを判断するヒット判断部と、前記ヒット判断部によってヒットしたと判断された場合に、前記一方のキャラクタの攻撃動作に基づいて、前記他方のキャラクタを構成する複数のパーツオブジェクトのうち、少なくとも1つのパーツオブジェクトを特定するパーツ特定部と、前記特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を出力するための処理を行う音処理部としてコンピュータを機能させることを特徴とする。
【選択図】図12
PROBLEM TO BE SOLVED: To provide a program, an information storage medium, and a game system capable of increasing sound variations caused by character attacks.
A program for a game in which a plurality of characters perform attacking actions with each other, a motion calculating section for performing a motion calculation for causing the characters to perform a plurality of types of attacking actions, and an attack by the attacking action of one character. A hit determination unit that determines whether or not the other character has been hit, and a plurality of characters that constitute the other character based on the attack action of the one character when it is determined that the hit determination unit has hit A part specifying unit that specifies at least one part object, and a sound processing unit that performs processing for outputting first and second sounds corresponding to the specified at least one part object It is characterized by making a computer function.
[Selection] Figure 12

Description

本発明は、ゲームシステム、プログラム、及び情報記憶媒体に関する。   The present invention relates to a game system, a program, and an information storage medium.

従来から、2つのキャラクタの攻撃動作を画面上で行わせるゲーム機が知られている。このようなゲーム機では、攻撃動作に関する音声を操作手段の操作に応じて再生するものがある(例えば特許文献1)。
特開2005-328854号公報
2. Description of the Related Art Conventionally, game machines that perform attacking actions of two characters on a screen are known. Some of these game machines reproduce a sound related to an attack action in accordance with an operation of an operation means (for example, Patent Document 1).
JP 2005-328854 A

しかしながら、従来のゲーム機では、攻撃動作に関する音声のバリエーションがなく、また音声のバリエーションを増やそうとすると音声データの記憶領域が増大するといった問題点があった。   However, the conventional game machine has a problem that there is no voice variation related to the attacking action, and if the voice variation is increased, the storage area of the voice data is increased.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、キャラクタの攻撃による音のバリエーションを増やすことが可能なプログラム、情報記憶媒体及びゲームシステムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a program, an information storage medium, and a game system that can increase variations in sound due to character attacks. It is in.

(1)本発明は、複数のキャラクタが互いに攻撃動作を行うゲームのためのプログラムであって、
キャラクタに複数種類の攻撃動作を行わせる動作演算を行う動作演算部と、
一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたか否かを判断するヒット判断部と、
前記ヒット判断部によってヒットしたと判断された場合に、前記一方のキャラクタの攻撃動作に基づいて、前記他方のキャラクタを構成する複数のパーツオブジェクトのうち、少なくとも1つのパーツオブジェクトを特定するパーツ特定部と、
前記特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を出力するための処理を行う音処理部としてコンピュータを機能させることを特徴とする。
(1) The present invention is a program for a game in which a plurality of characters attack each other,
A motion calculation unit for performing a motion calculation to cause a character to perform a plurality of types of attack motions
A hit determination unit that determines whether an attack by the attack action of one character hits the other character;
A part identifying unit that identifies at least one part object among a plurality of part objects constituting the other character based on the attack action of the one character when it is determined by the hit determining unit When,
A computer is caused to function as a sound processing unit that performs processing for outputting first and second sounds corresponding to the specified at least one part object.

また本発明は、上記各部を含むゲームシステムに関係する。また本発明はコンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶した情報記憶媒体に関係する。   The present invention also relates to a game system including the above-described units. The present invention is also a computer-readable information storage medium, and relates to an information storage medium storing a program that causes a computer to function as each of the above-described units.

本発明において、特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を出力するとは、特定された1つのパーツオブジェクトに対応する第1、第2の音を出力する場合と、特定された2つのパーツオブジェクトのそれぞれに対応する第1、第2の音を出力する場合とを含む。   In the present invention, outputting the first and second sounds corresponding to the specified at least one part object means outputting the first and second sounds corresponding to the specified one part object; And outputting the first and second sounds corresponding to each of the two specified part objects.

本発明によれば、一方のキャラクタの攻撃動作に基づいて、他方のキャラクタを構成する複数のパーツオブジェクトのうち、2つのパーツオブジェクトを特定し、特定された2つのパーツオブジェクトのそれぞれに対応する第1、第2の音を順次出力することで、一方のキャラクタの攻撃動作に応じて特定されるパーツオブジェクトに対応する2つの音を出力することができる。   According to the present invention, based on the attacking action of one character, two part objects are identified from among the plurality of part objects constituting the other character, and the second part object corresponding to each of the identified two part objects is identified. By sequentially outputting the first and second sounds, it is possible to output two sounds corresponding to the part object specified according to the attack action of one character.

(2)また本発明に係るプログラム及び情報記憶媒体では、
前記音処理部は、
前記一方のキャラクタの攻撃動作又は前記キャラクタに設定されたパラメータに基づいて、前記第1、第2の音の音量、音程、出力順序及び合成比率の少なくとも1つを調整するようにしてもよい。
(2) In the program and information storage medium according to the present invention,
The sound processing unit
You may make it adjust at least 1 of the volume of the said 1st, 2nd sound, a pitch, an output order, and a synthetic | combination ratio based on the attack action of said one character, or the parameter set to the said character.

本発明によれば、一方のキャラクタの攻撃動作やキャラクタのパラメータに応じて第1、第2の音を変化させることができる。   According to the present invention, the first and second sounds can be changed according to the attacking action of one character and the parameters of the character.

(3)また本発明に係るプログラム及び情報記憶媒体では、
前記パーツ特定部は、
前記一方のキャラクタの攻撃動作と前記他方のキャラクタの姿勢とに基づいて、前記少なくとも1つのパーツオブジェクトを特定するようにしてもよい。
(3) In the program and information storage medium according to the present invention,
The parts identification part is
The at least one part object may be specified based on the attack action of the one character and the posture of the other character.

本発明によれば、一方のキャラクタの攻撃動作と他方のキャラクタの姿勢に応じて特定されるパーツオブジェクトに対応する2つの音を出力することができる。   According to the present invention, it is possible to output two sounds corresponding to a part object specified according to the attack action of one character and the posture of the other character.

(4)また本発明に係るプログラム及び情報記憶媒体では、
前記パーツ特定部は、
前記一方のキャラクタの攻撃動作に基づいて、前記他方のキャラクタを構成する複数のパーツオブジェクトのうち、2つのパーツオブジェクトを特定し、
前記音処理部は、
前記特定された2つのパーツオブジェクトのそれぞれに対応する第1、第2の音を順次出力するための処理を行うようにしてもよい。
(4) In the program and information storage medium according to the present invention,
The parts identification part is
Based on the attacking action of the one character, specify two part objects among a plurality of part objects constituting the other character,
The sound processing unit
You may make it perform the process for outputting the 1st, 2nd sound corresponding to each of the specified two part objects sequentially.

本発明によれば、一方のキャラクタの攻撃動作に応じて特定される2つのパーツオブジェクトのそれぞれに対応する2つの音を出力することができる。   According to the present invention, it is possible to output two sounds corresponding to each of two part objects specified according to the attack action of one character.

(5)また本発明に係るプログラム及び情報記憶媒体では、
前記音処理部は、
前記一方のキャラクタの攻撃動作又は前記キャラクタに設定されたパラメータに基づいて、前記第1の音を出力してから前記第2の音を出力するまでの時間を調整するようにしてもよい。
(5) In the program and information storage medium according to the present invention,
The sound processing unit
The time from when the first sound is output until the second sound is output may be adjusted based on the attack action of the one character or the parameters set for the character.

本発明によれば、一方のキャラクタの攻撃動作やキャラクタのパラメータに応じて第1の音と第2の音とのずれを変化させることができる。   According to the present invention, it is possible to change the difference between the first sound and the second sound in accordance with the attack action of one character and the parameters of the character.

(6)また本発明に係るプログラム及び情報記憶媒体では、
前記音処理部は、
前記第1の音を出力してから前記第2の音を出力するまでの間に、前記一方のキャラクタの攻撃動作に対応する第3の音を出力するための処理を行うようにしてもよい。
(6) In the program and information storage medium according to the present invention,
The sound processing unit
Between the time when the first sound is output and the time when the second sound is output, a process for outputting a third sound corresponding to the attack action of the one character may be performed. .

本発明によれば、一方のキャラクタの攻撃動作に対応する音を出力することができる。   According to the present invention, it is possible to output a sound corresponding to the attack action of one character.

(7)また本発明に係るプログラム及び情報記憶媒体では、
前記音処理部は、
前記第1、第2の音を出力する前又は出力した後に、前記一方のキャラクタの攻撃動作に対応する第3の音を出力するための処理を行うようにしてもよい。
(7) In the program and information storage medium according to the present invention,
The sound processing unit
A process for outputting a third sound corresponding to the attack action of the one character may be performed before or after outputting the first and second sounds.

本発明によれば、一方のキャラクタの攻撃動作に対応する音を出力することができる。   According to the present invention, it is possible to output a sound corresponding to the attack action of one character.

(8)また本発明に係るプログラム及び情報記憶媒体では、
前記音処理部は、
前記一方のキャラクタの攻撃動作又は前記キャラクタに設定されたパラメータに基づいて、前記第3の音の長さ、音量及び音程の少なくとも1つを調整するようにしてもよい。
(8) In the program and information storage medium according to the present invention,
The sound processing unit
At least one of the length, volume and pitch of the third sound may be adjusted based on the attack action of the one character or the parameters set for the character.

本発明によれば、一方のキャラクタの攻撃動作やキャラクタのパラメータに応じて第3の音を変化させることができる。   According to the present invention, it is possible to change the third sound according to the attack action of one character or the character parameter.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態のゲームシステムの機能ブロック図の一例を示す。なお本実施形態のゲームシステムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of the game system of the present embodiment. Note that the game system of this embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤがオブジェクト(キャラクタ、移動体)の操作データを入力するためのものであり、その機能は、キーボート、マウス、レバー、ボタン、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。   The operation unit 160 is for a player to input operation data of an object (character, moving object), and the function can be realized by a keyboard, a mouse, a lever, a button, a microphone, a touch panel type display, a frame, or the like. .

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部170は、ワーク領域として使用される主記憶部172と、最終的な表示画像等が記憶されるフレームバッファ174と、オブジェクトのモデルデータが記憶されるオブジェクトデータ記憶部176と、音データが記憶される音データ記憶部177と、各オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部178と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ179とを含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 170 of the present embodiment includes a main storage unit 172 used as a work area, a frame buffer 174 that stores final display images and the like, and an object data storage unit that stores model data of objects. 176, a sound data storage unit 177 for storing sound data, a texture storage unit 178 for storing textures for each object data, and a Z buffer 179 for storing Z values during object image generation processing Including. Note that some of these may be omitted.

特に本実施形態のオブジェクトデータ記憶部176は、キャラクタを構成するパーツオブジェクトのモデルデータ及び属性データを記憶する。   In particular, the object data storage unit 176 of the present embodiment stores model data and attribute data of part objects that constitute a character.

また本実施形態の音データ記憶部177は、キャラクタを構成するパーツオブジェクトに対応する第1、第2の音と、キャラクタが持つ武器に対応する第3の音の音データを記憶する。   In addition, the sound data storage unit 177 of the present embodiment stores the first and second sounds corresponding to the part objects constituting the character and the sound data of the third sound corresponding to the weapon possessed by the character.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. The information storage medium 180 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like.

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部196は外部(例えば他のゲームシステム、サーバ)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, other game systems and servers), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. realizable.

なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信してゲームシステムを機能させる場合も本発明の範囲内に含む。   Note that a program or data for causing a computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server is received via the network, and the received program or data is received by the information storage medium 180. Or may be stored in the storage unit 170. The case where the game system is functioned by receiving the program or data as described above is also included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここで、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ヒットチェック処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, the game process includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, a hit check process, There is a process for calculating a game result or a process for ending a game when a game end condition is satisfied. The processing unit 100 performs various processes using the main storage unit 172 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

特に、処理部100は、オブジェクト空間設定部110、移動・動作処理部112(動作演算部)、ヒット判断部114、パーツ特定部116、音処理部117、仮想カメラ制御部118、描画部120を含む。   In particular, the processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112 (motion calculation unit), a hit determination unit 114, a part specification unit 116, a sound processing unit 117, a virtual camera control unit 118, and a drawing unit 120. Including.

オブジェクト空間設定部110は、キャラクタ、移動体、建物、球場、車、樹木、柱、壁、マップなどの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義であり、例えば、ワールド座標系でのX、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 includes various objects representing objects such as characters, moving objects, buildings, stadiums, cars, trees, pillars, walls, and maps (objects composed of primitives such as polygons, free-form surfaces, or subdivision surfaces). ) Is set in the object space. For example, the position and rotation angle (synonymous with the direction and direction of the object in the world coordinate system, for example, rotation when rotating clockwise when viewed from the positive direction of each axis of the X, Y, and Z axes in the world coordinate system. The angle is determined, and the object is arranged at the position (X, Y, Z) at the rotation angle (rotation angle about the X, Y, Z axis).

移動・動作処理部112は、オブジェクト(キャラクタ、移動体等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)、物理法則などに基づいて、オブジェクトをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs movement / motion calculation (movement / motion simulation) of an object (a character, a moving body, etc.). In other words, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), a physical law, or the like, the object is moved in the object space or the object is moved ( (Motion, animation). Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part that constitutes the object) are sequentially transmitted every frame (1/60 seconds). Perform the required simulation process. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

特に本実施形態の移動・動作処理部112(動作演算部)は、操作部160からの操作データに基づいて、キャラクタに複数種類の攻撃動作を行わせたり、キャラクタに特定の姿勢をとらせたりする動作演算を行う。なお前記攻撃動作は、武器を用いた攻撃動作であってもよい。   In particular, the movement / motion processing unit 112 (motion calculation unit) of the present embodiment causes the character to perform a plurality of types of attack motions based on the operation data from the operation unit 160, or causes the character to take a specific posture. Perform the operation calculation. The attack operation may be an attack operation using a weapon.

ヒット判断部114は、移動・動作処理部112による演算結果に基づいて、一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたか否かを判断する。   Based on the calculation result by the movement / motion processing unit 112, the hit determination unit 114 determines whether or not the attack by the attack action of one character hits the other character.

パーツ特定部116は、ヒット判断部114によってヒットしたと判断された場合に、移動・動作処理部112で得られた前記一方のキャラクタの攻撃動作(例えば、攻撃方向)に基づいて、他方のキャラクタを構成する複数のパーツオブジェクトのうち、少なくとも1つパーツオブジェクトを特定する処理を行う。   When the hit determination unit 114 determines that the hit has been made, the parts identification unit 116 determines the other character based on the attack action (for example, attack direction) of the one character obtained by the movement / motion processing unit 112. The process which specifies at least one part object among the several part objects which comprise is performed.

またパーツ特定部116は、移動・動作処理部112で得られた前記一方のキャラクタの攻撃動作と前記他方のキャラクタの姿勢とに基づいて、前記少なくとも1つのパーツオブジェクトを特定するようにしてもよい。   The parts identifying unit 116 may identify the at least one part object based on the attack action of the one character obtained by the movement / motion processing unit 112 and the posture of the other character. .

またパーツ特定部116は、移動・動作処理部112で得られた前記一方のキャラクタの攻撃動作に基づいて、他方のキャラクタを構成する複数のパーツオブジェクトのうち、2つのパーツオブジェクトを特定する処理を行うようにしてもよい。   Further, the parts identifying unit 116 performs processing for identifying two part objects among a plurality of part objects constituting the other character based on the attack action of the one character obtained by the movement / motion processing unit 112. You may make it perform.

音処理部117は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound processing unit 117 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

特に本実施形態の音処理部117は、パーツ特定部116によって特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を、音出力部192に出力する処理を行う。すなわち、パーツ特定部116によって特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を特定するための音特定データを求め、求めた音特定データに基づいて、第1、第2の音の音データ(波形データ)を音データ記憶部177から読み出し、読み出した第1、第2の音の音データを合成(ミキシング)することによってゲーム音を生成し、音出力部192に出力する処理を行う。   In particular, the sound processing unit 117 of the present embodiment performs a process of outputting the first and second sounds corresponding to at least one part object specified by the parts specifying unit 116 to the sound output unit 192. That is, sound specifying data for specifying the first and second sounds corresponding to at least one part object specified by the parts specifying unit 116 is obtained, and the first and second are determined based on the obtained sound specifying data. The sound data (waveform data) of the first sound is read out from the sound data storage unit 177, and the sound data of the first and second sounds read out is synthesized (mixed) to generate a game sound and output it to the sound output unit 192 Perform the process.

また音処理部117は、前記一方のキャラクタの攻撃動作(例えば、攻撃方向、攻撃力、攻撃動作に用いられた武器の種類)又は前記キャラクタに設定されたパラメータ(例えば、キャラクタの種類、体力等を示すパラメータ)に基づいて、前記第1、第2の音の音量、音程、出力順序及び合成比率の少なくとも1つを調整するようにしてもよい。すなわち、攻撃動作やパラメータに基づいて、第1、第2の音の音量を調整するための音量データ、第1、第2の音の音程を調整するための音程データ、第1、第2の音の出力順序を調整するための出力順序データ、第1、第2の音の合成比率(第1、第2の音を合成する際の音の長さの比率、或いは第1、第2の音を合成する際の音量の比率)を調整するための合成比率データを求め、求めた音量データ、音程データ、出力順序データ、合成比率データに基づき第1、第2の音の音データを調整してゲーム音を生成するようにしてもよい。   Further, the sound processing unit 117 performs the attack action (for example, attack direction, attack power, type of weapon used for the attack action) of the one character or parameters (for example, character type, physical strength, etc.) set for the character. May be adjusted based on at least one of the volume, pitch, output order, and synthesis ratio of the first and second sounds. That is, based on the attack action and parameters, volume data for adjusting the volume of the first and second sounds, pitch data for adjusting the pitch of the first and second sounds, the first and second sounds Output order data for adjusting the output order of sounds, synthesis ratio of first and second sounds (ratio of sound length when synthesizing first and second sounds, or first and second (Sound volume ratio when synthesizing the sound) is determined, and the sound data of the first and second sounds is adjusted based on the determined volume data, pitch data, output order data, and synthesis ratio data. Then, a game sound may be generated.

また音処理部117は、パーツ特定部116によって特定された2つのパーツオブジェクトのそれぞれに対応する第1、第2の音を、音出力部192に順次出力する処理を行うようにしてもよい。すなわち、読み出した第1、第2の音の音データの再生開始タイミングをずらして合成することによりゲーム音を生成するようにしてもよい。   In addition, the sound processing unit 117 may perform processing for sequentially outputting the first and second sounds corresponding to the two part objects specified by the part specifying unit 116 to the sound output unit 192. That is, the game sound may be generated by synthesizing the read start timings of the read sound data of the first and second sounds.

また音処理部117は、前記一方のキャラクタの攻撃動作(例えば、攻撃方向)又は前記キャラクタに設定されたパラメータ(例えば、キャラクタの種類、体力等を示すパラメータ)に基づいて、前記第1の音を出力してから前記第2の音を出力するまでの時間を調整するようにしてもよい。すなわち、前記攻撃動作やパラメータに基づき第1の音を出力してから前記第2の音を出力するまでの時間を調整するためのタイミングデータを求め、求めたタイミングデータに基づき第1、第2の音の音データの再生開始タイミングをずらして合成するようにしてもよい。   The sound processing unit 117 also performs the first sound based on the attack action (for example, attack direction) of the one character or the parameters (for example, parameters indicating the character type, physical strength, etc.) set for the character. The time from when the second sound is output until the second sound is output may be adjusted. That is, the timing data for adjusting the time from the output of the first sound to the output of the second sound based on the attacking action and the parameters is obtained, and the first and second are obtained based on the obtained timing data. The sound data may be synthesized by shifting the reproduction start timing of the sound.

また音処理部117は、前記第1の音を出力してから前記第2の音を出力するまでの間に、一方のキャラクタの攻撃動作(例えば、攻撃動作に用いられた武器)に対応する第3の音を、音出力部192に出力するようにしてもよい。すなわち上記攻撃動作に対応する第3の音を特定するための音特定データを求め、求めた音特定データに基づいて、第3の音の音データを音データ記憶部177から読み出し、読み出した第3の音の音データと、読み出した第1、第2の音の音データの再生順序が、第1の音、第3の音、第2の音の順になるように、第1、第2、第3の音の音データを合成するようにしてもよい。   The sound processing unit 117 corresponds to an attack action (for example, a weapon used for the attack action) of one character between the output of the first sound and the output of the second sound. The third sound may be output to the sound output unit 192. That is, sound specifying data for specifying the third sound corresponding to the attack action is obtained, and based on the obtained sound specifying data, the sound data of the third sound is read from the sound data storage unit 177, and the read first data is read. The sound data of the third sound and the read order of the read sound data of the first and second sounds are in the order of the first sound, the third sound, and the second sound. The sound data of the third sound may be synthesized.

また音処理部117は、前記第1、第2の音を出力する前又は出力した後に、前記一方のキャラクタの攻撃動作(例えば、攻撃動作に用いられた武器)に対応する第3の音を、音出力部192に出力するようにしてもよい。すなわち上記攻撃動作に対応する第3の音を特定するための音特定データを求め、求めた音特定データに基づいて、第3の音の音データを音データ記憶部177から読み出し、読み出した第3の音の音データと、第1、第2の音の音データの再生順序が、第3の音、第1、第2の音、或いは第1、第2の音、第3の音の順になるように、第1、第2、第3の音の音データを合成するようにしてもよい。   The sound processing unit 117 outputs a third sound corresponding to the attack action (for example, a weapon used in the attack action) of the one character before or after outputting the first and second sounds. The sound may be output to the sound output unit 192. That is, sound specifying data for specifying the third sound corresponding to the attack action is obtained, and based on the obtained sound specifying data, the sound data of the third sound is read from the sound data storage unit 177, and the read first data is read. The reproduction order of the sound data of the third sound and the sound data of the first and second sounds is the third sound, the first sound, the second sound, or the first, second sound, and third sound. You may make it synthesize | combine the sound data of a 1st, 2nd, 3rd sound so that it may become in order.

また音処理部117は、前記一方のキャラクタの攻撃動作(例えば、攻撃方向、攻撃力)又は前記キャラクタに設定されたパラメータ(例えば、キャラクタの種類、体力等を示すパラメータ)に基づいて、前記第3の音の長さ、音量及び音程の少なくとも1つを調整する。すなわち、攻撃動作やパラメータに基づいて、第3の音の長さを調整するための再生時間データ、第3の音の音量を調整するための音量データ、第3の音の音程を調整するための音程データを求め、求めた再生時間データ、音量データ、音程データに基づき第3の音の音データを調整してゲーム音を生成するようにしてもよい。   The sound processing unit 117 also performs the first action based on the attack action (for example, attack direction, attack power) of the one character or the parameters (for example, parameters indicating the character type, physical strength, etc.) set for the character. 3. Adjust at least one of the length, volume and pitch of the third sound. That is, based on the attack action and parameters, reproduction time data for adjusting the length of the third sound, volume data for adjusting the volume of the third sound, and the pitch of the third sound The game sound may be generated by adjusting the sound data of the third sound based on the obtained reproduction time data, volume data, and pitch data.

仮想カメラ制御部118は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、操作部160によりプレーヤが入力した操作データ、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータ、プログラム(移動・動作アルゴリズム)等に基づいて、ワールド座標系における仮想カメラの位置(X、Y、Z)、回転角度(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)、速度、或いは加速度を制御する処理を行う。要するに、視点位置、視線方向、画角を制御する処理を行う。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   The virtual camera control unit 118 performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, the operation data input by the player through the operation unit 160, information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112, the position (movement path) or rotation angle of the virtual camera are displayed. Based on the virtual camera data, program (movement / motion algorithm), etc. for specifying, the position (X, Y, Z) of the virtual camera in the world coordinate system, the rotation angle (for example, each axis of X, Y, Z axis) Rotation angle when rotating clockwise as viewed from the positive direction), speed, or acceleration is controlled. In short, processing for controlling the viewpoint position, the line-of-sight direction, and the angle of view is performed. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクトの各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. When generating a so-called three-dimensional game image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex is input. Then, vertex processing (shading by a vertex shader) is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、射影変換(透視変換、投影変換)、ビューポート変換(スクリーン座標変換)、光源計算等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。ジオメトリ処理後のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, projective transformation (perspective transformation) , Projection conversion), viewport conversion (screen coordinate conversion), light source calculation, and other geometric processing are performed, and based on the processing results, the vertex data given to the vertex group constituting the object is changed (updated, adjusted). To do. Object data after the geometry processing (position coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) is stored in the object data storage unit 176.

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed.

ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to a drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

そして描画部120は、オブジェクトを描画する際に、テクスチャマッピング、隠面消去処理等を行う。   The drawing unit 120 performs texture mapping, hidden surface removal processing, and the like when drawing the object.

テクスチャマッピングは、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部178からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the texture storage unit 178 of the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 178 of the storage unit 170 using the texture coordinates set (given) at the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ179(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ179に格納されるZ値を参照する。そして参照されたZバッファ179のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ179のZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing by a Z buffer method (depth comparison method, Z test) using a Z buffer 179 (depth buffer) in which a Z value (depth information) of a drawing pixel is stored may be performed. it can. That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer 179 is referred to. Then, the Z value of the referenced Z buffer 179 is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is the front side when viewed from the virtual camera (for example, a small Z value). If it is, the drawing process of the drawing pixel is performed and the Z value of the Z buffer 179 is updated to a new Z value.

なお、本実施形態のゲームシステムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用の装置にしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備える装置にしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the game system of the present embodiment may be a device dedicated to the single player mode that can be played by only one player, or may be a device that also has a multiplayer mode that can be played by a plurality of players. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。
2. Next, the method of this embodiment will be described with reference to the drawings.

2−1.ゲーム概要
図2に、本実施形態のゲーム画像の一例を示す。
2-1. Game Overview FIG. 2 shows an example of a game image of the present embodiment.

本実施形態では、操作部からの操作データに基づき複数のキャラクタに攻撃動作を行わせる。そして、複数のキャラクタを含むオブジェクト空間を仮想カメラから見た画像が生成され、ゲーム画像GIとして表示される。   In the present embodiment, a plurality of characters are caused to perform an attack action based on operation data from the operation unit. And the image which looked at the object space containing a some character from the virtual camera is produced | generated, and it displays as game image GI.

プレーヤは、操作部を操作して操作対象となるキャラクタ(図3に示すキャラクタA又はキャラクタB)に武器SDを用いた複数種類の攻撃動作を行わせることができる。例えば、攻撃方向の異なる複数の攻撃動作として、剣SDを上から下へ振り下ろす「縦斬り」、剣SDを右から左へ或いは剣SDを左から右へ振る「横斬り」、剣SDを前方へ突き出す「突き」等の攻撃動作を行わせることができる。またプレーヤは、操作部を操作してキャラクタに「立ち」、「しゃがみ」、「ジャンプ」等の姿勢をとらせることができる。なおプレーヤは、複数種類の武器(例えば西洋剣、日本刀、竹刀)からキャラクタに持たせる武器SDを選択することができる。   The player can operate the operation unit to cause the character to be operated (character A or character B shown in FIG. 3) to perform a plurality of types of attack operations using the weapon SD. For example, as a plurality of attack operations with different attack directions, “vertical slashing” in which the sword SD is swung down from top to bottom, “horizontal slashing” in which the sword SD is swung from right to left or sword SD from left to right, It is possible to perform an attacking action such as a “protrusion” projecting forward. Further, the player can operate the operation unit to cause the character to take a posture such as “standing”, “squatting”, and “jumping”. Note that the player can select a weapon SD to be given to the character from a plurality of types of weapons (for example, Western sword, Japanese sword, bamboo sword).

2−2.第1、第2のパーツオブジェクトの特定
図3に示すように、本実施形態のキャラクタ(ここでは、図2に示すキャラクタAの例)は、それぞれ頭、腕、胴、足などを表す複数のパーツオブジェクトPOにより構成される。そして本実施形態では、一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたと判断した場合に、一方のキャラクタの攻撃動作の種類(攻撃方向)と他方のキャラクタ(攻撃を受けるキャラクタ)の姿勢とに基づいて、他方のキャラクタを構成する複数のパーツオブジェクトPOのうち第1、第2のパーツオブジェクト(2つのパーツオブジェクト)を特定する。
2-2. Identification of First and Second Part Objects As shown in FIG. 3, the character of the present embodiment (here, the example of the character A shown in FIG. 2) has a plurality of parts representing the head, arms, torso, legs, etc. It is composed of a part object PO. In this embodiment, when it is determined that the attack by the attack action of one character hits the other character, the type of attack action (attack direction) of one character and the other character (character subjected to attack) Based on the posture, the first and second part objects (two part objects) are specified among the plurality of part objects PO constituting the other character.

図4は、パーツオブジェクトを特定する際に参照するテーブルの一例である。   FIG. 4 is an example of a table referred to when specifying a part object.

本実施形態では、図4に示すパーツ特定テーブル200を参照して、一方のキャラクタの攻撃方向210と他方のキャラクタの姿勢220に対応する他方のキャラクタの第1のパーツ230及び第2のパーツ240を特定する。   In the present embodiment, referring to the part identification table 200 shown in FIG. 4, the first part 230 and the second part 240 of the other character corresponding to the attack direction 210 of one character and the posture 220 of the other character. Is identified.

ここで、第1のパーツ230には、一方のキャラクタが武器を用いた攻撃動作を他方のキャラクタに対して行った場合の、当該武器が最初に接触する位置にあるパーツオブジェクトが規定され、第2のパーツ240には、当該武器が他方のキャラクタの体から抜ける位置にあるパーツオブジェクトが規定されている。   Here, in the first part 230, when one character performs an attack action using a weapon against the other character, a part object at a position where the weapon first comes into contact is defined. The second part 240 defines a part object in which the weapon is at a position where it can escape from the body of the other character.

例えば、一方のキャラクタの攻撃行動の攻撃方向210が「縦斬り」であり、他方のキャラクタ(ここではキャラクタAの例)の姿勢220が「立ち」である場合には、当該攻撃動作による武器の移動軌跡は、図5(A)に示すようになるため、他方のキャラクタを構成する複数のパーツオブジェクトのうち、武器が最初に接触する位置にある「頭」のパーツオブジェクトが第1のパーツ230として規定され、武器が抜ける位置にある「右足」のパーツオブジェクトが第2のパーツ240として規定されている。   For example, when the attack direction 210 of one character's attack action is “vertical slash” and the posture 220 of the other character (in this case, the character A) is “standing”, Since the movement trajectory is as shown in FIG. 5A, among the plurality of part objects constituting the other character, the “head” part object at the position where the weapon first contacts is the first part 230. The “right foot” part object at the position where the weapon is removed is defined as the second part 240.

また、攻撃方向210が「右から左への横切り」であり、姿勢220が「立ち」である場合には、当該攻撃動作による武器の移動軌跡は、図5(B)に示すようになるため、武器が最初に接触する位置にある「左胴」のパーツオブジェクトが第1のパーツ230として規定され、武器が抜ける位置にある「右胴」のパーツオブジェクトが第2のパーツ240として規定されている。   Further, when the attack direction 210 is “crossing from right to left” and the posture 220 is “standing”, the movement trajectory of the weapon by the attack action is as shown in FIG. The “left torso” part object at the position where the weapon first contacts is defined as the first part 230, and the “right torso” part object at the position where the weapon is removed is defined as the second part 240. Yes.

また、攻撃方向210が「右から左への横切り」であり、姿勢220が「しゃがみ」である場合には、当該攻撃動作による武器の移動軌跡は、図5(C)に示すようになるため、武器が最初に接触する位置にある「左腕」のパーツオブジェクトが第1のパーツ230として規定され、武器が抜ける位置にある「右腕」のパーツオブジェクトが第2のパーツ240として規定されている。   When the attack direction 210 is “crossing from right to left” and the posture 220 is “squatting”, the movement trajectory of the weapon by the attack action is as shown in FIG. The “left arm” part object at the position where the weapon first comes in contact is defined as the first part 230, and the “right arm” part object at the position where the weapon comes out is defined as the second part 240.

このように本実施形態によれば、一方のキャラクタの攻撃方向と他方のキャラクタの姿勢に対応付けて、武器が接触する位置にある第1のパーツオブジェクトと武器が体から抜ける位置にある第2のパーツオブジェクトを予め規定しておくことで、武器の移動軌跡と各パーツオブジェクトとのヒットチェック処理をその都度行うことなく、攻撃動作と姿勢に応じた前記第1、第2のパーツオブジェクトを簡単な処理で特定することができる。   As described above, according to the present embodiment, the first part object at the position where the weapon comes in contact with the attack direction of the one character and the posture of the other character and the second position at which the weapon comes out of the body. By pre-defining the parts object, the first and second part objects corresponding to the attack action and posture can be simplified without performing the hit check process between the weapon movement trajectory and each part object each time. Can be identified by simple processing.

2−3.第1、第2の音の特定
図6、図7は、第1、第2の音を特定する際に参照するテーブルの一例である。
2-3. Identification of First and Second Sounds FIGS. 6 and 7 are examples of tables that are referred to when identifying the first and second sounds.

本実施形態では、特定された第1、第2のパーツオブジェクトのそれぞれに対応する第1、第2の音を特定して順次出力する。   In the present embodiment, the first and second sounds corresponding to the specified first and second part objects are specified and sequentially output.

図6に示す素材特定テーブル300は、各キャラクタ310の複数のパーツ320のそれぞれに対応する素材330を規定する。例えば、鎧や兜を表す(鎧や兜を着けた)パーツオブジェクトについては素材330として「金属」が規定され、布地を表すパーツオブジェクトについては素材として「布」が規定され、素肌を表すパーツオブジェクトについては素材として「素肌」が規定され、甲羅を表すパーツオブジェクトについては素材として「甲羅」が規定されている。   The material specifying table 300 shown in FIG. 6 defines a material 330 corresponding to each of the plurality of parts 320 of each character 310. For example, for a part object that represents armor or helmet (with armor or helmet), “metal” is defined as the material 330, and for a part object that represents fabric, “cloth” is defined as the material, and a part object that represents bare skin Is defined as “raw skin” as a material, and “shell” is defined as a material for a part object representing a shell.

図7に示す音特定テーブル400は、パーツオブジェクトの各素材410に対応する第1、第2の音を特定するための第1、第2の音データ420、430を規定する。ここで、第1の音データ420には、武器が第1のパーツオブジェクトに接触するときに発生する音であって、当該パーツオブジェクトの素材に応じた音が規定され、第2の音データ430には、武器が第2のパーツオブジェクトから抜けるときに発生する音であって、当該パーツオブジェクトの素材に応じた音が規定されている。   The sound specification table 400 shown in FIG. 7 defines first and second sound data 420 and 430 for specifying the first and second sounds corresponding to each material 410 of the part object. Here, the first sound data 420 is a sound generated when the weapon contacts the first part object, and a sound corresponding to the material of the part object is defined. Defines a sound that is generated when the weapon comes out of the second part object and that corresponds to the material of the part object.

本実施形態では、図6に示す素材特定テーブル300を参照して、第1のパーツオブジェクト320に対応する素材300を特定し、次に図7に示す音特定テーブル400を参照して、特定された素材410に対応する第1の音データ420を特定する。同様に図6に示す素材特定テーブル300を参照して、第2のパーツオブジェクト320に対応する素材300を特定し、次に図7に示す音特定テーブル400を参照して、特定された素材410に対応する第2の音データ430を特定する。   In the present embodiment, the material specifying table 300 shown in FIG. 6 is referred to, the material 300 corresponding to the first part object 320 is specified, and then the sound specifying table 400 shown in FIG. 7 is specified. The first sound data 420 corresponding to the selected material 410 is specified. Similarly, the material specifying table 300 shown in FIG. 6 is referred to, the material 300 corresponding to the second part object 320 is specified, and then the specified material 410 is specified referring to the sound specifying table 400 shown in FIG. 2nd sound data 430 corresponding to is specified.

例えば、図5(A)に示す場合についてみると、第1のパーツオブジェクトとして特定された「頭」に対応する素材300として「金属」を特定し、素材「金属」に対応する第1の音データ420として、武器が金属に接触するときに発生する音「S1−1」を特定する。同様に、第2のパーツオブジェクトとして特定された「右足」に対応する素材300として「素肌」を特定し、素材「素肌」に対応する第2の音データ430として、武器が素肌から抜けてくるときに発生する音「S2−3」を特定する。   For example, in the case shown in FIG. 5A, “metal” is identified as the material 300 corresponding to the “head” identified as the first part object, and the first sound corresponding to the material “metal” is identified. As data 420, the sound “S1-1” generated when the weapon comes into contact with metal is specified. Similarly, “skin” is specified as the material 300 corresponding to the “right foot” specified as the second part object, and the weapon comes out of the skin as the second sound data 430 corresponding to the material “skin”. The sound “S2-3” that is sometimes generated is specified.

このように本実施形態によれば、武器が接触する位置にあるパーツオブジェクトの素材に応じた第1の音と、武器が抜ける位置にあるパーツオブジェクトの素材に応じた第2の音とを簡単な処理で特定して出力することができる。   Thus, according to the present embodiment, the first sound according to the material of the part object at the position where the weapon comes into contact and the second sound according to the material of the part object at the position where the weapon comes off can be easily obtained. Can be specified and output by simple processing.

2−4.第3の音の特定
図8は、第3の音を特定する際に参照するテーブルの一例である。
2-4. Specifying Third Sound FIG. 8 is an example of a table referred to when specifying the third sound.

本実施形態では、一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたと判断した場合に、図8に示す音特定テーブル500を参照して、当該攻撃動作に用いられた武器510に対応する第3の音データ520を特定して出力する。ここで第3の音データ520には、各武器が他のキャラクタ通過するときに発生する音(武器自体のヒット音)が規定されている。   In this embodiment, when it is determined that an attack by the attack action of one character hits the other character, the sound identification table 500 shown in FIG. 8 is referred to correspond to the weapon 510 used in the attack action. The third sound data 520 to be specified is specified and output. Here, the third sound data 520 defines a sound (a hit sound of the weapon itself) generated when each weapon passes through another character.

2−5.第1、第2、第3の音の出力
図9(A)、図9(B)は、第1、第2、第3の音を順次出力する場合のタイムチャートの一例を示す図である。
2-5. Output of First, Second, and Third Sounds FIGS. 9A and 9B are diagrams illustrating an example of a time chart when the first, second, and third sounds are sequentially output. .

本実施形態では、第1、第2、第3の音データ(波形データ)を音データ記憶部177から読み出し、読み出した第1、第2、第3の音データを、図9(A)、図9(B)に示すように、第1の音、第3の音、第2の音の順で、3つのチャンネル(ch1、ch2、ch3)から再生タイミングをずらして順次再生し、3つのチャンネルから再生された音を合成(ミキシング)して出力する処理を行う。   In the present embodiment, the first, second, and third sound data (waveform data) is read from the sound data storage unit 177, and the read first, second, and third sound data are shown in FIG. As shown in FIG. 9B, the first sound, the third sound, and the second sound are sequentially reproduced from the three channels (ch1, ch2, and ch3) while shifting the reproduction timing. Performs processing to synthesize (mix) the sound reproduced from the channel and output it.

すなわち一方のキャラクタの武器を用いた攻撃が他方のキャラクタにヒットした場合に、当該武器が他方のキャラクタのパーツに接触するときに発生する音(第1の音)、当該武器が他方のキャラクタを通過するときに発生する音(第3の音)、当該武器が他方のキャラクタのパーツから抜けるときに発生する音(第2の音)をずらしながら順次再生する。   That is, when an attack using the weapon of one character hits the other character, the sound (first sound) that is generated when the weapon comes in contact with the other character's parts, The sound (third sound) generated when passing through and the sound (second sound) generated when the weapon comes out of the other character's part are sequentially reproduced while being shifted.

このように本実施形態によれば、一方のキャラクタの攻撃方向と他方のキャラクタの姿勢、及び他方のキャラクタのパーツの素材に基づき特定される第1、第2の音と、武器の種類によって特定される第3の音の組み合わせにより攻撃時の音を表現することができ、攻撃時の音のバリエーションを増やすことができる。   As described above, according to the present embodiment, the first and second sounds specified based on the attack direction of one character, the posture of the other character, and the material of the parts of the other character, and the type of weapon are specified. The sound at the time of attack can be expressed by the combination of the 3rd sound to be performed, and the variation of the sound at the time of attack can be increased.

なお、本実施形態では、一方のキャラクタの攻撃動作の種類(攻撃方向)に基づいて、第1の音を出力(再生)し始めてから第2の音を出力するまでの時間T1と、第3の音の長さT2(第3の音を出力し始めてから音量を低下させる(フェードアウトさせる)までの時間)とを調整する。   In the present embodiment, based on the attack action type (attack direction) of one character, the time T1 from when the first sound starts to be output (played back) until the second sound is output, and the third The sound length T2 (the time from the start of outputting the third sound until the volume is lowered (fade out)) is adjusted.

すなわち、一方のキャラクタの攻撃方向が「縦斬り」である場合には、武器が他方のキャラクタを通過する時間(武器がキャラクタに接触してから抜けるまでの時間)が長くなる(図5(A)参照)ため、図9(A)に示すように、第2の音を出力する時間T1と第3の音の長さT2が長くなるように調整している。また、一方のキャラクタの攻撃方向が「横斬り」である場合には、武器が他方のキャラクタを通過する時間が短くなる(図5(B)参照)ため、図9(B)に示すように第2の音を出力する時間T1と第3の音の長さT2が「縦斬り」の場合と比較して短くなるように調整している。   That is, when the attack direction of one character is “vertical cut”, the time for the weapon to pass through the other character (the time from when the weapon comes into contact with the character until it comes off) becomes longer (FIG. 5A). Therefore, as shown in FIG. 9A, the time T1 for outputting the second sound and the length T2 of the third sound are adjusted to be longer. Also, when the attack direction of one character is “horizontal slash”, the time for the weapon to pass through the other character is shortened (see FIG. 5B), so as shown in FIG. 9B. The time T1 for outputting the second sound and the length T2 of the third sound are adjusted to be shorter than in the case of “vertical cutting”.

また、一方又は他方のキャラクタに設定されたパラメータに基づき第2の音を出力する時間T1と第3の音の長さT2とを調整するようにしてもよい。例えば攻撃動作を行った一方のキャラクタに設定された体力値が大きいほど、或いは攻撃を受けた他方のキャラクタに設定された体力値が小さいほど、時間T1と長さT2とが長くなるように調整するようにしてもよい。   Also, the time T1 for outputting the second sound and the length T2 of the third sound may be adjusted based on the parameters set for one or the other character. For example, the time T1 and the length T2 are adjusted to be longer as the stamina value set for one of the attacking characters is larger or as the stamina value set for the other character under attack is smaller. You may make it do.

このようにすると、一方のキャラクタの攻撃方向や各キャラクタに設定されたパラメータに応じて、攻撃時に発生させる音全体の長さ(第1の音を出力し始めてから第2の音を出力し終わるまでの時間)を変化させることができる。   In this way, according to the attack direction of one character and the parameters set for each character, the total length of the sound generated at the time of attack (after the first sound starts to be output and the second sound is finished to be output) Time).

2−6.第1、第2、第3の音の調整
本実施形態では、一方のキャラクタの攻撃動作(攻撃力)に基づいて第1、第2、第3の音の音量を調整して出力している。
2-6. Adjustment of the first, second, and third sounds In this embodiment, the volume of the first, second, and third sounds is adjusted and output based on the attack action (attack power) of one character. .

図10は、一方のキャラクタの攻撃力と、第1、第2、第3の音の音量との関係を示す図である。図10に示すように、本実施形態では、一方のキャラクタの攻撃力(例えば、キャラクタやキャラクタの持つ武器に対応付けて設定されるゲームパラメータの値)が大きいほど第1、第2、第3の音の音量が大きくなるように調節している。また一方のキャラクタの攻撃動作によって他方のキャラクタの受けるダメージ量を求め、求めたダメージ量が大きいほど第1、第2、第3の音の音量が大きくなるように調節してもよい。また、一方のキャラクタの体力値が大きいほど、或いは他方のキャラクタの体力値が小さいほど、第1、第2、第3の音の音量が大きくなるように調節してもよい。   FIG. 10 is a diagram illustrating the relationship between the attack power of one character and the volume of the first, second, and third sounds. As shown in FIG. 10, in the present embodiment, the first, second, and third are increased as the attack power of one character (for example, the value of the game parameter set in association with the character or the weapon possessed by the character) increases. The volume of the sound is adjusted to be loud. Further, the amount of damage received by the other character by the attacking action of one character may be obtained, and the volume of the first, second, and third sounds may be adjusted to increase as the obtained amount of damage increases. Further, the volume of the first, second, and third sounds may be adjusted to increase as the physical strength value of one character is larger or the physical strength value of the other character is smaller.

また本実施形態では、一方のキャラクタの攻撃動作(攻撃力、攻撃方向)に基づいて第1、第2、第3の音の音程を調整して出力している。   In this embodiment, the pitches of the first, second, and third sounds are adjusted and output based on the attack action (attack power, attack direction) of one character.

図11(A)は、一方のキャラクタの攻撃方向が「縦斬り」である場合の、第1、第2、第3の音の音程の変化の一例を示す図である。また、図11(B)は、一方のキャラクタの攻撃方向が「横斬り」である場合の、第1、第2、第3の音の音程の変化を示す図である。図11(A)、図11(B)において、実線は攻撃力が「50」である場合の各音の音程の変化を示し、破線は攻撃力が「10」である場合の各音の音程の変化を示す。   FIG. 11A is a diagram illustrating an example of changes in the pitches of the first, second, and third sounds when the attack direction of one character is “vertical cut”. FIG. 11B is a diagram showing changes in the pitch of the first, second, and third sounds when the attack direction of one character is “horizontal cut”. In FIGS. 11A and 11B, the solid line indicates the change in the pitch of each sound when the attack power is “50”, and the broken line indicates the pitch of each sound when the attack power is “10”. Shows changes.

図11(A)、図11(B)に示すように、本実施形態では、一方のキャラクタの攻撃力が大きいほど第1、第2、第3の音の音程の変化(ピッチ変化)が大きくなるように調節している。また一方のキャラクタの攻撃方向が「縦斬り」である場合の方が「横斬り」である場合に比べて音程の変化が大きくなるように調整している。また、一方のキャラクタの体力値が大きいほど、或いは他方のキャラクタの体力値が小さいほど、第1、第2、第3の音の音程の変化が大きくなるように調節してもよい。   As shown in FIGS. 11 (A) and 11 (B), in this embodiment, the greater the attack power of one character, the greater the change in pitch (pitch change) of the first, second, and third sounds. It is adjusted so that In addition, adjustment is made so that the pitch change is greater when the attack direction of one character is “vertical cut” than when “cutting horizontal”. Further, the adjustment may be performed such that the change in the pitch of the first, second, and third sounds increases as the physical strength value of one character increases or the physical strength value of the other character decreases.

このように本実施形態によれば、一方のキャラクタの攻撃力や攻撃方向、各キャラクタに設定されたパラメータによって基本となる音(第1、第2、第3の音)の音量や音程を調節することにより、音データ用の記憶領域を増大させることなく、攻撃時の音のバリエーションを増やすことができる。   Thus, according to this embodiment, the volume and pitch of the basic sound (first, second, and third sounds) are adjusted according to the attack power and attack direction of one character and the parameters set for each character. By doing so, the variation of the sound at the time of attack can be increased, without increasing the storage area for sound data.

3.本実施形態の処理
次に、本実施形態の処理の一例について図12のフローチャートを用いて説明する。
3. Processing of this Embodiment Next, an example of processing of this embodiment will be described using the flowchart of FIG.

まず、移動・動作処理部112は、操作部160からの操作データに基づきキャラクタに武器を用いた複数種類の攻撃動作を行わせ、或いは特定の姿勢をとらせる動作演算を行う(ステップS10)。   First, the movement / motion processing unit 112 performs a motion calculation for causing a character to perform a plurality of types of attack motions using weapons or to take a specific posture based on operation data from the operation unit 160 (step S10).

次に、ヒット判断部114は、移動・動作処理部112により求められた、キャラクタの位置と一方のキャラクタの攻撃動作の種類(攻撃方向)と他方のキャラクタの姿勢とに基づいて、一方のキャラクタの攻撃が他方のキャラクタにヒットしたか否かを判断する(ステップS12)。   Next, based on the character position, the type of attack action (attack direction) of one character, and the posture of the other character, the hit determination unit 114 determines one character. It is determined whether or not the other character hits the other attack (step S12).

ステップS12の処理においてヒットしたと判断された場合には、パーツ特定部116は、移動・動作処理部112により求められた、一方のキャラクタの攻撃方向と他方のキャラクタの姿勢とに基づいて、他方のキャラクタを構成する複数のパーツオブジェクトのうち、第1、第2のパーツオブジェクトを特定する(ステップS14)。   If it is determined in step S12 that the hit has been made, the parts identification unit 116 determines the other character based on the attack direction of one character and the posture of the other character obtained by the movement / motion processing unit 112. Among the plurality of part objects constituting the character, the first and second part objects are specified (step S14).

次に、音処理部116は、第1、第2のパーツオブジェクトの素材(属性データ)に対応する第1、第2の音を特定し(ステップS16)、一方のキャラクタの攻撃動作に用いられた武器に対応する第3の音を特定する(ステップS18)。   Next, the sound processing unit 116 identifies the first and second sounds corresponding to the material (attribute data) of the first and second part objects (step S16), and is used for the attack action of one character. The third sound corresponding to the selected weapon is identified (step S18).

次に、音処理部116は、一方のキャラクタの攻撃方向に基づいて、第2の音を出力するタイミング(第1の音を出力し始めてから第2の音を出力するまでの時間)を決定する(ステップS20)。   Next, the sound processing unit 116 determines the timing of outputting the second sound (the time from the start of outputting the first sound until the output of the second sound) based on the attack direction of one character. (Step S20).

次に、音処理部116は、一方のキャラクタの攻撃方向、攻撃力に基づき第1の音の音量、音程の変化を求め、求めた音量、音程の変化に従って第1の音を調整して出力する(ステップS22)。   Next, the sound processing unit 116 obtains a change in volume and pitch of the first sound based on the attack direction and attack power of one character, and adjusts and outputs the first sound according to the obtained change in volume and pitch. (Step S22).

次に、音処理部116は、一方のキャラクタの攻撃方向、攻撃力に基づき第3の音の長さ、音量、音程の変化を求め、第1の音の出力を開始してから所定フレーム後に、求めた音の長さ、音量、音程の変化に従って第3の音を調整して出力する(ステップS24)。   Next, the sound processing unit 116 obtains a change in the length, volume, and pitch of the third sound based on the attack direction and attack power of one character, and after a predetermined frame from the start of the output of the first sound. Then, the third sound is adjusted and output in accordance with the obtained sound length, volume, and pitch change (step S24).

次に、音処理部116は、一方のキャラクタの攻撃方向、攻撃力に基づき第2の音の音量、音程の変化を求め、ステップS20の処理で決定されたタイミングで、求めた音量、音程の変化に従って第2の音を調節して出力する(ステップS26)。   Next, the sound processing unit 116 obtains a change in volume and pitch of the second sound based on the attack direction and attack power of one character, and at the timing determined in the process of step S20, The second sound is adjusted and output according to the change (step S26).

4.変形例
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
4). Modifications The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

例えば、本実施形態では、一方のキャラクタの攻撃動作に基づき他方のキャラクタの2つのパーツオブジェクトを特定する場合について説明したが、一方のキャラクタの攻撃動作に基づき他方のキャラクタの1つのパーツオブジェクトを特定して、特定された1つのパーツオブジェクトに対応する第1、第2の音を出力するようにしてもよい。   For example, in this embodiment, the case where two part objects of the other character are specified based on the attack action of one character has been described. However, one part object of the other character is specified based on the attack action of one character. Then, the first and second sounds corresponding to one specified part object may be output.

すなわち、一方のキャラクタの武器を用いた攻撃動作と他方のキャラクタの姿勢に基づいて、当該武器が最初に接触する位置にあるパーツオブジェクト、或いは当該武器が他方のキャラクタの体から抜ける位置にあるパーツオブジェクトを特定する。   That is, based on the attack action using the weapon of one character and the posture of the other character, the part object at the position where the weapon first contacts, or the part at the position where the weapon comes out of the body of the other character Identify the object.

そして、図13(A)に示すような素材特定テーブル600を参照して、特定されたパーツオブジェクト620に対応する2つの素材630を特定する。ここでは「右腕」のパーツオブジェクトに対応する2つの素材として、「金属」と「布」の2つの素材が規定されており、例えば、当該パーツオブジェクトが布地の服の上に金属製の鎧を重ね着した状態であることを示している。   Then, with reference to the material specifying table 600 as shown in FIG. 13A, two materials 630 corresponding to the specified part object 620 are specified. Here, two materials, “metal” and “cloth”, are defined as two materials corresponding to the “right arm” part object. For example, the part object has a metal armor on the cloth clothes. It shows that it is in a layered state.

そして、図13(B)に示すような音特定テーブル700を参照して、特定された2つの素材710それぞれに対応する2つの音データ720を第1、第2の音として特定する。例えば、「右腕」のパーツオブジェクトが特定された場合には、このパーツオブジェクトに対応する2つの素材「金属」、「布」のそれぞれに対応する第1、第2の音データ「S1」、「S2」を特定する。そして本実施形態で説明した手法と同様に、第3の音データを特定する。   Then, with reference to the sound specification table 700 as shown in FIG. 13B, the two sound data 720 corresponding to the two specified materials 710 are specified as the first and second sounds. For example, when the part object of “right arm” is specified, the first and second sound data “S1”, “S” corresponding to each of the two materials “metal” and “cloth” corresponding to the part object are specified. S2 "is specified. And the 3rd sound data are specified similarly to the method demonstrated by this embodiment.

そして、特定された第1、第2、第3の音データを音データ記憶部177から読み出し、読み出した第1、第2、第3の音データを、図14(A)に示すように、第3の音、第1の音、第2の音の順で、3つのチャンネルから再生タイミングをずらして順次再生し、3つのチャンネルから再生された音を合成して出力する。また図14(B)に示すように、第1の音、第2の音、第3の音の順で順次再生して合成するようにしてもよい。   Then, the identified first, second, and third sound data are read from the sound data storage unit 177, and the read first, second, and third sound data are shown in FIG. The third sound, the first sound, and the second sound are sequentially reproduced with the reproduction timing shifted from the three channels, and the sounds reproduced from the three channels are synthesized and output. Further, as shown in FIG. 14B, the first sound, the second sound, and the third sound may be sequentially reproduced and synthesized.

ここで、一方のキャラクタの攻撃動作又はキャラクタに設定されたパラメータ(例えば体力値)に基づいて、第1、第2の音の出力順序や、第1、第2の音の合成比率(第1、2の音の長さの比率、第1、第2の音の音量の比率)を調整するようにしてもよい。例えば、図14(C)に示すように、攻撃を行った一方のキャラクタの体力値や攻撃力が大きいほど、第1の音(例えば鎧の音)の長さT3に対する第2の音(例えば布地の音)の長さT4の比率(T4/T3)が大きくなるように、或いは第1の音の音量V1に対する第2の音の音量V2の比率(V2/V1)が大きくなるように調整してもよい。このようにすると、一方のキャラクタの攻撃力等が大きいことにより、一方のキャラクタの持つ武器が他方のキャラクタの鎧を突き破って布地の服に到達したことを音により表現することができる。   Here, based on the attack action of one character or a parameter (for example, physical strength value) set for the character, the output order of the first and second sounds and the synthesis ratio of the first and second sounds (first The ratio of the lengths of the two sounds and the ratio of the volume of the first and second sounds may be adjusted. For example, as shown in FIG. 14C, as the physical strength value or attack power of one character that has made an attack increases, the second sound (for example, armor sound) with respect to the length T3 of the first sound (for example, armor sound) The ratio (T4 / T3) of the length (T4) of the fabric sound) is increased, or the ratio (V2 / V1) of the volume V2 of the second sound to the volume V1 of the first sound is increased. May be. In this way, it is possible to express by sound that the weapon possessed by one character has penetrated the armor of the other character and arrived at the clothing of the fabric due to the high attack power or the like of one character.

本実施形態のゲームシステムの機能ブロックの一例を示す図。The figure which shows an example of the functional block of the game system of this embodiment. 本実施形態のゲーム画像の一例を示す図。The figure which shows an example of the game image of this embodiment. 本実施形態のパーツオブジェクトの一例を示す図。The figure which shows an example of the part object of this embodiment. パーツオブジェクトを特定する際に参照するテーブルの一例を示す図。The figure which shows an example of the table referred when specifying a part object. 図5(A)、図5(B)、図5(C)は、一方のキャラクタの攻撃方向と他方のキャラクタの姿勢について説明するための図。FIG. 5A, FIG. 5B, and FIG. 5C are diagrams for explaining the attack direction of one character and the posture of the other character. 第1、第2の音を特定する際に参照するテーブルの一例を示す図。The figure which shows an example of the table referred when specifying the 1st, 2nd sound. 第1、第2の音を特定する際に参照するテーブルの一例を示す図。The figure which shows an example of the table referred when specifying the 1st, 2nd sound. 第3の音を特定する際に参照するテーブルの一例を示す図。The figure which shows an example of the table referred when specifying a 3rd sound. 図9(A)、図9(B)は、第1、第2、第3の音を順次出力する場合のタイムチャートの一例を示す図。FIGS. 9A and 9B are diagrams showing examples of time charts in the case where the first, second, and third sounds are sequentially output. 一方のキャラクタの攻撃力と、第2、第3の音の音量との関係を示す図。The figure which shows the relationship between the attack power of one character, and the volume of the 2nd, 3rd sound. 図11(A)、図11(B)は、第1、第2、第3の音の音程の変化の一例を示す図。FIG. 11A and FIG. 11B are diagrams showing an example of changes in the pitch of the first, second, and third sounds. 本実施形態の処理の一例を示すフローチャート図。The flowchart figure which shows an example of the process of this embodiment. 図13(A)、図13(B)は、変形例について説明するための図。FIG. 13A and FIG. 13B are diagrams for describing a modification. 図14(A)、図14(B)、図14(C)は、変形例について説明するための図。FIG. 14A, FIG. 14B, and FIG. 14C are diagrams for describing a modification.

符号の説明Explanation of symbols

100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部(動作演算部)、114 ヒット判断部、116 パーツ特定部、117 音処理部、118 仮想カメラ制御部、120 描画部、160 操作部、170 記憶部、180 情報記憶媒体、190 表示部、192 音出力部、196 通信部 100 processing unit, 110 object space setting unit, 112 movement / motion processing unit (motion calculation unit), 114 hit determination unit, 116 part identification unit, 117 sound processing unit, 118 virtual camera control unit, 120 drawing unit, 160 operation unit , 170 storage unit, 180 information storage medium, 190 display unit, 192 sound output unit, 196 communication unit

Claims (10)

複数のキャラクタが互いに攻撃動作を行うゲームのためのプログラムであって、
キャラクタに複数種類の攻撃動作を行わせる動作演算を行う動作演算部と、
一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたか否かを判断するヒット判断部と、
前記ヒット判断部によってヒットしたと判断された場合に、前記一方のキャラクタの攻撃動作に基づいて、前記他方のキャラクタを構成する複数のパーツオブジェクトのうち、少なくとも1つのパーツオブジェクトを特定するパーツ特定部と、
前記特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を出力するための処理を行う音処理部としてコンピュータを機能させることを特徴とするプログラム。
A program for a game in which a plurality of characters attack each other,
A motion calculation unit for performing a motion calculation to cause a character to perform a plurality of types of attack motions;
A hit determination unit that determines whether an attack by the attack action of one character hits the other character;
A part identifying unit that identifies at least one part object among a plurality of part objects constituting the other character based on the attack action of the one character when it is determined by the hit determining unit When,
A program that causes a computer to function as a sound processing unit that performs processing for outputting first and second sounds corresponding to at least one identified part object.
請求項1において、
前記音処理部は、
前記一方のキャラクタの攻撃動作又は前記キャラクタに設定されたパラメータに基づいて、前記第1、第2の音の音量、音程、出力順序及び合成比率の少なくとも1つを調整することを特徴とするプログラム。
In claim 1,
The sound processing unit
A program that adjusts at least one of a volume, a pitch, an output order, and a composition ratio of the first and second sounds based on an attack action of the one character or a parameter set for the character. .
請求項1又は2において、
前記パーツ特定部は、
前記一方のキャラクタの攻撃動作と前記他方のキャラクタの姿勢とに基づいて、前記少なくとも1つのパーツオブジェクトを特定することを特徴とするプログラム。
In claim 1 or 2,
The parts identification part is
A program for specifying the at least one part object based on an attack action of the one character and a posture of the other character.
請求項1乃至3のいずれかにおいて
前記パーツ特定部は、
前記一方のキャラクタの攻撃動作に基づいて、前記他方のキャラクタを構成する複数のパーツオブジェクトのうち、2つのパーツオブジェクトを特定し、
前記音処理部は、
前記特定された2つのパーツオブジェクトのそれぞれに対応する第1、第2の音を順次出力するための処理を行うことを特徴とするプログラム。
In any one of Claim 1 thru | or 3, The said part specific | specification part is
Based on the attacking action of the one character, specify two part objects among a plurality of part objects constituting the other character,
The sound processing unit
A program for performing processing for sequentially outputting first and second sounds corresponding to each of the two specified part objects.
請求項4において、
前記音処理部は、
前記一方のキャラクタの攻撃動作又は前記キャラクタに設定されたパラメータに基づいて、前記第1の音を出力してから前記第2の音を出力するまでの時間を調整することを特徴とするプログラム。
In claim 4,
The sound processing unit
A program for adjusting a time from when the first sound is output to when the second sound is output based on an attack action of the one character or a parameter set for the character.
請求項4又は5において、
前記音処理部は、
前記第1の音を出力してから前記第2の音を出力するまでの間に、前記一方のキャラクタの攻撃動作に対応する第3の音を出力するための処理を行うことを特徴とするプログラム。
In claim 4 or 5,
The sound processing unit
A process for outputting a third sound corresponding to the attack action of the one character is performed between the output of the first sound and the output of the second sound. program.
請求項1乃至3のいずれかにおいて、
前記音処理部は、
前記第1、第2の音を出力する前又は出力した後に、前記一方のキャラクタの攻撃動作に対応する第3の音を出力するための処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 3,
The sound processing unit
A program for performing a process for outputting a third sound corresponding to the attack action of the one character before or after outputting the first and second sounds.
請求項6又は7において、
前記音処理部は、
前記一方のキャラクタの攻撃動作又は前記キャラクタに設定されたパラメータに基づいて、前記第3の音の長さ、音量及び音程の少なくとも1つを調整することを特徴とするプログラム。
In claim 6 or 7,
The sound processing unit
A program that adjusts at least one of the length, volume, and pitch of the third sound based on an attack action of the one character or a parameter set for the character.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至8のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 8 is stored. 複数のキャラクタが互いに攻撃動作を行うゲームのためのゲームシステムであって、
キャラクタに複数種類の攻撃動作を行わせる動作演算を行う動作演算部と、
一方のキャラクタの攻撃動作による攻撃が他方のキャラクタにヒットしたか否かを判断するヒット判断部と、
前記ヒット判断部によってヒットしたと判断された場合に、前記一方のキャラクタの攻撃動作に基づいて、前記他方のキャラクタを構成する複数のパーツオブジェクトのうち、少なくとも1つのパーツオブジェクトを特定するパーツ特定部と、
前記特定された少なくとも1つのパーツオブジェクトに対応する第1、第2の音を出力するための処理を行う音処理部とを含むことを特徴とするゲームシステム。
A game system for a game in which a plurality of characters attack each other,
A motion calculation unit for performing a motion calculation to cause a character to perform a plurality of types of attack motions;
A hit determination unit that determines whether an attack by the attack action of one character hits the other character;
A part identifying unit that identifies at least one part object among a plurality of part objects constituting the other character based on the attack action of the one character when it is determined by the hit determining unit When,
And a sound processing unit that performs processing for outputting first and second sounds corresponding to the specified at least one part object.
JP2008193668A 2008-07-28 2008-07-28 Game system, program, and information storage medium Withdrawn JP2010029375A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008193668A JP2010029375A (en) 2008-07-28 2008-07-28 Game system, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008193668A JP2010029375A (en) 2008-07-28 2008-07-28 Game system, program, and information storage medium

Publications (1)

Publication Number Publication Date
JP2010029375A true JP2010029375A (en) 2010-02-12

Family

ID=41734583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008193668A Withdrawn JP2010029375A (en) 2008-07-28 2008-07-28 Game system, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP2010029375A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012811A (en) * 2011-06-28 2013-01-17 Square Enix Co Ltd Proximity passage sound generation device
JP2015039489A (en) * 2013-08-21 2015-03-02 株式会社三共 Game machine
WO2015198646A1 (en) * 2014-06-25 2015-12-30 株式会社カプコン Game device, sound effect processing method, and recording medium
JP2016135254A (en) * 2016-02-03 2016-07-28 株式会社カプコン Sound effect processing program and game device
JP2018143479A (en) * 2017-03-06 2018-09-20 株式会社カプコン Game program and game system
CN115937364A (en) * 2022-12-12 2023-04-07 网易(杭州)网络有限公司 Processing method, device, storage medium and electronic equipment of interactive animation

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012811A (en) * 2011-06-28 2013-01-17 Square Enix Co Ltd Proximity passage sound generation device
JP2015039489A (en) * 2013-08-21 2015-03-02 株式会社三共 Game machine
WO2015198646A1 (en) * 2014-06-25 2015-12-30 株式会社カプコン Game device, sound effect processing method, and recording medium
JP2016007399A (en) * 2014-06-25 2016-01-18 株式会社カプコン Sound effect processing program and game device
US11027200B2 (en) 2014-06-25 2021-06-08 Capcom Co., Ltd. Game device, method and non-transitory computer-readable storage medium
JP2016135254A (en) * 2016-02-03 2016-07-28 株式会社カプコン Sound effect processing program and game device
JP2018143479A (en) * 2017-03-06 2018-09-20 株式会社カプコン Game program and game system
CN115937364A (en) * 2022-12-12 2023-04-07 网易(杭州)网络有限公司 Processing method, device, storage medium and electronic equipment of interactive animation

Similar Documents

Publication Publication Date Title
US9789401B2 (en) Game device, game system, and information storage medium
US20090244064A1 (en) Program, information storage medium, and image generation system
JP2010022646A (en) Program, information storage medium, and image generation system
JP6993585B2 (en) Game programs and game equipment
JP2010029375A (en) Game system, program, and information storage medium
JP2010033297A (en) Program, information storage medium, and image generation system
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP3367934B2 (en) Game system, image drawing method in game system, and computer-readable recording medium storing game program
JP2010231364A (en) Image generation system, program, and information storage medium
JP4651527B2 (en) Program, information storage medium, and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2004334801A (en) Image generation system, program, and information storage medium
JP2006252426A (en) Program, information storage medium, and image generation system
US20100144448A1 (en) Information storage medium, game device, and game system
JP2005275796A (en) Program, information storage medium, and image generation system
JP4632855B2 (en) Program, information storage medium, and image generation system
JP2008310377A (en) Image generation system, program, and information storage medium
JP2010033285A (en) Program, information storage medium, and image generation system
JP2010033253A (en) Program, information storage medium, and image generation system
JP4521811B2 (en) Program, information storage medium, and image generation system
JP2007164323A (en) Program, information storage medium, and image generation system
JP3763057B2 (en) Image generation device
JP4641831B2 (en) Program, information storage medium, and image generation system
JP2010033300A (en) Program, information storage medium, and image generation system
JP4680670B2 (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111004