JP2014090251A - Information processing system, information processing program, information processing control method and information processing device - Google Patents
Information processing system, information processing program, information processing control method and information processing device Download PDFInfo
- Publication number
- JP2014090251A JP2014090251A JP2012237973A JP2012237973A JP2014090251A JP 2014090251 A JP2014090251 A JP 2014090251A JP 2012237973 A JP2012237973 A JP 2012237973A JP 2012237973 A JP2012237973 A JP 2012237973A JP 2014090251 A JP2014090251 A JP 2014090251A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- music data
- sound source
- information processing
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/54—Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/90—Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/90—Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
- A63F13/92—Video game devices specially adapted to be hand-held while playing
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/11—Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Stereophonic System (AREA)
- Television Receiver Circuits (AREA)
Abstract
【課題】仮想空間内で再生される音楽について、より臨場感の高い視聴効果が得られる新たなユーザ体験が提供可能な情報処理システム等を提供すること。
【解決手段】情報処理部と第1のスピーカおよび第2のスピーカとを備える情報処理システムにおいて、2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する。また、分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、他方に対応付けられた第2の音源オブジェクトと、更に仮想マイクを仮想3次元空間内に配置する。そして、仮想マイクの向きと第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、第1のスピーカから再生される音声と第2のスピーカから再生される音声の再生音量を決定する。
【選択図】図16To provide an information processing system capable of providing a new user experience with a more realistic viewing effect for music played in a virtual space.
In an information processing system including an information processing unit, a first speaker, and a second speaker, predetermined music data composed of two channels is converted into first channel music data and second channel music data. To separate. Further, a first sound source object associated with one of the separated music data, a second sound source object associated with the other, and a virtual microphone are arranged in the virtual three-dimensional space. Based on the orientation of the virtual microphone and the positional relationship between the first sound source object and the second sound source object, the reproduction volume of the sound reproduced from the first speaker and the sound reproduced from the second speaker is determined. To do.
[Selection] Figure 16
Description
本発明は、情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置に関し、より特定的には、情報処理部と、第1のスピーカおよび第2のスピーカを備える情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置に関する。 The present invention relates to an information processing system, an information processing program, an information processing control method, and an information processing apparatus, and more specifically, an information processing system including an information processing unit, a first speaker, and a second speaker, and information The present invention relates to a processing program, an information processing control method, and an information processing apparatus.
従来、一般的なテレビ装置(第1の映像出力装置)と、これとは別の、映像出力可能な表示部を備えたコントローラ(第2の映像出力装置)とを併用するゲームシステムについて知られている。このようなゲームシステムでは、例えば、第1のゲーム映像をテレビ装置に表示し、この第1のゲーム映像とは異なる第2のゲーム映像をコントローラの表示部に表示したりすることで、新しい遊びを提案していた。 2. Description of the Related Art Conventionally, a game system using a general television device (first video output device) and a controller (second video output device) having a display unit capable of outputting video, which is different from this, is known. ing. In such a game system, for example, a first game video is displayed on the television device, and a second game video different from the first game video is displayed on the display unit of the controller, thereby enabling a new game. Had proposed.
しかし、上記提案は、主にどのような映像を表示し、また、これらをゲーム処理との関係でどのように連携させて表示するかを主眼としたものであった。そのため、音声に関する処理に関しては特に言及や提案をするものではなかった。 However, the above proposal mainly focuses on what kind of video is displayed and how these are displayed in association with the game processing. For this reason, no particular mention or suggestion was made regarding processing related to voice.
それ故に、本発明の目的は、仮想空間内の音源から再生される音楽について、より臨場感の高い視聴効果が得られる新たなユーザ体験が提供可能な情報処理システム等を提供することである。 Therefore, an object of the present invention is to provide an information processing system and the like that can provide a new user experience with a more realistic viewing effect for music reproduced from a sound source in a virtual space.
上記目的は、例えば以下のような構成により達成される。 The above object is achieved by, for example, the following configuration.
構成例の一例は、情報処理部と、第1のスピーカおよび第2のスピーカとを備える情報処理システムであって、音楽データ分離手段と、音源オブジェクト配置手段と、仮想マイク配置手段と、音声出力制御手段とを備える。音楽データ分離手段は、2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する。音源オブジェクト配置手段は、分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する。仮想マイク配置手段は、仮想3次元空間内の所定の位置に仮想マイクを配置する。音声出力制御手段は、仮想3次元空間内に配置された仮想マイクの向きと第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、第1のスピーカから再生される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、第2のスピーカから再生される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する。 An example of the configuration is an information processing system including an information processing unit, a first speaker, and a second speaker, and includes a music data separating unit, a sound source object arranging unit, a virtual microphone arranging unit, and an audio output. Control means. The music data separation means separates predetermined music data composed of two channels into first channel music data and second channel music data. The sound source object placement means is a virtual three-dimensional representation of a first sound source object associated with one of the separated music data and a second sound source object associated with the other of the separated music data. Place them at different positions in the space. The virtual microphone arrangement means arranges the virtual microphone at a predetermined position in the virtual three-dimensional space. The audio output control means is a first channel reproduced from the first speaker based on the orientation of the virtual microphone arranged in the virtual three-dimensional space and the positional relationship between the first sound source object and the second sound source object. The reproduction volume of the music data and the second channel music data and the reproduction volume of the first channel music data and the second channel music data reproduced from the second speaker are determined.
上記構成例によれば、仮想空間内の音源から発せられるBGMの再生に関して、より臨場感の高いユーザ体験を提供できる。 According to the above configuration example, it is possible to provide a user experience with a higher sense of realism regarding the reproduction of BGM emitted from the sound source in the virtual space.
また、情報処理システムは、第1出力装置と、姿勢検出手段と、仮想マイク姿勢変更手段とを更に備えていてもよい。第1出力装置は、動きセンサ、第1のスピーカ、第2のスピーカ、および仮想3次元空間の様子が表示される第1の表示部とが設けられているハウジングを有していてもよい。また、姿勢検出手段は、動きセンサの出力に基づいて第1出力装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出するようにしてもよい。仮想マイク姿勢変更手段は、第1出力装置の姿勢に応じて仮想マイクの向きを変更してもよい。 The information processing system may further include a first output device, posture detection means, and virtual microphone posture change means. The first output device may have a housing provided with a motion sensor, a first speaker, a second speaker, and a first display unit on which a state of the virtual three-dimensional space is displayed. Further, the posture detecting means may detect the posture of the first output device itself in real time or almost real time based on the output of the motion sensor. The virtual microphone posture changing means may change the direction of the virtual microphone according to the posture of the first output device.
上記構成例によれば、2つのスピーカを有する第1出力装置自身の姿勢をプレイヤが変化させることによって第1の表示部に表示される仮想空間の表示を変化させるようなゲーム等において、音源オブジェクトが発するBGMについてより臨場感の高い再生が可能となる。 According to the above configuration example, in a game or the like in which the display of the virtual space displayed on the first display unit is changed by the player changing the posture of the first output device itself having two speakers, the sound source object Reproduction with a higher sense of presence is possible for the BGM emitted by.
また、情報処理システムは、第1出力装置の姿勢に基づいて第1のスピーカと第2のスピーカとの位置関係を認識するスピーカ位置関係認識部を更に備えていてもよい。そして、音声出力制御手段は、仮想3次元空間内に配置された仮想マイクの向きと第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に加え、更に第1のスピーカおよび第2のスピーカの位置関係に基づいて、当該第1のスピーカから出力される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、当該第2のスピーカから出力される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量を決定するようにしてもよい。 The information processing system may further include a speaker positional relationship recognition unit that recognizes the positional relationship between the first speaker and the second speaker based on the attitude of the first output device. Then, the audio output control means further includes the first speaker and the second speaker in addition to the positional relationship between the direction of the virtual microphone arranged in the virtual three-dimensional space and the first sound source object and the second sound source object. Based on the positional relationship, the reproduction volume of the first channel music data and the second channel music data output from the first speaker, and the first channel music data and the second channel output from the second speaker. You may make it determine the reproduction volume of music data.
上記構成例によれば、仮想空間内の音源オブジェクトが発する音声の表現について、現実空間におけるスピーカの位置関係を反映させた表現が可能となる。 According to the above configuration example, it is possible to express the sound expressed by the sound source object in the virtual space reflecting the positional relationship of the speakers in the real space.
また、情報処理システムは、第3のスピーカ、第4のスピーカ、および第2の表示部を有する第2出力装置を更に備えていてもよい。そして、音声出力制御部は、第1出力装置が有する第1のスピーカおよび第2のスピーカと、第2出力装置が有する第3のスピーカおよび第4のスピーカとの間の位置関係に基づいて各スピーカからの再生音量を決定するようにしてもよい。 The information processing system may further include a second output device having a third speaker, a fourth speaker, and a second display unit. Then, the audio output control unit is configured based on the positional relationship between the first speaker and the second speaker included in the first output device and the third speaker and the fourth speaker included in the second output device. The playback volume from the speaker may be determined.
上記構成例によれば、例えば、ゲームコントローラとして利用可能な第1出力装置にかかる第1の組のスピーカと、モニタとして利用可能な第2出力装置にかかる第2の組のスピーカのそれぞれを用いてより臨場感の高い音声出力が可能となる。例えば、プレイヤから見て上下方向にかかる音声出力を第1出力装置にかかるスピーカに担当させ、左右方向にかかる音声出力を第2出力装置にかかるスピーカに担当させることで、仮想空間における空間の広がり、空間的感覚をプレイヤにより体感させることが可能となる。 According to the above configuration example, for example, the first set of speakers according to the first output device that can be used as a game controller and the second set of speakers according to the second output device that can be used as a monitor are used. This makes it possible to output audio with a higher sense of presence. For example, the sound output in the vertical direction as viewed from the player is assigned to the speaker related to the first output device, and the sound output related to the left and right direction is assigned to the speaker related to the second output device, thereby expanding the space in the virtual space. It becomes possible for the player to experience the spatial sensation.
また、音楽データはステレオ2チャンネルで構成された音楽データであってもよい。更に、第1のスピーカおよび第2のスピーカは、組となるステレオスピーカであってもよい。 The music data may be music data composed of two stereo channels. Furthermore, the first speaker and the second speaker may be a pair of stereo speakers.
上記構成例によれば、仮想空間内で左右方向に沿って配置された音源オブジェクトから発せられる音楽の表現について、プレイヤに違和感を与えず、より臨場感を高めた表現ができる。 According to the above configuration example, the expression of music emitted from the sound source object arranged along the left-right direction in the virtual space can be expressed with a higher sense of realism without giving the player a sense of incongruity.
本発明によれば、仮想空間内に存在する音源オブジェクトが発する音声に関して、より臨場感を高めた音声出力を行うことができる。 ADVANTAGE OF THE INVENTION According to this invention, the audio | voice output which raised the realism more can be performed regarding the audio | voice which the sound source object which exists in virtual space utters.
図1を参照して、本発明の一実施形態に係るゲームシステムについて説明する。 A game system according to an embodiment of the present invention will be described with reference to FIG.
図1において、ゲームシステム1は、表示手段の一例である家庭用テレビジョン受像機(以下、モニタと記載する)2と、モニタ2に接続コードを介して接続する据置型のゲーム装置3とから構成される。モニタ2は、2chのステレオスピーカであるスピーカ2L、2Rを備える。また、ゲーム装置3は、ゲーム装置本体5と、端末装置6とを含む。
In FIG. 1, a
モニタ2は、ゲーム装置本体5から出力されるゲーム画像を表示する。モニタ2は左スピーカ2Lおよび右スピーカ2Rを有している。スピーカ2Lおよび2Rは、ゲーム装置本体5から出力されるゲーム音声を出力する。なお、この例ではモニタ2がこれらスピーカを有する例を示したが、この他、モニタ2に別途外部のスピーカを接続するような形態であってもよい。
The
ゲーム装置本体5は、当該ゲーム装置本体5で読み取り可能な光ディスクに記憶されたゲームプログラム等に基づいてゲーム処理等を実行する。
The
端末装置6は、ユーザが把持可能な入力装置である。ユーザは端末装置6を手に持って動かしたり、あるいは、端末装置6を自由な位置に配置したりして使用することが可能である。端末装置6は、表示手段であるLCD(Liquid Crystal Display:液晶表示装置)21、2chのステレオスピーカであるスピーカ23Lおよび23R(以降では総称してスピーカ23と示すこともある)、ヘッドホン端子、および入力手段(アナログスティックや押下型のボタン、タッチパネル等)等を備える。端末装置6とゲーム装置本体5とは無線(有線であってもよい)によって通信可能である。端末装置6は、ゲーム装置本体5で生成された画像(例えばゲーム画像)のデータをゲーム装置本体5から受信し、当該データが示す画像をLCD21に表示する。また、端末装置6は、ゲーム装置本体5で生成された音声(例えばゲームの効果音やBGM)のデータをゲーム装置本体5から受信し、当該データが示す音声をスピーカ23から出力する。また、端末装置6は、ゲーム装置本体5へ、自機に対して行われた操作の内容を表す操作データを送信する。
The
図2は、ゲーム装置本体5のブロック図である。図2において、ゲーム装置本体5は、情報処理装置の一例である。本実施形態においては、ゲーム装置本体5はCPU(制御部)11およびメモリ12、システムLSI13、無線通信部14およびAV−IC(Audio Video−Integrated Circuit)15等を有する。
FIG. 2 is a block diagram of the
CPU11は、メモリ12やシステムLSI13等を用いて所定の情報処理プログラムを実行する。これにより、ゲーム装置3における各種機能(例えば、ゲーム処理)が実現される。
The
システムLSI13には、GPU(Graphics Processor Unit)16、DSP(Digital Signal Processor)17、入出力プロセッサ18、等が含まれる。
The
GPU16は、CPU11からのグラフィクスコマンド(作画命令)に従って画像を生成する。なお、本実施形態においては、ゲーム装置本体5は、モニタ2に表示するゲーム画像と、端末装置6に表示するゲーム画像との両方を生成することがある。以下では、モニタ2に表示されるゲーム画像を「モニタ用ゲーム画像」と呼び、端末装置6に表示されるゲーム画像を「端末用ゲーム画像」と呼ぶことがある。
The
DSP17は、オーディオプロセッサとして機能し、メモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。なお、本実施形態においては、ゲーム音声についてもゲーム画像と同様、モニタ2のスピーカ2Lおよび2Rから出力するゲーム音声と、端末装置6のスピーカ23(あるいは端末装置6に接続されたヘッドホン)から出力するゲーム音声との両方が生成されることがある。以下では、モニタ2から出力されるゲーム音声を「モニタ用ゲーム音声」と呼び、端末装置6から出力されるゲーム音声を「端末用ゲーム音声」と呼ぶことがある。
The
入出力プロセッサ18は、無線通信部14を介して、端末装置6との間でデータの送受信を実行したりする。本実施形態では、入出力プロセッサ18は、GPU16が生成したゲーム画像(端末用ゲーム画像)、および、DSP17が生成したゲーム音声(端末用ゲーム音声)のデータを、無線通信部14を経由して端末装置6に送信する。この際、端末用ゲーム画像については、表示画像の遅延が生じないように圧縮して送信するようにしても良い。また、入出力プロセッサ18は、上記無線通信部14を介して、端末装置6から送信される操作データ等を受信し、メモリ12のバッファ領域に記憶(一時記憶)する。
The input /
また、ゲーム装置本体5において生成される画像および音声のうち、モニタ2に出力される画像データおよび音声データは、AV−IC15によって読み出される。AV−IC15は、図示しないAVコネクタを介して、読み出した画像データをモニタ2に出力するとともに、読み出した音声データをモニタ2に内蔵されるスピーカ2aに出力する。これによって、モニタ2に画像が表示されるとともにスピーカ2aから音声が出力される。
Of the images and sounds generated in the
図3は、端末装置6の外観構成の一例を示す図である。図3に示すように、端末装置6は略板状のハウジング20を備える。ハウジング20は、ユーザが両手または片手で把持可能な大きさ(形状)である。また、端末装置6は、表示部の一例であるLCD21を備える。LCD21には、上記端末用ゲーム画像が表示される。
FIG. 3 is a diagram illustrating an example of an external configuration of the
また、端末装置6は、スピーカ23を備える。当該スピーカ23はステレオスピーカである。スピーカ23からは、上記端末用ゲーム音声が出力される。また、端末装置6は、所定のヘッドホンが着脱可能なヘッドホン端子24を備える。ここで、端末装置6は、当該ヘッドホン端子にヘッドホンが接続されていないときはスピーカ23からの音声出力を行うが、当該ヘッドホン端子にヘッドホンが接続されているときは、スピーカ23からの音声出力は行わない。つまり、本実施形態では、両者の同時出力は行われず、スピーカ23からの出力とヘッドホンからの出力とは排他的な関係になっている(但し、他の実施例においては同時出力可能としてもよい)。
In addition, the
また、端末装置6はタッチパネル22を備える。タッチパネル22は、ハウジング20に設けられる所定の入力面(表示部の画面)に対して入力された位置を検出する位置検出部の一例である。さらに、端末装置6は、操作部(図4に示す操作部31)として、アナログスティック25、十字キー26、およびボタン27等を備える。
The
図4は、端末装置6の電気的な構成を示すブロック図である。図4に示すように、端末装置6は、上述のLCD21、タッチパネル22、スピーカ23、および操作部31を備える。また、ヘッドホン端子24を介してヘッドホンが接続可能である。また、端末装置6の姿勢を検出するためのモーションセンサ32を備える。本実施形態では、当該モーションセンサ32として、加速度センサおよびジャイロセンサが備えられている。加速度センサは、xyzの3軸の加速度が検出可能である。ジャイロセンサは、xyzの3軸の角速度が検出可能である。
FIG. 4 is a block diagram showing an electrical configuration of the
また、端末装置6は、ゲーム装置本体5との無線通信が可能な無線通信部34を備える。本実施形態においては、端末装置6とゲーム装置本体5との間では無線通信が行われるが、他の実施形態においては有線で通信が行われてもよい。
Further, the
また、端末装置6は、端末装置6における動作を制御する制御部33を備える。具体的には、制御部33は、各入力部(タッチパネル22、操作部31、モーションセンサ32)からの出力データを受け取り、操作データとして無線通信部34を介してゲーム装置本体5へ送信する。また、制御部33は、ゲーム装置本体5からの端末用ゲーム画像が無線通信部34において受信されると、必要に応じて適宜の処理(例えば、画像データが圧縮されている場合には伸張処理)を行い、ゲーム装置本体5からの画像をLCD21に表示させる。更に、ゲーム装置本体5からの端末用ゲーム音声が無線通信部34において受信されると、制御部33は、スピーカ23に当該端末用ゲーム音声を出力する。
The
次に、図5〜図11を参照して、本実施形態のシステムにおいて実行される処理の概要を説明する。 Next, an overview of processing executed in the system of the present embodiment will be described with reference to FIGS.
本実施形態で実行される処理は、仮想3次元空間(以下、単に仮想空間と呼ぶ)内に存在する音源オブジェクトから発せられる音楽の新しい鳴らし方を提供するものである。なお、音源オブジェクトとは、所定の音声を発することが可能なオブジェクトとして定義されたオブジェクトである。 The processing executed in the present embodiment provides a new way of playing music emitted from a sound source object existing in a virtual three-dimensional space (hereinafter simply referred to as a virtual space). The sound source object is an object defined as an object capable of emitting a predetermined sound.
本実施形態の処理の一例として、次のようなゲーム処理を想定する。本ゲーム処理で実現されるゲームは、テーマパークを模した仮想空間内をプレイヤキャラクタが自由に移動できるゲームである。当該仮想空間には複数の「アトラクション」が設定されており、アトラクション毎に異なるミニゲームがプレイ可能である。 As an example of the processing of the present embodiment, the following game processing is assumed. The game realized by this game process is a game in which a player character can freely move in a virtual space imitating a theme park. A plurality of “attractions” are set in the virtual space, and different minigames can be played for each attraction.
図5は、当該端末装置6に表示されるゲーム画面の一例である。図5では、プレイヤキャラクタ101、および、所定のアトラクションの入り口である入り口オブジェクト102が表示されている。プレイヤキャラクタ101については、これを背面側から見た様子で表示されている。また、当該入り口オブジェクト102には、左スピーカ画像103Lと右スピーカ画像103Rが表示されている(以下では、総称してスピーカ画像103と呼ぶこともある)。
FIG. 5 is an example of a game screen displayed on the
ここで、本ゲームでは、ゲーム画面の表示に関して、実空間の座標系と仮想空間の座標系とを常に一致させて表示している。換言すれば、重力方向と仮想空間内の地面が常に垂直交差しているようにしている。また、端末装置6には、上記のようにモーションセンサ32が備えられている。これを利用することで、端末装置6自体の姿勢が検出可能である。そして、本ゲームでは、端末装置6の姿勢にあわせて仮想カメラも同時に傾けることで、端末装置6を、あたかも仮想空間を覗く「覗き窓」のように扱うことができる。例えば、端末装置6のLCD21がプレイヤの顔の正面に対面するように把持した姿勢を想定する。このとき、当該LCD21には、仮想空間内のZ軸正方向の様子が表示されているとする。この状態から、プレイヤが180度回転して真後ろを向いたとする。すると、当該LCD21には、仮想空間内のZ軸負方向の様子が表示されることになる。
Here, in this game, with respect to display of the game screen, the coordinate system of the real space and the coordinate system of the virtual space are always displayed so as to coincide with each other. In other words, the gravitational direction and the ground in the virtual space always intersect each other vertically. In addition, the
ところで、上記のような仮想空間が表現されているゲームにおいて音声を鳴らす場合がある。この音声は、大きく分けて、「効果音」と「音楽(BGM)」の2種類がある。これらの音声の再生手法として、従来は、効果音については、仮想空間内に仮想マイクを設置し、この仮想マイクで視聴したとみなす音場計算(音量や定位)を行うことで効果音を再生していた。一方、音楽、特にBGMに関しては、仮想カメラや仮想マイクの位置に関わらず、常に一定の音量や定位で再生することが一般的であった。つまり、仮想空間の状態に関係なく、いわば仮想空間の「外」でBGMが再生されていた。 By the way, there is a case where a sound is played in a game in which the virtual space as described above is expressed. There are roughly two types of sound, “sound effect” and “music (BGM)”. As a method of playing these sounds, conventionally, for sound effects, a virtual microphone is installed in the virtual space, and sound effects are calculated by calculating the sound field (volume and localization) considered to be viewed with this virtual microphone. Was. On the other hand, music, particularly BGM, is generally played back at a constant volume and localization regardless of the position of the virtual camera or virtual microphone. That is, regardless of the state of the virtual space, the BGM is reproduced “outside” the virtual space.
ここで、仮想空間「内」でBGMが再生されているような表現を行いたい場合を想定する。特に、このBGMが、ステレオ音声、つまり、LRのステレオ2chで構成されているBGMである場合を想定する。この場合は、当該2chで構成されているBGMデータに基づく音声を発する音源オブジェクトを仮想空間内に配置して再生させる。そして、その音を上記仮想マイクで視聴したとみなす処理を行うことが考えられる。例えば、上記図5において、入り口オブジェクト102の有するスピーカ画像103からBGMが流れているような表現を行いたい場合を考える。この場合は、図6に示すように、2つのスピーカ画像103のほぼ真ん中あたりに音源オブジェクト(これはプレイヤからは見えない透明なオブジェクトである)を配置する。そして、当該音源オブジェクトから2chで構成されているBGMを発する(再生する)処理を行う。更に、この発せられた音声を仮想マイクで拾うような処理が行われる。ここでは、仮想マイクは、プレイヤキャラクタ101と同じ位置に設置されているとする。すなわち、音源オブジェクトのほぼ正面に配置されているとする。その結果、BGMデータのLチャンネルにかかる音声がスピーカ23Lから出力され、BGMデータのRチャンネルにかかる音声がスピーカ23Rから出力される。換言すれば、図6の状態であれば、音源オブジェクトのLRチャンネルの左右の位置(定位)関係と、端末装置6のスピーカ23Lおよび23Rの左右の位置関係とは同じものとなっている。
Here, it is assumed that it is desired to perform an expression as if the BGM is being reproduced in the “inside” virtual space. In particular, it is assumed that this BGM is a stereo sound, that is, a BGM composed of LR stereo 2ch. In this case, a sound source object that emits sound based on the BGM data configured by the 2ch is arranged in the virtual space and reproduced. Then, it is conceivable to perform processing for regarding that sound as viewed with the virtual microphone. For example, in FIG. 5, consider a case where it is desired to perform an expression such that BGM flows from the speaker image 103 of the
次に、上記のような図6の状態から、プレイヤキャラクタ101を180度回転させたような場合を想定する。例えば、プレイヤが、端末装置6のLCD21がプレイヤの顔の正面に対面するように両手で端末装置6を把持した姿勢のまま、180度回転して真後ろを向いたような場合である。図7は、上記図6の状態から180度回転した状態の画面を示す図である。このプレイヤ(端末装置6)の回転に伴い、プレイヤキャラクタ101、仮想カメラ、および仮想マイクの向きも180度回転している。この場合、仮想空間内の位置関係としては、プレイヤキャラクタ101(仮想マイク)のほぼ真後ろに上記音源オブジェクトが位置するような関係となる。また、左スピーカ画像103Lは、プレイヤキャラクタ101の右後方に位置し、右スピーカ画像103Rは、プレイヤキャラクタ101の左後方に位置するような関係となる。一方、音源オブジェクトから発せられるBGMの定位は維持されたままである。つまり、上記図6の場合と同様、スピーカ23LからはBGMのLチャンネルの音が出力され、スピーカ23RからはBGMのRチャンネルの音が出力される。これは、プレイヤからすると、LRのチャンネルが図6の状態とは逆転して聞こえることになり、違和感のある聞こえ方となる。プレイヤキャラクタ101が180度回転した場合の位置関係を考慮すると、上記図6の状態におけるLチャンネルの音は、図7の状態ではスピーカ23Rから出力され、Rチャンネルの音は、図7の状態ではスピーカ23Lから出力されたほうがより自然な聞こえ方となる。
Next, it is assumed that the
そこで、本実施形態では、上記のような姿勢変化(位置関係の変化)が起こった場合でも、上記BGMが自然に聞こえるような処理を行う。具体的には、本実施形態では、まず、再生したいBGMデータについて、LチャンネルとRチャンネルとを別のサウンドデータとして分離する。そして、2つの音源オブジェクトを別々の位置に配置し、一方にLチャンネルのサウンドデータ(以下、Lチャンネルデータ)を割り当て、他方にRチャンネルのサウンドデータ(以下、Rチャンネルデータ)を割り当てて再生する。つまり、上記のようなLRチャンネルを含む1つのBGMデータを再生する音源オブジェクトを配置するのではなく、LRチャンネル毎に別の音源オブジェクトを設定して配置する。そして、この音源オブジェクトから発せられる音を拾う仮想マイクの向きと上記2つの音源オブジェクトとの位置関係に応じて、スピーカ23Lおよび23Rからの出力音声を調整するという処理を行うものである。具体的には、仮想マイクを基準とするローカル座標系(以下、仮想マイク座標系)において、2つの音源オブジェクトのそれぞれの位置がx軸正方向上に位置するかx軸負方向上に位置するかを判定する。これにより、2つの音源オブジェクトそれぞれの位置が仮想マイクから見て右か左かを判断できる。この位置関係に基づいてスピーカ23Lおよび23RそれぞれにおけるLチャンネルデータおよびRチャンネルデータの再生音量の大きさが決定される。
Therefore, in the present embodiment, processing is performed so that the BGM can be heard naturally even when the posture change (positional change) as described above occurs. Specifically, in this embodiment, for the BGM data to be reproduced, first, the L channel and the R channel are separated as different sound data. Then, two sound source objects are arranged at different positions, L channel sound data (hereinafter referred to as L channel data) is assigned to one, and R channel sound data (hereinafter referred to as R channel data) is assigned to the other and played back. . That is, instead of arranging a sound source object for reproducing one BGM data including the LR channel as described above, another sound source object is set and arranged for each LR channel. And the process of adjusting the output sound from the
図8は、本実施形態におけるゲーム画面と音源オブジェクトの配置の一例を示す図である。図8では、音源オブジェクト105Lが左スピーカ画像103Lに重なるような位置に配置され、音源オブジェクト105Rが右スピーカ画像103Rに重なるような位置に配置されている。これら音源オブジェクトは、プレイヤからは視認できない透明なオブジェクトである。そして、音源オブジェクト105Lには、再生したいBGMのLチャンネルデータが対応付けられている。一方、音源オブジェクト105Rには、再生したいBGMのRチャンネルデータが対応付けられている。つまり、音源オブジェクト105LはLチャンネルデータを再生し、音源オブジェクト105RはRチャンネルデータを再生するように設定されている。また、上記同様、プレイヤキャラクタの位置に仮想マイクが設置されており、当該仮想マイクは正面方向(z軸正方向)を向いている。このような状態でBGMが再生されると、音源オブジェクト105Lから発せられる音声は主にスピーカ23Lのほうから聞こえる(スピーカ23Rよりも大きな音で聞こえる)ことになる。また、音源オブジェクト105Rから発せられる音声は主にスピーカ23Rのほうから聞こえる(スピーカ23Lよりも大きな音で聞こえる)ことになる。
FIG. 8 is a diagram illustrating an example of the arrangement of the game screen and the sound source object in the present embodiment. In FIG. 8, the sound source object 105L is arranged at a position so as to overlap the
一方、図8の状態から上記のようにプレイヤ(端末装置6)が180度回転した場合を想定する。図9は、このときのゲーム画面を示す図である。この状態では、プレイヤキャラクタ101(仮想マイク)の右後方に音源オブジェクト105Lが位置し、プレイヤキャラクタ101の左後方に音源オブジェクト105Rが位置するという位置関係になる。また、端末装置6の姿勢変化に伴い、仮想マイクの向きについても、その正面方向が仮想空間のz軸負方向を向いていることになる。つまり、仮想マイクを基準にすると、その右側に音源オブジェクト105L、左側に音源オブジェクト105Rがあるという位置関係になる。そして、このような状態で上記BGMが再生されると、音源オブジェクト105Lから発せられる音声は主にスピーカ23Rのほうから聞こえ、音源オブジェクト105Rから発せられる音声は主にスピーカ23Lのほうから聞こえることになる。つまり、プレイヤキャラクタ(仮想マイク)の位置および向きと上記2つの音源オブジェクトの位置関係とが反映されるようにBGMの再生が行われる。これにより、仮想空間内に存在する音源からのBGM再生をより正確に表現でき、プレイヤに違和感を与えないようなBGM再生が実現できる。
On the other hand, it is assumed that the player (terminal device 6) rotates 180 degrees as described above from the state of FIG. FIG. 9 is a diagram showing a game screen at this time. In this state, the
なお、上記のように、本実施形態では、仮想空間内の音源オブジェクトの位置を反映するように再生処理を行うため、例えば、次のような音声再生も可能である。例えば、図10に示すように、プレイヤキャラクタ101の正面方向かつ上方向に音源オブジェクト105Lおよび105Rが存在し、BGMが再生されているとする。図10では、音源オブジェクト105Lおよび105Rの下半分だけが画面内に入っているような状態である。この状態では、マイク座標系で考えると、音源オブジェクトが仮想マイクの上方(仮想空間の空間座標系のy軸正方向)に位置することになる。この場合、スピーカ23Lおよび23Rから出力される音声の音量は、ほぼ同じとなる。
As described above, in the present embodiment, since the reproduction process is performed so as to reflect the position of the sound source object in the virtual space, for example, the following audio reproduction is possible. For example, as shown in FIG. 10, it is assumed that sound source objects 105L and 105R exist in the front direction and upward of the
次に、図10の状態から、図11に示すように、端末装置6を左方向に90度回転させた場合を想定する(例えば、プレイヤが端末装置6を縦持ちにした場合)。この場合、スピーカ23Lおよび23Rの位置関係に着目すると、左右方向に配置されていた状態から上下方向に配置されたような位置関係に変化することになる。また、この端末装置6の姿勢変化に併せて、仮想マイクの姿勢も左に90度回転させられる(つまり、端末装置6の姿勢と仮想マイクの姿勢を連動させる)。その結果、マイク座標系で考えると、音源オブジェクト105Lおよび105Rは仮想マイクの右側に位置することになる。このような場合、本実施形態では、スピーカ23R、つまり、現実空間において上側にあるスピーカからの音量を相対的に大きくし、スピーカ23L、つまり、現実空間において下側にあるスピーカからの音量を相対的に小さくして出力する。換言すれば、スピーカ23Lおよび23Rの音量の左右バランスを調整している。これにより、仮想空間内における上下方向(y軸方向)に関する音源オブジェクトの位置関係についてもその音声出力に反映できる。また、この例では上下方向の例えを挙げたが、例えば、奥行き方向(仮想空間のz軸方向)に関しても同様に、この方向についての位置関係をスピーカ23Lおよび23Rからの出力音量に反映できる。例えば、端末装置6の姿勢を、LCD21が上面を向くような姿勢にしたような場合に、奥行き方向にかかる位置関係を反映した音声出力が可能である。
Next, it is assumed that the
次に、図12〜図18を参照して、上記のようなゲーム処理を実現するためのシステム1の動作について詳細に説明する。
Next, the operation of the
図12は、上記ゲームを実行するときにゲーム装置本体5のメモリ12に記憶される各種データの一例を示している。
FIG. 12 shows an example of various data stored in the
ゲーム処理プログラム81は、ゲーム装置本体5のCPU11に、上記ゲームを実現するためのゲーム処理を実行させるためのプログラムである。ゲーム処理プログラム81は、例えば、光ディスクからメモリ12にロードされる。
The
処理用データ82は、CPU11において実行されるゲーム処理において用いられるデータである。処理用データ82は、端末操作データ83、端末送信用データ84、ゲーム音声データ85、端末装置姿勢データ86、仮想マイク姿勢データ87、音源オブジェクトデータ88等を含む。
The
端末操作データ83は、端末装置6から周期的に送信される操作データである。図13は、端末操作データ83の構成の一例を示す図である。端末操作データ83には、操作ボタンデータ91、タッチ位置データ92、モーションセンサデータ93等が含まれる。操作ボタンデータ91は、操作部31(アナログスティック25、十字キー26、およびボタン27)に対する入力状態を示すデータである。また、モーションセンサ32に対する入力内容も操作ボタンデータ91に含まれる。タッチ位置データ92は、タッチパネル22の入力面において入力が行われた位置(タッチ位置)を示すデータである。モーションセンサデータ93は、上記モーションセンサに含まれる加速度センサおよび角速度センサで検出された加速度および角速度を示すデータである。
The
図12に戻り、端末送信用データ84は、端末装置6へ周期的に送信するデータである。端末送信用データ84には、上記端末用ゲーム画像や端末用ゲーム音声が含まれる。
Returning to FIG. 12, the
ゲーム音声データ85は、上記端末用ゲーム音声およびモニタ用ゲーム音声の素になるデータである。ゲーム音声データ85には、効果音の音声データや、上述したようなLR2chで構成されるBGMデータが複数含まれている。
The
端末装置姿勢データ86は、端末装置6の姿勢を示すデータである。仮想マイク姿勢データ87は、上記仮想マイクの姿勢を示すデータである。これらの姿勢データは、例えば、3軸のベクトルデータの組み合わせとして示される。なお、仮想マイク姿勢データ87には、端末用仮想マイクの姿勢データとモニタ用仮想マイクの姿勢データのそれぞれが含まれる。但し、以下の説明では、単に「仮想マイク姿勢データ87」と示した場合は端末用仮想マイクの姿勢データを指すものとする。
The terminal
音源オブジェクトデータ88は、上記音源オブジェクトに関するデータである。また、複数の音源オブジェクトデータ88がメモリ12に格納されている。図14は、各音源オブジェクトデータ88の構成の一例を示す図である。音源オブジェクトデータ88は、オブジェクトID881、セット対象識別データ882、対応BGM識別データ883、担当チャンネル識別データ884、分離後BGMデータ885を含む。
The sound source object
オブジェクトID881は、各音源オブジェクトを識別するためのIDである。セット対象識別データ882は、自身と組になる音源オブジェクトを示すデータである。本実施形態では、1つのBGMデータをLチャンネルとRチャンネルに分離して2つの音源オブジェクトに割り当てる。そのため、この2つの音源オブジェクトを1組の音源オブジェクト(以下、セット型音源オブジェクトと呼ぶ)として扱う。そして、当該セット対象識別データは、自身と組になる他方の音源オブジェクトを示すデータである。例えば、組となる相手のオブジェクトID881が当該データとして示される。また、このような組とはならない音源オブジェクト(例えば効果音のみを発する音源オブジェクト等。以下、単体型音源オブジェクトと呼ぶ)である場合は、その旨を示す情報が当該セット対象識別データ882として設定される。
The
対応BGM識別データ883は、当該音源オブジェクトが再生するBGMであると定義されているBGMデータを示すデータである。例えば、上記ゲーム音声データ85に含まれているBGMデータ(2chで構成されたBGMデータ)を示す情報が本データである。
Corresponding
担当チャンネル識別データは、当該音源オブジェクトがセット型音源オブジェクトである場合に、LチャンネルとRチャンネルのいずれを担当するかを示すデータである。 The assigned channel identification data is data indicating which one of the L channel and the R channel is assigned when the sound source object is a set-type sound source object.
分離後BGMデータ885は、LR2chで構成されたBGMデータをLチャンネルおよびRチャンネルのサウンドデータに分離した後のいずれか一方のデータである。
The
その他、図示は省略するが、当該音源オブジェクトが音声発生中か否かを示す情報や、当該音源オブジェクトが発する音声の音の大きさやその音の指向性等を定義した情報等、音源オブジェクトが発する音声に関する情報も適宜含まれている。 In addition, although not shown in the figure, the sound source object emits information such as information indicating whether the sound source object is generating sound, information defining the sound volume of the sound generated by the sound source object, the directivity of the sound, or the like. Information about audio is also included as appropriate.
次に、図15〜図17のフローチャートを参照し、ゲーム処理プログラム81に基づいてゲーム装置本体5のCPU11によって実行されるゲーム処理の流れを説明する。
Next, the flow of game processing executed by the
図15において、ゲーム処理プログラム81の実行が開始されると、ステップS1において、CPU11は、初期設定処理を行う。この初期設定処理では、上記音源オブジェクト等の各種オブジェクトの初期設定および仮想空間内への配置、仮想カメラや仮想マイクの姿勢(仮想マイク姿勢データ87)の初期化が実行される。図16は、当該初期設定処理の詳細を示すフローチャートである。当該初期設定処理では、まず、セット型音源オブジェクトの設定処理が行われる。すなわち、ステップS41で、CPU11は、音源オブジェクトの中から、上記セット型音源オブジェクトを抽出する。
In FIG. 15, when the execution of the
次に、ステップS42で、CPU11は、抽出したセット型音源オブジェクトのうち、処理対象とする1組のセット型音源オブジェクトを選択する。以下、これを処理対象オブジェクトと呼ぶ。
Next, in step S42, the
次に、ステップS43で、CPU11は、対応BGM識別データ883に基づいて、当該処理対象が再生するBGMのデータをゲーム音声データ85から取得する。続くステップS44で、CPU11は、当該取得したBGMデータに基づいて、上記LチャンネルデータおよびRチャンネルデータを生成する。
Next, in step S <b> 43, the
次に、ステップS45で、CPU11は、上記生成したLチャンネルデータおよびRチャンネルデータを処理対象オブジェクト(2つの音源オブジェクト)に1つずつ割り当てる。すなわち、まず、CPU11は、当該処理対象オブジェクトのうちの一方の音源オブジェクトの担当チャンネル識別データ884を参照する。そして、これに示されているチャンネルに対応するLチャンネルデータ、またはRチャンネルデータを分離後BGMデータ885に格納する。同様に、処理対象オブジェクトのうちの他方の音源オブジェクトの分離後BGMデータ885に、残りのLチャンネルデータ、またはRチャンネルデータを格納する。これにより、あるBGMについて、Lチャンネルの音のみ再生する音源オブジェクトと、Rチャンネルの音のみ再生する音源オブジェクトとの2つの音源オブジェクトが設定されることになる。
Next, in step S45, the
次に、ステップS46で、CPU11は、上記処理対象オブジェクトを仮想空間内の所定の位置に配置する。なお、この配置位置については、上記図8の音源オブジェクト105Lおよび105Rのように、2つの音源オブジェクトが左右にある程度離れているような位置関係(つまり、ステレオ効果が得られるような位置関係)となるように配置することが好ましい。
Next, in step S46, the
次に、ステップS47で、CPU11は、上記ステップS41で抽出したセット型音源オブジェクトの全てについて上記のような処理が行われたか否かを判定する。その結果、まだ未処理のセット型音源オブジェクトが残っているときは(ステップS47でNO)、上記ステップS42に戻り処理が繰り返される。一方、全て処理済みであれば(ステップS47でYES)、続くステップS48で、CPU11は、その他の初期設定処理を実行する。すなわち、各種オブジェクト(単体型音源オブジェクトやプレイヤキャラクタ等)の仮想空間内への配置や、仮想カメラおよび仮想マイク等の姿勢の初期化、その他各種変数の初期化等が実行される。なお、仮想カメラおよび仮想マイクの初期値は、マイク座標系の各軸の向きを仮想3次元空間の空間座標系の各軸の向きに一致させた状態である。以上で、初期設定処理は終了する。
Next, in step S47, the
図15に戻り、次に、ステップS2において、CPU11は、端末操作データ83の取得を行う。
Returning to FIG. 15, next, in step S <b> 2, the
次に、ステップS3において、CPU11は、モーションセンサデータ93(加速度データおよび角速度データ)に基づいて、端末装置6の現在の姿勢を算出する。算出された姿勢を示すデータは、端末装置姿勢データ86としてメモリ12に格納される。
Next, in step S <b> 3, the
次に、ステップS4において、CPU11は、端末装置6の現在の姿勢を仮想マイク(端末用仮想マイク)の姿勢に反映する。具体的には、端末装置姿勢データ86で示される姿勢を仮想マイク姿勢データ87に反映させる。
Next, in step S4, the
次に、ステップS5において、CPU11は、端末操作データ83で示される操作内容(主に操作ボタンデータ91やタッチ位置データ92で示される操作内容)に基づき、所定のゲーム処理を実行する。例えば、プレイヤキャラクタ等の各種キャラクタを移動させる処理等が行われる。
Next, in step S <b> 5, the
次に、ステップS6において、CPU11は、上記ゲーム処理の結果が反映されたゲーム画像を生成する処理を実行する。例えば、上記操作内容に基づいてプレイヤキャラクタが移動した後の仮想ゲーム空間を仮想カメラで撮影することでゲーム画像が生成される。また、このとき、CPU11は、ゲーム内容に応じて、適宜、モニタ用ゲーム画像と端末用ゲーム画像の2つの画像を生成する。例えば、2つの仮想カメラを用いることでそれぞれの画像が生成される。
Next, in step S6, the
次に、ステップS7において、CPU11は、モニタ用ゲーム音声および端末用ゲーム音声を生成するためのゲーム音声生成処理を実行する。図17は、上記ステップS7で示したゲーム音声生成処理の詳細を示すフローチャートである。図17において、まず、ステップS21で、CPU11は、処理対象とする音源オブジェクトを一つ選択する。音源オブジェクトが仮想空間内に複数存在する場合に、これらを一つずつ順番に処理していくためである。また、処理対象となる音源オブジェクトは、例えば、現在音声発生中の状態にある音源オブジェクトである。
Next, in step S7, the
次に、ステップS22において、CPU11は、上記処理対象の音源オブジェクトのマイク座標系における位置および向きを算出する。これにより、マイク座標系において、音源オブジェクトが仮想マイク(の正面方向を基準として)の右側に位置するか左側に位置するかを認識することができる。
Next, in step S22, the
次に、ステップS23で、CPU11は、マイク座標系における仮想マイクから音源オブジェクトまでの直線距離を算出する。続くステップS24において、CPU11は、上記算出したマイク座標系における音源オブジェクトの位置、向き、距離、および、仮想マイク自身の向きに基づいて、スピーカ23Lおよび23Rのそれぞれの音量値を決定する。つまり、スピーカ23Lおよび23Rの左右の音量バランスが決定される。
Next, in step S23, the
次に、ステップS25において、CPU11は、当該音源オブジェクトに対応付けられているゲーム音声データ85を再生する。但し、当該音源オブジェクトが上記セット型音源オブジェクトにかかるものである場合は、再生される音声は分離後BGMデータ885に基づくものとなる。その結果、セット型音源オブジェクトに関しては、所定のBGMのLチャンネルの音声のみ、あるいは、Rチャンネルの音声のみが再生されることになる。なお、再生音量については、上記ステップS24で決定された音量に従う。
Next, in step S25, the
次に、ステップS26において、CPU11は、処理対象となる音源オブジェクトの全てについて上記のような処理を行ったか否かを判定する。そして、まだ未処理の音源オブジェクトが残っていれば(ステップS26でNO)、CPU11は、上記ステップS21に戻り処理を繰り返す。一方、全て処理が終わっていれば(ステップS26でYES)、ステップS27において、CPU11は、上記処理を行った各音源オブジェクトにかかる音声を含む端末用ゲーム音声を生成する。
Next, in step S <b> 26, the
続くステップS27で、CPU11は、モニタ用仮想マイクを用いて、ゲーム処理の結果に応じたモニタ用ゲーム音声を適宜生成する。ここでは、当該モニタ用ゲーム音声も、その対象をスピーカ2Lおよび2Rとして、基本的には上記端末用ゲーム音声と同様の処理で生成されるものとする。以上で、ゲーム音声生成処理は終了する。
In subsequent step S27, the
図15に戻り、ゲーム音声生成処理の次に、ステップS8において、CPU11は、上記ステップS3で生成された端末用ゲーム画像およびステップS7で生成された端末用ゲーム音声を端末送信用データ84に格納し、当該端末送信用データ84を端末装置6に送信する。なお、ここでは説明の便宜上、端末用ゲーム音声の送信周期を端末用ゲーム画像の送信周期を合わせている例を挙げているが、他の実施形態では、端末用ゲーム音声の送信周期については端末用ゲーム画像の送信周期よりも短くしてもよい。例えば、端末用ゲーム画像については1/60秒周期で送信するようにし、端末用ゲーム音声については1/180秒周期で送信するようにしてもよい。
Returning to FIG. 15, next to the game sound generation process, in step S <b> 8, the
次に、ステップS9において、CPU11は、上記ステップS6で生成されたモニタ用ゲーム画像をモニタ2に出力する。続くステップS10において、CPU11は、上記ステップS7で生成されたモニタ用ゲーム音声をスピーカ2Lおよび2Rに出力する。
Next, in step S9, the
次に、ステップS11で、CPU11は、ゲーム処理を終了するための所定の条件が満たされたか否かを判定する。その結果、所定の条件が満たされていないときは(ステップS11でNO)、上記ステップS2に戻り、上述の処理を繰り返す。所定の条件が満たされたときは(ステップS11でYES)、CPU11は当該ゲーム処理を終了する。
Next, in step S11, the
次に、図18のフローチャートを参照して、端末装置6の制御部33が実行する制御処理の流れを説明する。まず、ステップS41において、制御部33は、ゲーム装置本体5から送信された端末送信用データ84を受信する。
Next, the flow of control processing executed by the
次に、ステップS42において、制御部33は、上記受信した端末送信用データ84に含まれている端末用ゲーム画像をLCD21に出力する。
Next, in step S <b> 42, the
次に、ステップS43において、制御部33は、上記受信した端末送信用データ84に含まれている端末用ゲーム音声をスピーカ23Lおよび23Rに出力する。また、その音量バランスは、上記ステップS24で決定された音量に従う。
Next, in step S43, the
次に、ステップS44において、制御部33は、操作部31やモーションセンサ32、タッチパネル22に対する入力(操作内容)を検出し、操作ボタンデータ91、タッチ位置データ92、および、モーションセンサデータ93を生成する。
Next, in step S <b> 44, the
次に、ステップS45において、制御部33は、上記ステップS44で生成した操作ボタンデータ91、タッチ位置データ92、を含む端末操作データ83を生成し、ゲーム装置本体5に送信する。
Next, in step S <b> 45, the
次に、ステップS46において、制御部33は、端末装置6の制御処理を終了するための所定の条件が満たされたか否かを判定する(例えば、電源オフ操作が行われたか否か等)。その結果、所定の条件が満たされていないときは(ステップS46でNO)、上記ステップS41に戻り、上述の処理を繰り返す。所定の条件が満たされたときは(ステップS46でYES)、制御部33は当該端末装置6の制御処理を終了する。
Next, in step S46, the
このように、本実施形態では、仮想空間内の音源オブジェクト(特に、セット型音源オブジェクト)と仮想マイクとの位置関係やその向きを反映したBGMの再生処理を行っている。これにより、仮想空間内の音源から2chで構成されたBGMが再生されるときの音響表現をより正確に表現でき、仮想空間の臨場感をより高めることができる。特に、上述したような、端末装置6自体の姿勢を変化させて「覗き窓」のように仮想空間の様子を表示するようなシステムのゲーム処理等に上記の処理は好適である。
As described above, in the present embodiment, the BGM reproduction process reflecting the positional relationship between the sound source object (particularly, the set-type sound source object) and the virtual microphone in the virtual space is performed. Accordingly, it is possible to more accurately represent the acoustic expression when the BGM composed of 2ch is reproduced from the sound source in the virtual space, and it is possible to further enhance the sense of reality in the virtual space. In particular, the above processing is suitable for the game processing of the system that displays the state of the virtual space like a “view window” by changing the attitude of the
なお、上記実施形態では、初期設定処理において所定のBGMをLRチャンネルのデータに分離し、異なる音源オブジェクトに割り当てる処理を行っていた。このような処理の他、次のような処理を行っても良い。例えば、ゲームソフトの開発段階で上記のような2chのBGMをチャンネル分離したサウンドデータ(LチャンネルデータおよびRチャンネルデータ)を予め作成しておき、ゲーム音声データ85に含めておくようにしてもよい。そして、所定の音源オブジェクトに対応するBGMデータとして、LチャンネルデータあるいはRチャンネルデータを対応付けた音源オブジェクトデータを予め作成しておくようにしてもよい。この場合は、図14で示したような音源オブジェクトデータ88の構成としては、オブジェクトID881および対応BGM識別データ883のみが含まれる構成でもよい。そして、上記初期設定処理においては、他の音源オブジェクトのデータと共に、当該LチャンネルデータあるいはRチャンネルデータを再生する音源オブジェクトのデータを読み出し、仮想空間内に適宜配置するだけでよい。これは、初期設定処理にかかる処理時間が短縮される点で有利である。
In the above embodiment, in the initial setting process, a predetermined BGM is separated into LR channel data and assigned to different sound source objects. In addition to such processing, the following processing may be performed. For example, sound data (L channel data and R channel data) obtained by channel-separating the 2ch BGM as described above may be created in advance and included in the
また、その他、上記ステップS7のゲーム音声生成処理において、上記のBGMのチャンネル分離処理等をリアルタイムに実行するようにしてもよい。例えば、上記音源オブジェクトデータ88の構成として、図14に示した構成から分離後BGMデータ885のみを外した構成としておく。そして、ゲーム音声生成処理において、セット型音源オブジェクトについては、その組を構成する各音源オブジェクトの担当チャンネル識別データ884を参照する。そして、その音源オブジェクトが担当するチャンネルを識別できれば、BGMデータをLチャンネルとRチャンネルのサウンドデータに分離し、担当チャンネルのサウンドデータのみを再生するようにしてもよい。
In addition, in the game sound generation process in step S7, the BGM channel separation process and the like may be executed in real time. For example, as the configuration of the sound source object
また、上記実施形態では、モニタ2および端末装置6という、2つの画面と2セットのステレオスピーカ(4つのスピーカ)を有するゲームシステムを例に挙げた。このような構成に限らず、例えば、携帯型ゲーム装置のように、画面およびステレオスピーカがハウジングに一体化するよう設けられている情報処理装置にも上記の処理は適用可能である。また、このような情報処理装置は、モーションセンサを内蔵しており、自身の姿勢が検知可能な情報処理装置であることが好ましい。そして、このような情報処理装置で、上述したような仮想空間の表示システムを利用する処理を行う場合に好適である。この場合は、仮想カメラや仮想マイクを一つだけにして上記と同様の処理を行えばよい。
In the above embodiment, a game system having two screens and two sets of stereo speakers (four speakers), such as the
また、例えば、プレイヤの直接的な操作対象となるゲーム画面の表示や各種操作に関しては端末装置6を用いるが、音声出力に関しては、端末装置6のスピーカ23は使わずにモニタ2のスピーカのみを利用するような構成の場合も上記のような処理は適用可能である。例えば、プレイヤが端末装置6を把持したまま、モニタ2に対面している姿勢から180度回転した場合(つまり、モニタ2に背を向けた場合)、上記の処理を用いてセット型音源オブジェクトの音声をモニタ2のスピーカ2Lおよび2Rに出力するようにすればよい。
Further, for example, the
また、外付けスピーカとして、例えば5.1chサラウンドシステムのスピーカを用いるような場合も、同様の処理が適用できる。この場合は、例えば、5.1ch対応のBGMデータをチャンネル毎のデータに分離し(6つのサウンドデータとなる)、これらを6つの音源オブジェクトに割り当てるようにすればよい、そして、上記のように端末装置6の姿勢変化に応じて仮想マイクの向きを変化させ、仮想空間内の音源オブジェクトと仮想マイクとの位置関係や向きに基づいてBGM再生処理を行えば、スピーカの数が多い分、より臨場感の高いBGM再生の音響効果を提供することができる。
The same processing can be applied to a case where, for example, a 5.1ch surround system speaker is used as the external speaker. In this case, for example, 5.1ch-compatible BGM data is separated into data for each channel (becomes six sound data), and these are assigned to six sound source objects, and as described above. If the direction of the virtual microphone is changed in accordance with the change in the attitude of the
また、例えば端末装置6にステレオヘッドホンを接続し、プレイヤがこれを用いてゲーム音声を聴くような場合も上記処理は適用可能である。この場合は、ヘッドホン端子24へのヘッドホンの接続状態をゲーム装置本体5が検出できるように構成する。例えば、接続状態を示すデータを上記端末操作データ83に含めるように構成する。そして、上述の処理におけるスピーカ23Lおよび23Rへの出力をこのようなヘッドホンの左右スピーカへの出力に置き換えるようにして上記処理を適用すればよい。但し、上記図11で示したような、端末装置6を縦持ちにしたときの上下方向にかかる音声の鳴らし分けの処理に関しては、ヘッドホン装着時は適用しないようにしてもよい。プレイヤがヘッドホンを装着しているときは、スピーカの位置関係は左右方向にかかる配置という位置関係に固定されるためである。
Further, for example, the above-described processing can be applied when a stereo headphone is connected to the
また、その他、端末装置6自体の姿勢は変更せずに、仮想カメラの向きのみをプレイヤが操作可能な場合にも上記処理を適用してもよい(例えば、アナログスティック25を用いて仮想カメラの向きを変更する等)。プレイヤからすると、仮想カメラの向きの操作によって、自分を中心にして仮想空間自体が回転しているような感覚となる。この場合は、端末装置6の姿勢の代わりに、プレイヤの操作によって変更された仮想カメラの姿勢に併せて仮想マイクの向きを変更すればよい。すなわち、仮想マイクの正面方向(z軸正方向)が仮想カメラの正面方向(z軸正方向)に一致するように仮想マイクの姿勢を変更し、上記のような処理を行うようにしてもよい。
In addition, the above processing may be applied even when the player can operate only the orientation of the virtual camera without changing the orientation of the
また、その他、モニタ2のスピーカ2Lおよび2Rと、端末装置6のスピーカ23Lおよび23Rの、合計2セットのステレオスピーカ(計4つのスピーカ)を用いて上記の処理を適用しても良い。特に、端末装置6を主に「縦向き姿勢」で利用する場合に好適である。この場合、例えば、仮想空間内の左右方向についての音源オブジェクトの移動に関してはモニタ2のスピーカ23Lおよび23Rからの出力に反映させる。そして、上下方向についての音源オブジェクトの移動については、端末装置6のスピーカ23Lおよび23Rからの出力に反映させる。これにより、例えば5.1chのスピーカセットを用いずとも、臨場感の高い音響効果を得られる。
In addition, the above processing may be applied using a total of two sets of stereo speakers (a total of four speakers) including the
また、上述の実施例にかかる処理を実行するためのゲーム処理プログラムは、任意のコンピュータ読み取り可能な記憶媒体(例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、半導体メモリカード、ROM、RAMなど)に格納され得る。 In addition, a game processing program for executing the processing according to the above-described embodiment is an arbitrary computer-readable storage medium (for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic medium). Tape, semiconductor memory card, ROM, RAM, etc.).
また、上記実施例ではゲーム処理を一例に説明しているが、情報処理の内容はゲーム処理に限るものではなく、上記のような仮想空間の表示システムを利用する他の情報処理においても上記実施例の処理は適用可能である。 In the above embodiment, the game process is described as an example. However, the contents of the information processing are not limited to the game process, and the above processing is also performed in other information processing using the virtual space display system as described above. The example processing is applicable.
また、上記実施形態においては、2chで構成されるBGMデータをLRそれぞれのチャンネルに分離し、別々の音源オブジェクトで再生するような制御を行うための一連の処理が単一の装置(ゲーム装置本体5)において実行される場合を説明したが、他の実施形態においては、上記一連の処理が複数の情報処理装置からなる情報処理システムにおいて実行されてもよい。例えば、ゲーム装置本体5と、当該ゲーム装置本体5とネットワークを介して通信可能なサーバ側装置とを含む情報処理システムにおいて、上記一連の処理のうちの一部の処理がサーバ側装置によって実行されてもよい。また、上記情報処理システムにおいて、サーバ側のシステムは、複数の情報処理装置によって構成され、サーバ側で実行するべき処理を複数の情報処理装置が分担して実行してもよい。
In the above-described embodiment, a series of processes for performing control such that BGM data composed of 2ch is separated into LR channels and reproduced by separate sound source objects is performed by a single device (game device main body). Although the case where it performed in 5) was demonstrated, in other embodiment, the said series of processes may be performed in the information processing system which consists of a some information processing apparatus. For example, in an information processing system including a
1…ゲームシステム
2…モニタ
2L、2R…スピーカ
3…ゲーム装置
5…ゲーム装置本体
6…端末装置
20…ハウジング
21…LCD
23L、23R…スピーカ
DESCRIPTION OF
23L, 23R ... Speaker
Claims (11)
2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する音楽データ分離手段と、
前記分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する音源オブジェクト配置手段と、
前記仮想3次元空間内の所定の位置に仮想マイクを配置する仮想マイク配置手段と、
前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、前記第1のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、前記第2のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する音声出力制御手段と、を備える、情報処理システム。 An information processing system comprising an information processing unit, a first speaker, and a second speaker,
Music data separation means for separating predetermined music data composed of two channels into first channel music data and second channel music data;
The first sound source object associated with one of the separated music data and the second sound source object associated with the other of the separated music data are different from each other in the virtual three-dimensional space. A sound source object placement means for placing a position;
Virtual microphone placement means for placing a virtual microphone at a predetermined position in the virtual three-dimensional space;
The first channel music reproduced from the first speaker based on the positional relationship between the direction of the virtual microphone arranged in the virtual three-dimensional space and the first sound source object and the second sound source object. Audio output control means for determining the reproduction volume of the data and the second channel music data, and the reproduction volume of the first channel music data and the second channel music data reproduced from the second speaker. Processing system.
動きセンサ、前記第1のスピーカ、前記第2のスピーカ、および前記仮想3次元空間の様子が表示される第1の表示部とが設けられているハウジングを有する第1出力装置と、
前記動きセンサの出力に基づいて前記第1出力装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出する姿勢検出手段と、
前記第1出力装置の姿勢に応じて前記仮想マイクの向きを変更する仮想マイク姿勢変更手段と、を更に備える、請求項1に記載の情報処理システム。 The information processing system includes:
A first output device having a housing provided with a motion sensor, the first speaker, the second speaker, and a first display unit on which a state of the virtual three-dimensional space is displayed;
Posture detection means for detecting the posture of the first output device itself in real time or almost in real time based on the output of the motion sensor;
The information processing system according to claim 1, further comprising: a virtual microphone posture changing unit that changes a direction of the virtual microphone according to a posture of the first output device.
前記音声出力制御手段は、前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に加え、更に前記第1のスピーカおよび前記第2のスピーカの位置関係に基づいて、当該第1のスピーカから出力される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、当該第2のスピーカから出力される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量を決定する、請求項2に記載の情報処理システム。 The information processing system further includes a speaker positional relationship recognition unit that recognizes a positional relationship between the first speaker and the second speaker based on an attitude of the first output device,
In addition to the positional relationship between the direction of the virtual microphone arranged in the virtual three-dimensional space and the first sound source object and the second sound source object, the audio output control means further includes the first speaker and the Based on the positional relationship of the second speaker, the playback volume of the first channel music data and second channel music data output from the first speaker, and the first channel music output from the second speaker. The information processing system according to claim 2, wherein a reproduction volume of the data and the second channel music data is determined.
前記音声出力制御部は、前記第1出力装置が有する第1のスピーカおよび第2のスピーカと、前記第2出力装置が有する第3のスピーカおよび第4のスピーカとの間の位置関係に基づいて、各スピーカからの前記再生音量を決定する、請求項2に記載の情報処理システム。 The information processing system further includes a second output device having a third speaker, a fourth speaker, and a second display unit,
The audio output control unit is based on a positional relationship between the first speaker and the second speaker included in the first output device and the third speaker and the fourth speaker included in the second output device. The information processing system according to claim 2, wherein the reproduction volume from each speaker is determined.
前記第1のスピーカおよび第2のスピーカは、組となるステレオスピーカである、請求項1ないし4のいずれかに記載の情報処理システム。 The music data is music data composed of two stereo channels,
The information processing system according to claim 1, wherein the first speaker and the second speaker are a pair of stereo speakers.
2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する音楽データ分離手段と、
前記分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する音源オブジェクト配置手段と、
前記仮想3次元空間内の所定の位置に仮想マイクを配置する仮想マイク配置手段と、
前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、前記第1のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、前記第2のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する音声出力制御手段として前記コンピュータを機能させる、情報処理プログラム。 An information processing program to be executed by a computer of an audio output system including an information processing unit, a first speaker, and a second speaker, wherein predetermined music data composed of two channels is converted into first channel music data and second Music data separating means for separating into channel music data;
The first sound source object associated with one of the separated music data and the second sound source object associated with the other of the separated music data are different from each other in the virtual three-dimensional space. A sound source object placement means for placing a position;
Virtual microphone placement means for placing a virtual microphone at a predetermined position in the virtual three-dimensional space;
The first channel music reproduced from the first speaker based on the positional relationship between the direction of the virtual microphone arranged in the virtual three-dimensional space and the first sound source object and the second sound source object. The computer functions as audio output control means for determining the reproduction volume of the data and the second channel music data and the reproduction volume of the first channel music data and the second channel music data reproduced from the second speaker. Information processing program.
前記情報処理プログラムは、前記コンピュータを、
前記動きセンサの出力に基づいて前記第1出力装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出する姿勢検出手段と、
前記第1出力装置の姿勢に応じて前記仮想マイクの向きを変更する仮想マイク姿勢変更手段として更に機能させる、請求項6に記載の情報処理プログラム。 The information processing system includes a housing provided with a motion sensor, the first speaker, the second speaker, and a first display unit on which a state of the virtual three-dimensional space is displayed. Further comprising a device,
The information processing program causes the computer to
Posture detection means for detecting the posture of the first output device itself in real time or almost in real time based on the output of the motion sensor;
The information processing program according to claim 6, further causing it to function as virtual microphone posture changing means for changing a direction of the virtual microphone according to a posture of the first output device.
2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する音楽データ分離ステップと、
前記分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する音源オブジェクト配置ステップと、
前記仮想3次元空間内の所定の位置に仮想マイクを配置するマイク配置ステップと、
前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、前記第1のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、前記第2のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する音声出力制御ステップとを備える、情報処理制御方法。 An information processing control method for controlling an information processing system and an information processing system including a first speaker and a second speaker, wherein predetermined music data composed of two channels is converted into first channel music data and A music data separation step for separating into two-channel music data;
The first sound source object associated with one of the separated music data and the second sound source object associated with the other of the separated music data are different from each other in the virtual three-dimensional space. A sound source object placement step to be placed at a position;
A microphone placement step of placing a virtual microphone at a predetermined position in the virtual three-dimensional space;
The first channel music reproduced from the first speaker based on the positional relationship between the direction of the virtual microphone arranged in the virtual three-dimensional space and the first sound source object and the second sound source object. And an audio output control step for determining a reproduction volume of the data and the second channel music data and a reproduction volume of the first channel music data and the second channel music data reproduced from the second speaker. Control method.
前記情報処理制御方法は、
前記動きセンサの出力に基づいて前記第1出力装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出する姿勢検出ステップと、
前記第1出力装置の姿勢に応じて前記仮想マイクの向きを変更する仮想マイク姿勢変更ステップと、を更に備える、請求項8に記載の情報処理システム。 The information processing system includes a housing having a motion sensor, the first speaker, the second speaker, and a first display unit on which a state of the virtual three-dimensional space is displayed. Has an output device,
The information processing control method includes:
An attitude detection step for detecting the attitude of the first output device itself in real time or almost in real time based on the output of the motion sensor;
The information processing system according to claim 8, further comprising: a virtual microphone posture changing step of changing a direction of the virtual microphone according to a posture of the first output device.
2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する音楽データ分離手段と、
前記分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する音源オブジェクト配置手段と、
前記仮想3次元空間内の所定の位置に仮想マイクを配置する仮想マイク配置手段と、
前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、前記第1のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、前記第2のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する音声出力制御手段と、を備える、情報処理装置。 An information processing apparatus comprising a first speaker and a second speaker,
Music data separation means for separating predetermined music data composed of two channels into first channel music data and second channel music data;
The first sound source object associated with one of the separated music data and the second sound source object associated with the other of the separated music data are different from each other in the virtual three-dimensional space. A sound source object placement means for placing a position;
Virtual microphone placement means for placing a virtual microphone at a predetermined position in the virtual three-dimensional space;
The first channel music reproduced from the first speaker based on the positional relationship between the direction of the virtual microphone arranged in the virtual three-dimensional space and the first sound source object and the second sound source object. Audio output control means for determining the reproduction volume of the data and the second channel music data, and the reproduction volume of the first channel music data and the second channel music data reproduced from the second speaker. Processing equipment.
動きセンサと、
前記仮想3次元空間の様子が表示される第1の表示手段と、
前記動きセンサの出力に基づいて前記情報処理装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出する姿勢検出手段と、
前記情報処理の姿勢に応じて前記仮想マイクの向きを変更する仮想マイク姿勢変更手段と、を更に備える、請求項10に記載の情報処理装置。 The information processing apparatus includes:
A motion sensor;
First display means for displaying the state of the virtual three-dimensional space;
Posture detecting means for detecting the posture of the information processing device itself in real time or almost in real time based on the output of the motion sensor;
The information processing apparatus according to claim 10, further comprising: a virtual microphone posture changing unit that changes a direction of the virtual microphone according to the posture of the information processing.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012237973A JP6055651B2 (en) | 2012-10-29 | 2012-10-29 | Information processing system, information processing program, information processing control method, and information processing apparatus |
| US13/867,469 US9241231B2 (en) | 2012-10-29 | 2013-04-22 | Information processing system, computer-readable non-transitory storage medium having stored therein information processing program, information processing control method, and information processing apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012237973A JP6055651B2 (en) | 2012-10-29 | 2012-10-29 | Information processing system, information processing program, information processing control method, and information processing apparatus |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2014090251A true JP2014090251A (en) | 2014-05-15 |
| JP6055651B2 JP6055651B2 (en) | 2016-12-27 |
Family
ID=50547216
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012237973A Active JP6055651B2 (en) | 2012-10-29 | 2012-10-29 | Information processing system, information processing program, information processing control method, and information processing apparatus |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US9241231B2 (en) |
| JP (1) | JP6055651B2 (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2016088306A1 (en) * | 2014-12-03 | 2016-06-09 | 株式会社ソシオネクスト | Sound reproduction system |
| JP2018026048A (en) * | 2016-08-12 | 2018-02-15 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
| JP2018088946A (en) * | 2016-11-30 | 2018-06-14 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
| WO2024085444A1 (en) * | 2022-10-18 | 2024-04-25 | 삼성전자 주식회사 | Method for providing content, and display device |
| JP2025091813A (en) * | 2023-12-07 | 2025-06-19 | 株式会社カプコン | Program, sound control device, and system |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10038947B2 (en) * | 2013-10-24 | 2018-07-31 | Samsung Electronics Co., Ltd. | Method and apparatus for outputting sound through speaker |
| US10293253B2 (en) | 2015-11-27 | 2019-05-21 | Gree, Inc. | Program, game control method, and information processing apparatus |
| JP6670202B2 (en) * | 2016-08-10 | 2020-03-18 | 任天堂株式会社 | Voice processing program, information processing program, voice processing method, voice processing device, and game program |
| US20210365526A1 (en) * | 2020-05-20 | 2021-11-25 | Sony Group Corporation | Mix tape digital assets in virtual environments |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0991461A (en) * | 1995-09-26 | 1997-04-04 | Nippon Telegr & Teleph Corp <Ntt> | Sound field controller |
| JP2003244786A (en) * | 2002-02-15 | 2003-08-29 | Fujitsu Ltd | Electronics |
| JP2003257162A (en) * | 2002-02-27 | 2003-09-12 | Yamaha Corp | Sound controller, sound control method, program, and recording medium |
| US20060067534A1 (en) * | 2004-09-27 | 2006-03-30 | Nintendo Co., Ltd. | Storage medium storing stereo enhancement processing program, stereo enhancement apparatus and stereo enhancement method |
| US20100034404A1 (en) * | 2008-08-11 | 2010-02-11 | Paul Wilkinson Dent | Virtual reality sound for advanced multi-media applications |
| JP2012183256A (en) * | 2011-03-08 | 2012-09-27 | Nintendo Co Ltd | Information processing system, information processing program and information processing method |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7146296B1 (en) * | 1999-08-06 | 2006-12-05 | Agere Systems Inc. | Acoustic modeling apparatus and method using accelerated beam tracing techniques |
| GB2359177A (en) * | 2000-02-08 | 2001-08-15 | Nokia Corp | Orientation sensitive display and selection mechanism |
| KR100542129B1 (en) * | 2002-10-28 | 2006-01-11 | 한국전자통신연구원 | Object-based 3D Audio System and Its Control Method |
| US9015051B2 (en) * | 2007-03-21 | 2015-04-21 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Reconstruction of audio channels with direction parameters indicating direction of origin |
| US20090282335A1 (en) * | 2008-05-06 | 2009-11-12 | Petter Alexandersson | Electronic device with 3d positional audio function and method |
| JP5036797B2 (en) | 2009-12-11 | 2012-09-26 | 株式会社スクウェア・エニックス | Pronunciation processing apparatus, pronunciation processing method, and pronunciation processing program |
| KR101844511B1 (en) * | 2010-03-19 | 2018-05-18 | 삼성전자주식회사 | Method and apparatus for reproducing stereophonic sound |
| US8665321B2 (en) * | 2010-06-08 | 2014-03-04 | Lg Electronics Inc. | Image display apparatus and method for operating the same |
| KR101401775B1 (en) * | 2010-11-10 | 2014-05-30 | 한국전자통신연구원 | Apparatus and method for reproducing surround wave field using wave field synthesis based speaker array |
| JP5780755B2 (en) | 2010-12-24 | 2015-09-16 | 任天堂株式会社 | GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD |
| JP5969200B2 (en) * | 2011-11-11 | 2016-08-17 | 任天堂株式会社 | Information processing program, information processing apparatus, information processing system, and information processing method |
| KR20130098770A (en) | 2012-02-28 | 2013-09-05 | 한국전자통신연구원 | Expanded 3d space based virtual sports simulation system |
| US20130279706A1 (en) * | 2012-04-23 | 2013-10-24 | Stefan J. Marti | Controlling individual audio output devices based on detected inputs |
-
2012
- 2012-10-29 JP JP2012237973A patent/JP6055651B2/en active Active
-
2013
- 2013-04-22 US US13/867,469 patent/US9241231B2/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0991461A (en) * | 1995-09-26 | 1997-04-04 | Nippon Telegr & Teleph Corp <Ntt> | Sound field controller |
| JP2003244786A (en) * | 2002-02-15 | 2003-08-29 | Fujitsu Ltd | Electronics |
| JP2003257162A (en) * | 2002-02-27 | 2003-09-12 | Yamaha Corp | Sound controller, sound control method, program, and recording medium |
| US20060067534A1 (en) * | 2004-09-27 | 2006-03-30 | Nintendo Co., Ltd. | Storage medium storing stereo enhancement processing program, stereo enhancement apparatus and stereo enhancement method |
| JP2006094275A (en) * | 2004-09-27 | 2006-04-06 | Nintendo Co Ltd | Stereo-sound expanding processing program and stereo-sound expanding device |
| US20100034404A1 (en) * | 2008-08-11 | 2010-02-11 | Paul Wilkinson Dent | Virtual reality sound for advanced multi-media applications |
| JP2012183256A (en) * | 2011-03-08 | 2012-09-27 | Nintendo Co Ltd | Information processing system, information processing program and information processing method |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2016088306A1 (en) * | 2014-12-03 | 2016-06-09 | 株式会社ソシオネクスト | Sound reproduction system |
| JP2018026048A (en) * | 2016-08-12 | 2018-02-15 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
| JP2018088946A (en) * | 2016-11-30 | 2018-06-14 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
| US10504296B2 (en) | 2016-11-30 | 2019-12-10 | Colopl, Inc. | Information processing method and system for executing the information processing method |
| WO2024085444A1 (en) * | 2022-10-18 | 2024-04-25 | 삼성전자 주식회사 | Method for providing content, and display device |
| JP2025091813A (en) * | 2023-12-07 | 2025-06-19 | 株式会社カプコン | Program, sound control device, and system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6055651B2 (en) | 2016-12-27 |
| US9241231B2 (en) | 2016-01-19 |
| US20140119580A1 (en) | 2014-05-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6055651B2 (en) | Information processing system, information processing program, information processing control method, and information processing apparatus | |
| JP6243595B2 (en) | Information processing system, information processing program, information processing control method, and information processing apparatus | |
| JP6147486B2 (en) | GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM | |
| CN107277736B (en) | Simulation system, sound processing method, and information storage medium | |
| JP6055657B2 (en) | GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM | |
| JP5992210B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
| EP3485346B1 (en) | Virtual, augmented, and mixed reality | |
| CN109691141B (en) | Spatialized audio system and method of rendering spatialized audio | |
| CN103218198B (en) | Voice Localization for Motion Users | |
| JP2017119032A (en) | GAME DEVICE AND PROGRAM | |
| EP3477466A1 (en) | Provision of virtual reality content | |
| JP6616023B2 (en) | Audio output device, head mounted display, audio output method and program | |
| JP4688267B2 (en) | GAME DEVICE AND INFORMATION STORAGE MEDIUM | |
| EP4306192A1 (en) | Information processing device, information processing terminal, information processing method, and program | |
| JP7053074B1 (en) | Appreciation system, appreciation device and program | |
| JP2019208185A (en) | Information processing unit and sound generation method | |
| JP6603734B2 (en) | GAME PROGRAM AND GAME DEVICE | |
| US9277340B2 (en) | Sound output system, information processing apparatus, computer-readable non-transitory storage medium having information processing program stored therein, and sound output control method | |
| JP6159515B2 (en) | GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING CONTROL METHOD | |
| JP4789145B2 (en) | Content reproduction apparatus and content reproduction program | |
| WO2022149497A1 (en) | Information processing device, information processing method, and computer program | |
| US20250303295A1 (en) | Method for using ai to customize in game audio | |
| JP2025091813A (en) | Program, sound control device, and system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150907 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160422 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160510 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160617 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161122 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161205 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6055651 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |