[go: up one dir, main page]

JP2014090251A - Information processing system, information processing program, information processing control method and information processing device - Google Patents

Information processing system, information processing program, information processing control method and information processing device Download PDF

Info

Publication number
JP2014090251A
JP2014090251A JP2012237973A JP2012237973A JP2014090251A JP 2014090251 A JP2014090251 A JP 2014090251A JP 2012237973 A JP2012237973 A JP 2012237973A JP 2012237973 A JP2012237973 A JP 2012237973A JP 2014090251 A JP2014090251 A JP 2014090251A
Authority
JP
Japan
Prior art keywords
speaker
music data
sound source
information processing
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012237973A
Other languages
Japanese (ja)
Other versions
JP6055651B2 (en
Inventor
Junya Osada
潤也 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2012237973A priority Critical patent/JP6055651B2/en
Priority to US13/867,469 priority patent/US9241231B2/en
Publication of JP2014090251A publication Critical patent/JP2014090251A/en
Application granted granted Critical
Publication of JP6055651B2 publication Critical patent/JP6055651B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Television Receiver Circuits (AREA)

Abstract

【課題】仮想空間内で再生される音楽について、より臨場感の高い視聴効果が得られる新たなユーザ体験が提供可能な情報処理システム等を提供すること。
【解決手段】情報処理部と第1のスピーカおよび第2のスピーカとを備える情報処理システムにおいて、2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する。また、分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、他方に対応付けられた第2の音源オブジェクトと、更に仮想マイクを仮想3次元空間内に配置する。そして、仮想マイクの向きと第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、第1のスピーカから再生される音声と第2のスピーカから再生される音声の再生音量を決定する。
【選択図】図16
To provide an information processing system capable of providing a new user experience with a more realistic viewing effect for music played in a virtual space.
In an information processing system including an information processing unit, a first speaker, and a second speaker, predetermined music data composed of two channels is converted into first channel music data and second channel music data. To separate. Further, a first sound source object associated with one of the separated music data, a second sound source object associated with the other, and a virtual microphone are arranged in the virtual three-dimensional space. Based on the orientation of the virtual microphone and the positional relationship between the first sound source object and the second sound source object, the reproduction volume of the sound reproduced from the first speaker and the sound reproduced from the second speaker is determined. To do.
[Selection] Figure 16

Description

本発明は、情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置に関し、より特定的には、情報処理部と、第1のスピーカおよび第2のスピーカを備える情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置に関する。   The present invention relates to an information processing system, an information processing program, an information processing control method, and an information processing apparatus, and more specifically, an information processing system including an information processing unit, a first speaker, and a second speaker, and information The present invention relates to a processing program, an information processing control method, and an information processing apparatus.

従来、一般的なテレビ装置(第1の映像出力装置)と、これとは別の、映像出力可能な表示部を備えたコントローラ(第2の映像出力装置)とを併用するゲームシステムについて知られている。このようなゲームシステムでは、例えば、第1のゲーム映像をテレビ装置に表示し、この第1のゲーム映像とは異なる第2のゲーム映像をコントローラの表示部に表示したりすることで、新しい遊びを提案していた。   2. Description of the Related Art Conventionally, a game system using a general television device (first video output device) and a controller (second video output device) having a display unit capable of outputting video, which is different from this, is known. ing. In such a game system, for example, a first game video is displayed on the television device, and a second game video different from the first game video is displayed on the display unit of the controller, thereby enabling a new game. Had proposed.

特開2012−135337号公報JP 2012-135337 A

しかし、上記提案は、主にどのような映像を表示し、また、これらをゲーム処理との関係でどのように連携させて表示するかを主眼としたものであった。そのため、音声に関する処理に関しては特に言及や提案をするものではなかった。   However, the above proposal mainly focuses on what kind of video is displayed and how these are displayed in association with the game processing. For this reason, no particular mention or suggestion was made regarding processing related to voice.

それ故に、本発明の目的は、仮想空間内の音源から再生される音楽について、より臨場感の高い視聴効果が得られる新たなユーザ体験が提供可能な情報処理システム等を提供することである。   Therefore, an object of the present invention is to provide an information processing system and the like that can provide a new user experience with a more realistic viewing effect for music reproduced from a sound source in a virtual space.

上記目的は、例えば以下のような構成により達成される。   The above object is achieved by, for example, the following configuration.

構成例の一例は、情報処理部と、第1のスピーカおよび第2のスピーカとを備える情報処理システムであって、音楽データ分離手段と、音源オブジェクト配置手段と、仮想マイク配置手段と、音声出力制御手段とを備える。音楽データ分離手段は、2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する。音源オブジェクト配置手段は、分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する。仮想マイク配置手段は、仮想3次元空間内の所定の位置に仮想マイクを配置する。音声出力制御手段は、仮想3次元空間内に配置された仮想マイクの向きと第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、第1のスピーカから再生される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、第2のスピーカから再生される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する。   An example of the configuration is an information processing system including an information processing unit, a first speaker, and a second speaker, and includes a music data separating unit, a sound source object arranging unit, a virtual microphone arranging unit, and an audio output. Control means. The music data separation means separates predetermined music data composed of two channels into first channel music data and second channel music data. The sound source object placement means is a virtual three-dimensional representation of a first sound source object associated with one of the separated music data and a second sound source object associated with the other of the separated music data. Place them at different positions in the space. The virtual microphone arrangement means arranges the virtual microphone at a predetermined position in the virtual three-dimensional space. The audio output control means is a first channel reproduced from the first speaker based on the orientation of the virtual microphone arranged in the virtual three-dimensional space and the positional relationship between the first sound source object and the second sound source object. The reproduction volume of the music data and the second channel music data and the reproduction volume of the first channel music data and the second channel music data reproduced from the second speaker are determined.

上記構成例によれば、仮想空間内の音源から発せられるBGMの再生に関して、より臨場感の高いユーザ体験を提供できる。   According to the above configuration example, it is possible to provide a user experience with a higher sense of realism regarding the reproduction of BGM emitted from the sound source in the virtual space.

また、情報処理システムは、第1出力装置と、姿勢検出手段と、仮想マイク姿勢変更手段とを更に備えていてもよい。第1出力装置は、動きセンサ、第1のスピーカ、第2のスピーカ、および仮想3次元空間の様子が表示される第1の表示部とが設けられているハウジングを有していてもよい。また、姿勢検出手段は、動きセンサの出力に基づいて第1出力装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出するようにしてもよい。仮想マイク姿勢変更手段は、第1出力装置の姿勢に応じて仮想マイクの向きを変更してもよい。   The information processing system may further include a first output device, posture detection means, and virtual microphone posture change means. The first output device may have a housing provided with a motion sensor, a first speaker, a second speaker, and a first display unit on which a state of the virtual three-dimensional space is displayed. Further, the posture detecting means may detect the posture of the first output device itself in real time or almost real time based on the output of the motion sensor. The virtual microphone posture changing means may change the direction of the virtual microphone according to the posture of the first output device.

上記構成例によれば、2つのスピーカを有する第1出力装置自身の姿勢をプレイヤが変化させることによって第1の表示部に表示される仮想空間の表示を変化させるようなゲーム等において、音源オブジェクトが発するBGMについてより臨場感の高い再生が可能となる。   According to the above configuration example, in a game or the like in which the display of the virtual space displayed on the first display unit is changed by the player changing the posture of the first output device itself having two speakers, the sound source object Reproduction with a higher sense of presence is possible for the BGM emitted by.

また、情報処理システムは、第1出力装置の姿勢に基づいて第1のスピーカと第2のスピーカとの位置関係を認識するスピーカ位置関係認識部を更に備えていてもよい。そして、音声出力制御手段は、仮想3次元空間内に配置された仮想マイクの向きと第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に加え、更に第1のスピーカおよび第2のスピーカの位置関係に基づいて、当該第1のスピーカから出力される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、当該第2のスピーカから出力される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量を決定するようにしてもよい。   The information processing system may further include a speaker positional relationship recognition unit that recognizes the positional relationship between the first speaker and the second speaker based on the attitude of the first output device. Then, the audio output control means further includes the first speaker and the second speaker in addition to the positional relationship between the direction of the virtual microphone arranged in the virtual three-dimensional space and the first sound source object and the second sound source object. Based on the positional relationship, the reproduction volume of the first channel music data and the second channel music data output from the first speaker, and the first channel music data and the second channel output from the second speaker. You may make it determine the reproduction volume of music data.

上記構成例によれば、仮想空間内の音源オブジェクトが発する音声の表現について、現実空間におけるスピーカの位置関係を反映させた表現が可能となる。   According to the above configuration example, it is possible to express the sound expressed by the sound source object in the virtual space reflecting the positional relationship of the speakers in the real space.

また、情報処理システムは、第3のスピーカ、第4のスピーカ、および第2の表示部を有する第2出力装置を更に備えていてもよい。そして、音声出力制御部は、第1出力装置が有する第1のスピーカおよび第2のスピーカと、第2出力装置が有する第3のスピーカおよび第4のスピーカとの間の位置関係に基づいて各スピーカからの再生音量を決定するようにしてもよい。   The information processing system may further include a second output device having a third speaker, a fourth speaker, and a second display unit. Then, the audio output control unit is configured based on the positional relationship between the first speaker and the second speaker included in the first output device and the third speaker and the fourth speaker included in the second output device. The playback volume from the speaker may be determined.

上記構成例によれば、例えば、ゲームコントローラとして利用可能な第1出力装置にかかる第1の組のスピーカと、モニタとして利用可能な第2出力装置にかかる第2の組のスピーカのそれぞれを用いてより臨場感の高い音声出力が可能となる。例えば、プレイヤから見て上下方向にかかる音声出力を第1出力装置にかかるスピーカに担当させ、左右方向にかかる音声出力を第2出力装置にかかるスピーカに担当させることで、仮想空間における空間の広がり、空間的感覚をプレイヤにより体感させることが可能となる。   According to the above configuration example, for example, the first set of speakers according to the first output device that can be used as a game controller and the second set of speakers according to the second output device that can be used as a monitor are used. This makes it possible to output audio with a higher sense of presence. For example, the sound output in the vertical direction as viewed from the player is assigned to the speaker related to the first output device, and the sound output related to the left and right direction is assigned to the speaker related to the second output device, thereby expanding the space in the virtual space. It becomes possible for the player to experience the spatial sensation.

また、音楽データはステレオ2チャンネルで構成された音楽データであってもよい。更に、第1のスピーカおよび第2のスピーカは、組となるステレオスピーカであってもよい。   The music data may be music data composed of two stereo channels. Furthermore, the first speaker and the second speaker may be a pair of stereo speakers.

上記構成例によれば、仮想空間内で左右方向に沿って配置された音源オブジェクトから発せられる音楽の表現について、プレイヤに違和感を与えず、より臨場感を高めた表現ができる。   According to the above configuration example, the expression of music emitted from the sound source object arranged along the left-right direction in the virtual space can be expressed with a higher sense of realism without giving the player a sense of incongruity.

本発明によれば、仮想空間内に存在する音源オブジェクトが発する音声に関して、より臨場感を高めた音声出力を行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, the audio | voice output which raised the realism more can be performed regarding the audio | voice which the sound source object which exists in virtual space utters.

本発明の一実施形態に係るゲームシステム1の一例を示す外観図1 is an external view showing an example of a game system 1 according to an embodiment of the present invention. 図1のゲーム装置本体5の一例を示す機能ブロック図Functional block diagram showing an example of the game apparatus body 5 of FIG. 図1の端末装置6の外観構成の一例を示す図The figure which shows an example of an external appearance structure of the terminal device 6 of FIG. 端末装置6の内部構成の一例を示すブロック図The block diagram which shows an example of an internal structure of the terminal device 6 ゲーム画面の一例を示す図Figure showing an example of the game screen ゲーム画面の一例を示す図Figure showing an example of the game screen ゲーム画面の一例を示す図Figure showing an example of the game screen ゲーム画面の一例を示す図Figure showing an example of the game screen ゲーム画面の一例を示す図Figure showing an example of the game screen ゲーム画面の一例を示す図Figure showing an example of the game screen ゲーム画面の一例を示す図Figure showing an example of the game screen メモリ12のメモリマップMemory map of memory 12 端末操作データ83の構成の一例Example of configuration of terminal operation data 83 音源オブジェクトデータ88の構成の一例Example of configuration of sound source object data 88 ゲーム処理プログラム81に基づくゲーム処理の流れを示すフローチャートA flowchart showing a flow of game processing based on the game processing program 81 図15の初期設定処理の詳細を示すフローチャートThe flowchart which shows the detail of the initial setting process of FIG. 図15のゲーム音声生成処理の詳細を示すフローチャートThe flowchart which shows the detail of the game sound production | generation process of FIG. 端末装置6の制御処理の流れを示すフローチャートThe flowchart which shows the flow of the control processing of the terminal device 6

図1を参照して、本発明の一実施形態に係るゲームシステムについて説明する。   A game system according to an embodiment of the present invention will be described with reference to FIG.

図1において、ゲームシステム1は、表示手段の一例である家庭用テレビジョン受像機(以下、モニタと記載する)2と、モニタ2に接続コードを介して接続する据置型のゲーム装置3とから構成される。モニタ2は、2chのステレオスピーカであるスピーカ2L、2Rを備える。また、ゲーム装置3は、ゲーム装置本体5と、端末装置6とを含む。   In FIG. 1, a game system 1 includes a home television receiver (hereinafter referred to as a monitor) 2 which is an example of display means, and a stationary game apparatus 3 connected to the monitor 2 via a connection cord. Composed. The monitor 2 includes speakers 2L and 2R, which are 2ch stereo speakers. The game apparatus 3 includes a game apparatus body 5 and a terminal device 6.

モニタ2は、ゲーム装置本体5から出力されるゲーム画像を表示する。モニタ2は左スピーカ2Lおよび右スピーカ2Rを有している。スピーカ2Lおよび2Rは、ゲーム装置本体5から出力されるゲーム音声を出力する。なお、この例ではモニタ2がこれらスピーカを有する例を示したが、この他、モニタ2に別途外部のスピーカを接続するような形態であってもよい。   The monitor 2 displays a game image output from the game apparatus body 5. The monitor 2 has a left speaker 2L and a right speaker 2R. The speakers 2L and 2R output game sound output from the game apparatus body 5. In this example, the monitor 2 has these speakers. However, an external speaker may be separately connected to the monitor 2.

ゲーム装置本体5は、当該ゲーム装置本体5で読み取り可能な光ディスクに記憶されたゲームプログラム等に基づいてゲーム処理等を実行する。   The game apparatus body 5 executes a game process or the like based on a game program or the like stored on an optical disc that can be read by the game apparatus body 5.

端末装置6は、ユーザが把持可能な入力装置である。ユーザは端末装置6を手に持って動かしたり、あるいは、端末装置6を自由な位置に配置したりして使用することが可能である。端末装置6は、表示手段であるLCD(Liquid Crystal Display:液晶表示装置)21、2chのステレオスピーカであるスピーカ23Lおよび23R(以降では総称してスピーカ23と示すこともある)、ヘッドホン端子、および入力手段(アナログスティックや押下型のボタン、タッチパネル等)等を備える。端末装置6とゲーム装置本体5とは無線(有線であってもよい)によって通信可能である。端末装置6は、ゲーム装置本体5で生成された画像(例えばゲーム画像)のデータをゲーム装置本体5から受信し、当該データが示す画像をLCD21に表示する。また、端末装置6は、ゲーム装置本体5で生成された音声(例えばゲームの効果音やBGM)のデータをゲーム装置本体5から受信し、当該データが示す音声をスピーカ23から出力する。また、端末装置6は、ゲーム装置本体5へ、自機に対して行われた操作の内容を表す操作データを送信する。   The terminal device 6 is an input device that can be held by a user. The user can use the terminal device 6 by holding it in his hand or by placing the terminal device 6 in a free position. The terminal device 6 includes an LCD (Liquid Crystal Display: liquid crystal display device) 21 which is a display means, speakers 23L and 23R which are stereo speakers of 1 and 2ch (hereinafter may be collectively referred to as the speaker 23), a headphone terminal, and Input means (analog stick, push button, touch panel, etc.) are provided. The terminal device 6 and the game apparatus body 5 can communicate wirelessly (may be wired). The terminal device 6 receives data of an image (for example, a game image) generated by the game device body 5 from the game device body 5 and displays an image indicated by the data on the LCD 21. Further, the terminal device 6 receives data of sound (for example, game sound effects and BGM) generated by the game apparatus body 5 from the game apparatus body 5, and outputs the sound indicated by the data from the speaker 23. In addition, the terminal device 6 transmits operation data representing the content of the operation performed on the own device to the game apparatus body 5.

図2は、ゲーム装置本体5のブロック図である。図2において、ゲーム装置本体5は、情報処理装置の一例である。本実施形態においては、ゲーム装置本体5はCPU(制御部)11およびメモリ12、システムLSI13、無線通信部14およびAV−IC(Audio Video−Integrated Circuit)15等を有する。   FIG. 2 is a block diagram of the game apparatus body 5. In FIG. 2, the game apparatus body 5 is an example of an information processing apparatus. In the present embodiment, the game apparatus body 5 includes a CPU (control unit) 11 and a memory 12, a system LSI 13, a wireless communication unit 14, an AV-IC (Audio Video-Integrated Circuit) 15, and the like.

CPU11は、メモリ12やシステムLSI13等を用いて所定の情報処理プログラムを実行する。これにより、ゲーム装置3における各種機能(例えば、ゲーム処理)が実現される。   The CPU 11 executes a predetermined information processing program using the memory 12, the system LSI 13, and the like. Thereby, various functions (for example, game processing) in the game apparatus 3 are realized.

システムLSI13には、GPU(Graphics Processor Unit)16、DSP(Digital Signal Processor)17、入出力プロセッサ18、等が含まれる。   The system LSI 13 includes a GPU (Graphics Processor Unit) 16, a DSP (Digital Signal Processor) 17, an input / output processor 18, and the like.

GPU16は、CPU11からのグラフィクスコマンド(作画命令)に従って画像を生成する。なお、本実施形態においては、ゲーム装置本体5は、モニタ2に表示するゲーム画像と、端末装置6に表示するゲーム画像との両方を生成することがある。以下では、モニタ2に表示されるゲーム画像を「モニタ用ゲーム画像」と呼び、端末装置6に表示されるゲーム画像を「端末用ゲーム画像」と呼ぶことがある。   The GPU 16 generates an image in accordance with a graphics command (drawing command) from the CPU 11. In the present embodiment, the game apparatus body 5 may generate both a game image to be displayed on the monitor 2 and a game image to be displayed on the terminal device 6. Hereinafter, a game image displayed on the monitor 2 may be referred to as a “monitor game image”, and a game image displayed on the terminal device 6 may be referred to as a “terminal game image”.

DSP17は、オーディオプロセッサとして機能し、メモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。なお、本実施形態においては、ゲーム音声についてもゲーム画像と同様、モニタ2のスピーカ2Lおよび2Rから出力するゲーム音声と、端末装置6のスピーカ23(あるいは端末装置6に接続されたヘッドホン)から出力するゲーム音声との両方が生成されることがある。以下では、モニタ2から出力されるゲーム音声を「モニタ用ゲーム音声」と呼び、端末装置6から出力されるゲーム音声を「端末用ゲーム音声」と呼ぶことがある。   The DSP 17 functions as an audio processor, and generates sound data using sound data and sound waveform (tone color) data stored in the memory 12. In the present embodiment, the game sound is output from the speakers 2L and 2R of the monitor 2 and the speaker 23 of the terminal device 6 (or headphones connected to the terminal device 6) as in the case of the game image. Both of the game sound to be generated may be generated. Hereinafter, the game sound output from the monitor 2 may be referred to as “monitor game sound”, and the game sound output from the terminal device 6 may be referred to as “terminal game sound”.

入出力プロセッサ18は、無線通信部14を介して、端末装置6との間でデータの送受信を実行したりする。本実施形態では、入出力プロセッサ18は、GPU16が生成したゲーム画像(端末用ゲーム画像)、および、DSP17が生成したゲーム音声(端末用ゲーム音声)のデータを、無線通信部14を経由して端末装置6に送信する。この際、端末用ゲーム画像については、表示画像の遅延が生じないように圧縮して送信するようにしても良い。また、入出力プロセッサ18は、上記無線通信部14を介して、端末装置6から送信される操作データ等を受信し、メモリ12のバッファ領域に記憶(一時記憶)する。   The input / output processor 18 transmits / receives data to / from the terminal device 6 via the wireless communication unit 14. In this embodiment, the input / output processor 18 transmits the game image (terminal game image) generated by the GPU 16 and the game sound (terminal game sound) generated by the DSP 17 via the wireless communication unit 14. It transmits to the terminal device 6. At this time, the terminal game image may be compressed and transmitted so that the display image is not delayed. Further, the input / output processor 18 receives operation data or the like transmitted from the terminal device 6 via the wireless communication unit 14 and stores (temporarily stores) it in the buffer area of the memory 12.

また、ゲーム装置本体5において生成される画像および音声のうち、モニタ2に出力される画像データおよび音声データは、AV−IC15によって読み出される。AV−IC15は、図示しないAVコネクタを介して、読み出した画像データをモニタ2に出力するとともに、読み出した音声データをモニタ2に内蔵されるスピーカ2aに出力する。これによって、モニタ2に画像が表示されるとともにスピーカ2aから音声が出力される。   Of the images and sounds generated in the game apparatus body 5, image data and sound data output to the monitor 2 are read by the AV-IC 15. The AV-IC 15 outputs the read image data to the monitor 2 via an AV connector (not shown), and outputs the read audio data to the speaker 2 a built in the monitor 2. As a result, an image is displayed on the monitor 2 and sound is output from the speaker 2a.

図3は、端末装置6の外観構成の一例を示す図である。図3に示すように、端末装置6は略板状のハウジング20を備える。ハウジング20は、ユーザが両手または片手で把持可能な大きさ(形状)である。また、端末装置6は、表示部の一例であるLCD21を備える。LCD21には、上記端末用ゲーム画像が表示される。   FIG. 3 is a diagram illustrating an example of an external configuration of the terminal device 6. As shown in FIG. 3, the terminal device 6 includes a substantially plate-shaped housing 20. The housing 20 has a size (shape) that the user can hold with both hands or one hand. The terminal device 6 includes an LCD 21 that is an example of a display unit. The terminal game image is displayed on the LCD 21.

また、端末装置6は、スピーカ23を備える。当該スピーカ23はステレオスピーカである。スピーカ23からは、上記端末用ゲーム音声が出力される。また、端末装置6は、所定のヘッドホンが着脱可能なヘッドホン端子24を備える。ここで、端末装置6は、当該ヘッドホン端子にヘッドホンが接続されていないときはスピーカ23からの音声出力を行うが、当該ヘッドホン端子にヘッドホンが接続されているときは、スピーカ23からの音声出力は行わない。つまり、本実施形態では、両者の同時出力は行われず、スピーカ23からの出力とヘッドホンからの出力とは排他的な関係になっている(但し、他の実施例においては同時出力可能としてもよい)。   In addition, the terminal device 6 includes a speaker 23. The speaker 23 is a stereo speaker. From the speaker 23, the terminal game sound is output. Further, the terminal device 6 includes a headphone terminal 24 to which predetermined headphones can be attached and detached. Here, the terminal device 6 outputs a sound from the speaker 23 when no headphones are connected to the headphone terminal, but outputs a sound from the speaker 23 when a headphone is connected to the headphone terminal. Not performed. That is, in the present embodiment, the simultaneous output of both is not performed, and the output from the speaker 23 and the output from the headphones are in an exclusive relationship (however, in other embodiments, simultaneous output may be possible. ).

また、端末装置6はタッチパネル22を備える。タッチパネル22は、ハウジング20に設けられる所定の入力面(表示部の画面)に対して入力された位置を検出する位置検出部の一例である。さらに、端末装置6は、操作部(図4に示す操作部31)として、アナログスティック25、十字キー26、およびボタン27等を備える。   The terminal device 6 includes a touch panel 22. The touch panel 22 is an example of a position detection unit that detects a position input to a predetermined input surface (screen of the display unit) provided in the housing 20. Furthermore, the terminal device 6 includes an analog stick 25, a cross key 26, a button 27, and the like as an operation unit (the operation unit 31 shown in FIG. 4).

図4は、端末装置6の電気的な構成を示すブロック図である。図4に示すように、端末装置6は、上述のLCD21、タッチパネル22、スピーカ23、および操作部31を備える。また、ヘッドホン端子24を介してヘッドホンが接続可能である。また、端末装置6の姿勢を検出するためのモーションセンサ32を備える。本実施形態では、当該モーションセンサ32として、加速度センサおよびジャイロセンサが備えられている。加速度センサは、xyzの3軸の加速度が検出可能である。ジャイロセンサは、xyzの3軸の角速度が検出可能である。   FIG. 4 is a block diagram showing an electrical configuration of the terminal device 6. As illustrated in FIG. 4, the terminal device 6 includes the above-described LCD 21, touch panel 22, speaker 23, and operation unit 31. A headphone can be connected via the headphone terminal 24. In addition, a motion sensor 32 for detecting the attitude of the terminal device 6 is provided. In the present embodiment, an acceleration sensor and a gyro sensor are provided as the motion sensor 32. The acceleration sensor can detect xyz triaxial acceleration. The gyro sensor can detect the three-axis angular velocity of xyz.

また、端末装置6は、ゲーム装置本体5との無線通信が可能な無線通信部34を備える。本実施形態においては、端末装置6とゲーム装置本体5との間では無線通信が行われるが、他の実施形態においては有線で通信が行われてもよい。   Further, the terminal device 6 includes a wireless communication unit 34 capable of wireless communication with the game apparatus body 5. In the present embodiment, wireless communication is performed between the terminal device 6 and the game apparatus body 5, but in other embodiments, communication may be performed by wire.

また、端末装置6は、端末装置6における動作を制御する制御部33を備える。具体的には、制御部33は、各入力部(タッチパネル22、操作部31、モーションセンサ32)からの出力データを受け取り、操作データとして無線通信部34を介してゲーム装置本体5へ送信する。また、制御部33は、ゲーム装置本体5からの端末用ゲーム画像が無線通信部34において受信されると、必要に応じて適宜の処理(例えば、画像データが圧縮されている場合には伸張処理)を行い、ゲーム装置本体5からの画像をLCD21に表示させる。更に、ゲーム装置本体5からの端末用ゲーム音声が無線通信部34において受信されると、制御部33は、スピーカ23に当該端末用ゲーム音声を出力する。   The terminal device 6 includes a control unit 33 that controls the operation of the terminal device 6. Specifically, the control unit 33 receives output data from each input unit (touch panel 22, operation unit 31, motion sensor 32) and transmits it as operation data to the game apparatus body 5 via the wireless communication unit 34. In addition, when the terminal game image from the game apparatus body 5 is received by the wireless communication unit 34, the control unit 33 performs appropriate processing (for example, decompression processing when image data is compressed). ) To display an image from the game apparatus body 5 on the LCD 21. Furthermore, when the terminal game sound from the game apparatus body 5 is received by the wireless communication unit 34, the control unit 33 outputs the terminal game sound to the speaker 23.

次に、図5〜図11を参照して、本実施形態のシステムにおいて実行される処理の概要を説明する。   Next, an overview of processing executed in the system of the present embodiment will be described with reference to FIGS.

本実施形態で実行される処理は、仮想3次元空間(以下、単に仮想空間と呼ぶ)内に存在する音源オブジェクトから発せられる音楽の新しい鳴らし方を提供するものである。なお、音源オブジェクトとは、所定の音声を発することが可能なオブジェクトとして定義されたオブジェクトである。   The processing executed in the present embodiment provides a new way of playing music emitted from a sound source object existing in a virtual three-dimensional space (hereinafter simply referred to as a virtual space). The sound source object is an object defined as an object capable of emitting a predetermined sound.

本実施形態の処理の一例として、次のようなゲーム処理を想定する。本ゲーム処理で実現されるゲームは、テーマパークを模した仮想空間内をプレイヤキャラクタが自由に移動できるゲームである。当該仮想空間には複数の「アトラクション」が設定されており、アトラクション毎に異なるミニゲームがプレイ可能である。   As an example of the processing of the present embodiment, the following game processing is assumed. The game realized by this game process is a game in which a player character can freely move in a virtual space imitating a theme park. A plurality of “attractions” are set in the virtual space, and different minigames can be played for each attraction.

図5は、当該端末装置6に表示されるゲーム画面の一例である。図5では、プレイヤキャラクタ101、および、所定のアトラクションの入り口である入り口オブジェクト102が表示されている。プレイヤキャラクタ101については、これを背面側から見た様子で表示されている。また、当該入り口オブジェクト102には、左スピーカ画像103Lと右スピーカ画像103Rが表示されている(以下では、総称してスピーカ画像103と呼ぶこともある)。   FIG. 5 is an example of a game screen displayed on the terminal device 6. In FIG. 5, a player character 101 and an entrance object 102 that is an entrance of a predetermined attraction are displayed. The player character 101 is displayed as seen from the back side. In addition, a left speaker image 103L and a right speaker image 103R are displayed on the entrance object 102 (hereinafter, collectively referred to as a speaker image 103).

ここで、本ゲームでは、ゲーム画面の表示に関して、実空間の座標系と仮想空間の座標系とを常に一致させて表示している。換言すれば、重力方向と仮想空間内の地面が常に垂直交差しているようにしている。また、端末装置6には、上記のようにモーションセンサ32が備えられている。これを利用することで、端末装置6自体の姿勢が検出可能である。そして、本ゲームでは、端末装置6の姿勢にあわせて仮想カメラも同時に傾けることで、端末装置6を、あたかも仮想空間を覗く「覗き窓」のように扱うことができる。例えば、端末装置6のLCD21がプレイヤの顔の正面に対面するように把持した姿勢を想定する。このとき、当該LCD21には、仮想空間内のZ軸正方向の様子が表示されているとする。この状態から、プレイヤが180度回転して真後ろを向いたとする。すると、当該LCD21には、仮想空間内のZ軸負方向の様子が表示されることになる。   Here, in this game, with respect to display of the game screen, the coordinate system of the real space and the coordinate system of the virtual space are always displayed so as to coincide with each other. In other words, the gravitational direction and the ground in the virtual space always intersect each other vertically. In addition, the terminal device 6 includes the motion sensor 32 as described above. By using this, the attitude of the terminal device 6 itself can be detected. In this game, by tilting the virtual camera simultaneously with the attitude of the terminal device 6, the terminal device 6 can be handled as if it were a “view window” looking into the virtual space. For example, assume a posture in which the LCD 21 of the terminal device 6 is held so as to face the front of the player's face. At this time, it is assumed that a state in the positive direction of the Z axis in the virtual space is displayed on the LCD 21. From this state, it is assumed that the player turns 180 degrees and faces directly behind. Then, the state of the Z axis negative direction in the virtual space is displayed on the LCD 21.

ところで、上記のような仮想空間が表現されているゲームにおいて音声を鳴らす場合がある。この音声は、大きく分けて、「効果音」と「音楽(BGM)」の2種類がある。これらの音声の再生手法として、従来は、効果音については、仮想空間内に仮想マイクを設置し、この仮想マイクで視聴したとみなす音場計算(音量や定位)を行うことで効果音を再生していた。一方、音楽、特にBGMに関しては、仮想カメラや仮想マイクの位置に関わらず、常に一定の音量や定位で再生することが一般的であった。つまり、仮想空間の状態に関係なく、いわば仮想空間の「外」でBGMが再生されていた。   By the way, there is a case where a sound is played in a game in which the virtual space as described above is expressed. There are roughly two types of sound, “sound effect” and “music (BGM)”. As a method of playing these sounds, conventionally, for sound effects, a virtual microphone is installed in the virtual space, and sound effects are calculated by calculating the sound field (volume and localization) considered to be viewed with this virtual microphone. Was. On the other hand, music, particularly BGM, is generally played back at a constant volume and localization regardless of the position of the virtual camera or virtual microphone. That is, regardless of the state of the virtual space, the BGM is reproduced “outside” the virtual space.

ここで、仮想空間「内」でBGMが再生されているような表現を行いたい場合を想定する。特に、このBGMが、ステレオ音声、つまり、LRのステレオ2chで構成されているBGMである場合を想定する。この場合は、当該2chで構成されているBGMデータに基づく音声を発する音源オブジェクトを仮想空間内に配置して再生させる。そして、その音を上記仮想マイクで視聴したとみなす処理を行うことが考えられる。例えば、上記図5において、入り口オブジェクト102の有するスピーカ画像103からBGMが流れているような表現を行いたい場合を考える。この場合は、図6に示すように、2つのスピーカ画像103のほぼ真ん中あたりに音源オブジェクト(これはプレイヤからは見えない透明なオブジェクトである)を配置する。そして、当該音源オブジェクトから2chで構成されているBGMを発する(再生する)処理を行う。更に、この発せられた音声を仮想マイクで拾うような処理が行われる。ここでは、仮想マイクは、プレイヤキャラクタ101と同じ位置に設置されているとする。すなわち、音源オブジェクトのほぼ正面に配置されているとする。その結果、BGMデータのLチャンネルにかかる音声がスピーカ23Lから出力され、BGMデータのRチャンネルにかかる音声がスピーカ23Rから出力される。換言すれば、図6の状態であれば、音源オブジェクトのLRチャンネルの左右の位置(定位)関係と、端末装置6のスピーカ23Lおよび23Rの左右の位置関係とは同じものとなっている。   Here, it is assumed that it is desired to perform an expression as if the BGM is being reproduced in the “inside” virtual space. In particular, it is assumed that this BGM is a stereo sound, that is, a BGM composed of LR stereo 2ch. In this case, a sound source object that emits sound based on the BGM data configured by the 2ch is arranged in the virtual space and reproduced. Then, it is conceivable to perform processing for regarding that sound as viewed with the virtual microphone. For example, in FIG. 5, consider a case where it is desired to perform an expression such that BGM flows from the speaker image 103 of the entrance object 102. In this case, as shown in FIG. 6, a sound source object (this is a transparent object that cannot be seen by the player) is arranged approximately in the middle between the two speaker images 103. Then, a process of emitting (reproducing) BGM composed of 2ch from the sound source object is performed. Further, a process of picking up the emitted voice with a virtual microphone is performed. Here, it is assumed that the virtual microphone is installed at the same position as the player character 101. That is, it is assumed that the sound source object is arranged almost in front of the sound source object. As a result, the sound applied to the L channel of the BGM data is output from the speaker 23L, and the sound applied to the R channel of the BGM data is output from the speaker 23R. In other words, in the state of FIG. 6, the left / right positional (localization) relationship of the LR channel of the sound source object is the same as the left / right positional relationship of the speakers 23 </ b> L and 23 </ b> R of the terminal device 6.

次に、上記のような図6の状態から、プレイヤキャラクタ101を180度回転させたような場合を想定する。例えば、プレイヤが、端末装置6のLCD21がプレイヤの顔の正面に対面するように両手で端末装置6を把持した姿勢のまま、180度回転して真後ろを向いたような場合である。図7は、上記図6の状態から180度回転した状態の画面を示す図である。このプレイヤ(端末装置6)の回転に伴い、プレイヤキャラクタ101、仮想カメラ、および仮想マイクの向きも180度回転している。この場合、仮想空間内の位置関係としては、プレイヤキャラクタ101(仮想マイク)のほぼ真後ろに上記音源オブジェクトが位置するような関係となる。また、左スピーカ画像103Lは、プレイヤキャラクタ101の右後方に位置し、右スピーカ画像103Rは、プレイヤキャラクタ101の左後方に位置するような関係となる。一方、音源オブジェクトから発せられるBGMの定位は維持されたままである。つまり、上記図6の場合と同様、スピーカ23LからはBGMのLチャンネルの音が出力され、スピーカ23RからはBGMのRチャンネルの音が出力される。これは、プレイヤからすると、LRのチャンネルが図6の状態とは逆転して聞こえることになり、違和感のある聞こえ方となる。プレイヤキャラクタ101が180度回転した場合の位置関係を考慮すると、上記図6の状態におけるLチャンネルの音は、図7の状態ではスピーカ23Rから出力され、Rチャンネルの音は、図7の状態ではスピーカ23Lから出力されたほうがより自然な聞こえ方となる。   Next, it is assumed that the player character 101 is rotated 180 degrees from the state shown in FIG. For example, this is a case where the player rotates 180 degrees and turns to the back while holding the terminal device 6 with both hands so that the LCD 21 of the terminal device 6 faces the front of the player's face. FIG. 7 is a diagram showing a screen in a state rotated 180 degrees from the state of FIG. With the rotation of the player (terminal device 6), the orientations of the player character 101, the virtual camera, and the virtual microphone are also rotated by 180 degrees. In this case, the positional relationship in the virtual space is such that the sound source object is positioned almost directly behind the player character 101 (virtual microphone). Further, the left speaker image 103L is positioned to the right rear of the player character 101, and the right speaker image 103R is positioned to the left rear of the player character 101. On the other hand, the localization of the BGM emitted from the sound source object remains maintained. That is, as in the case of FIG. 6 described above, the BGM L channel sound is output from the speaker 23L, and the BGM R channel sound is output from the speaker 23R. From the player's perspective, the LR channel is heard in reverse from the state shown in FIG. Considering the positional relationship when the player character 101 rotates 180 degrees, the sound of the L channel in the state of FIG. 6 is output from the speaker 23R in the state of FIG. 7, and the sound of the R channel is in the state of FIG. The sound output from the speaker 23L is more natural.

そこで、本実施形態では、上記のような姿勢変化(位置関係の変化)が起こった場合でも、上記BGMが自然に聞こえるような処理を行う。具体的には、本実施形態では、まず、再生したいBGMデータについて、LチャンネルとRチャンネルとを別のサウンドデータとして分離する。そして、2つの音源オブジェクトを別々の位置に配置し、一方にLチャンネルのサウンドデータ(以下、Lチャンネルデータ)を割り当て、他方にRチャンネルのサウンドデータ(以下、Rチャンネルデータ)を割り当てて再生する。つまり、上記のようなLRチャンネルを含む1つのBGMデータを再生する音源オブジェクトを配置するのではなく、LRチャンネル毎に別の音源オブジェクトを設定して配置する。そして、この音源オブジェクトから発せられる音を拾う仮想マイクの向きと上記2つの音源オブジェクトとの位置関係に応じて、スピーカ23Lおよび23Rからの出力音声を調整するという処理を行うものである。具体的には、仮想マイクを基準とするローカル座標系(以下、仮想マイク座標系)において、2つの音源オブジェクトのそれぞれの位置がx軸正方向上に位置するかx軸負方向上に位置するかを判定する。これにより、2つの音源オブジェクトそれぞれの位置が仮想マイクから見て右か左かを判断できる。この位置関係に基づいてスピーカ23Lおよび23RそれぞれにおけるLチャンネルデータおよびRチャンネルデータの再生音量の大きさが決定される。   Therefore, in the present embodiment, processing is performed so that the BGM can be heard naturally even when the posture change (positional change) as described above occurs. Specifically, in this embodiment, for the BGM data to be reproduced, first, the L channel and the R channel are separated as different sound data. Then, two sound source objects are arranged at different positions, L channel sound data (hereinafter referred to as L channel data) is assigned to one, and R channel sound data (hereinafter referred to as R channel data) is assigned to the other and played back. . That is, instead of arranging a sound source object for reproducing one BGM data including the LR channel as described above, another sound source object is set and arranged for each LR channel. And the process of adjusting the output sound from the speakers 23L and 23R is performed according to the direction of the virtual microphone that picks up the sound emitted from the sound source object and the positional relationship between the two sound source objects. Specifically, in the local coordinate system based on the virtual microphone (hereinafter referred to as the virtual microphone coordinate system), whether each of the two sound source objects is positioned on the positive x-axis direction or the negative x-axis direction Determine. This makes it possible to determine whether the positions of the two sound source objects are right or left when viewed from the virtual microphone. Based on this positional relationship, the reproduction volume of the L channel data and R channel data in each of the speakers 23L and 23R is determined.

図8は、本実施形態におけるゲーム画面と音源オブジェクトの配置の一例を示す図である。図8では、音源オブジェクト105Lが左スピーカ画像103Lに重なるような位置に配置され、音源オブジェクト105Rが右スピーカ画像103Rに重なるような位置に配置されている。これら音源オブジェクトは、プレイヤからは視認できない透明なオブジェクトである。そして、音源オブジェクト105Lには、再生したいBGMのLチャンネルデータが対応付けられている。一方、音源オブジェクト105Rには、再生したいBGMのRチャンネルデータが対応付けられている。つまり、音源オブジェクト105LはLチャンネルデータを再生し、音源オブジェクト105RはRチャンネルデータを再生するように設定されている。また、上記同様、プレイヤキャラクタの位置に仮想マイクが設置されており、当該仮想マイクは正面方向(z軸正方向)を向いている。このような状態でBGMが再生されると、音源オブジェクト105Lから発せられる音声は主にスピーカ23Lのほうから聞こえる(スピーカ23Rよりも大きな音で聞こえる)ことになる。また、音源オブジェクト105Rから発せられる音声は主にスピーカ23Rのほうから聞こえる(スピーカ23Lよりも大きな音で聞こえる)ことになる。   FIG. 8 is a diagram illustrating an example of the arrangement of the game screen and the sound source object in the present embodiment. In FIG. 8, the sound source object 105L is arranged at a position so as to overlap the left speaker image 103L, and the sound source object 105R is arranged at a position so as to overlap the right speaker image 103R. These sound source objects are transparent objects that are not visible to the player. The sound source object 105L is associated with L channel data of BGM to be reproduced. On the other hand, BGM R channel data to be reproduced is associated with the sound source object 105R. That is, the sound source object 105L is set to reproduce L channel data, and the sound source object 105R is set to reproduce R channel data. Similarly to the above, a virtual microphone is installed at the position of the player character, and the virtual microphone faces the front direction (z-axis positive direction). When the BGM is reproduced in such a state, the sound emitted from the sound source object 105L is mainly heard from the speaker 23L (sounds louder than the speaker 23R). Further, the sound emitted from the sound source object 105R is mainly heard from the speaker 23R (sounds louder than the speaker 23L).

一方、図8の状態から上記のようにプレイヤ(端末装置6)が180度回転した場合を想定する。図9は、このときのゲーム画面を示す図である。この状態では、プレイヤキャラクタ101(仮想マイク)の右後方に音源オブジェクト105Lが位置し、プレイヤキャラクタ101の左後方に音源オブジェクト105Rが位置するという位置関係になる。また、端末装置6の姿勢変化に伴い、仮想マイクの向きについても、その正面方向が仮想空間のz軸負方向を向いていることになる。つまり、仮想マイクを基準にすると、その右側に音源オブジェクト105L、左側に音源オブジェクト105Rがあるという位置関係になる。そして、このような状態で上記BGMが再生されると、音源オブジェクト105Lから発せられる音声は主にスピーカ23Rのほうから聞こえ、音源オブジェクト105Rから発せられる音声は主にスピーカ23Lのほうから聞こえることになる。つまり、プレイヤキャラクタ(仮想マイク)の位置および向きと上記2つの音源オブジェクトの位置関係とが反映されるようにBGMの再生が行われる。これにより、仮想空間内に存在する音源からのBGM再生をより正確に表現でき、プレイヤに違和感を与えないようなBGM再生が実現できる。   On the other hand, it is assumed that the player (terminal device 6) rotates 180 degrees as described above from the state of FIG. FIG. 9 is a diagram showing a game screen at this time. In this state, the sound source object 105L is located at the right rear of the player character 101 (virtual microphone), and the sound source object 105R is located at the left rear of the player character 101. Further, as the orientation of the terminal device 6 changes, the front direction of the virtual microphone also faces the negative z-axis direction of the virtual space. That is, when the virtual microphone is used as a reference, the sound source object 105L is on the right side and the sound source object 105R is on the left side. When the BGM is reproduced in such a state, the sound emitted from the sound source object 105L is mainly heard from the speaker 23R, and the sound emitted from the sound source object 105R is mainly heard from the speaker 23L. Become. That is, the BGM is reproduced so that the position and orientation of the player character (virtual microphone) and the positional relationship between the two sound source objects are reflected. Thereby, BGM reproduction from a sound source existing in the virtual space can be expressed more accurately, and BGM reproduction that does not give the player a sense of incongruity can be realized.

なお、上記のように、本実施形態では、仮想空間内の音源オブジェクトの位置を反映するように再生処理を行うため、例えば、次のような音声再生も可能である。例えば、図10に示すように、プレイヤキャラクタ101の正面方向かつ上方向に音源オブジェクト105Lおよび105Rが存在し、BGMが再生されているとする。図10では、音源オブジェクト105Lおよび105Rの下半分だけが画面内に入っているような状態である。この状態では、マイク座標系で考えると、音源オブジェクトが仮想マイクの上方(仮想空間の空間座標系のy軸正方向)に位置することになる。この場合、スピーカ23Lおよび23Rから出力される音声の音量は、ほぼ同じとなる。   As described above, in the present embodiment, since the reproduction process is performed so as to reflect the position of the sound source object in the virtual space, for example, the following audio reproduction is possible. For example, as shown in FIG. 10, it is assumed that sound source objects 105L and 105R exist in the front direction and upward of the player character 101, and BGM is being reproduced. In FIG. 10, only the lower half of the sound source objects 105L and 105R is in the screen. In this state, when considered in the microphone coordinate system, the sound source object is located above the virtual microphone (in the positive y-axis direction of the space coordinate system of the virtual space). In this case, the sound volume output from the speakers 23L and 23R is substantially the same.

次に、図10の状態から、図11に示すように、端末装置6を左方向に90度回転させた場合を想定する(例えば、プレイヤが端末装置6を縦持ちにした場合)。この場合、スピーカ23Lおよび23Rの位置関係に着目すると、左右方向に配置されていた状態から上下方向に配置されたような位置関係に変化することになる。また、この端末装置6の姿勢変化に併せて、仮想マイクの姿勢も左に90度回転させられる(つまり、端末装置6の姿勢と仮想マイクの姿勢を連動させる)。その結果、マイク座標系で考えると、音源オブジェクト105Lおよび105Rは仮想マイクの右側に位置することになる。このような場合、本実施形態では、スピーカ23R、つまり、現実空間において上側にあるスピーカからの音量を相対的に大きくし、スピーカ23L、つまり、現実空間において下側にあるスピーカからの音量を相対的に小さくして出力する。換言すれば、スピーカ23Lおよび23Rの音量の左右バランスを調整している。これにより、仮想空間内における上下方向(y軸方向)に関する音源オブジェクトの位置関係についてもその音声出力に反映できる。また、この例では上下方向の例えを挙げたが、例えば、奥行き方向(仮想空間のz軸方向)に関しても同様に、この方向についての位置関係をスピーカ23Lおよび23Rからの出力音量に反映できる。例えば、端末装置6の姿勢を、LCD21が上面を向くような姿勢にしたような場合に、奥行き方向にかかる位置関係を反映した音声出力が可能である。   Next, it is assumed that the terminal device 6 is rotated 90 degrees to the left as shown in FIG. 11 from the state of FIG. 10 (for example, when the player holds the terminal device 6 vertically). In this case, paying attention to the positional relationship between the speakers 23L and 23R, the positional relationship changes from the state in which the speakers 23L and 23R are disposed in the vertical direction to the positional relationship in which they are disposed in the vertical direction. Further, along with the change in the attitude of the terminal device 6, the attitude of the virtual microphone is also rotated 90 degrees to the left (that is, the attitude of the terminal device 6 and the attitude of the virtual microphone are linked). As a result, when considered in the microphone coordinate system, the sound source objects 105L and 105R are located on the right side of the virtual microphone. In such a case, in the present embodiment, the volume from the speaker 23R, that is, the upper speaker in the real space is relatively increased, and the volume from the speaker 23L, that is, the lower speaker in the real space, is relatively increased. Output with a smaller size. In other words, the left / right balance of the volume of the speakers 23L and 23R is adjusted. Thereby, the positional relationship of the sound source object in the vertical direction (y-axis direction) in the virtual space can also be reflected in the audio output. In this example, an example of the vertical direction is given. For example, also in the depth direction (the z-axis direction of the virtual space), the positional relationship in this direction can be reflected in the output volume from the speakers 23L and 23R. For example, when the orientation of the terminal device 6 is such that the LCD 21 faces the upper surface, audio output reflecting the positional relationship in the depth direction is possible.

次に、図12〜図18を参照して、上記のようなゲーム処理を実現するためのシステム1の動作について詳細に説明する。   Next, the operation of the system 1 for realizing the game process as described above will be described in detail with reference to FIGS.

図12は、上記ゲームを実行するときにゲーム装置本体5のメモリ12に記憶される各種データの一例を示している。   FIG. 12 shows an example of various data stored in the memory 12 of the game apparatus body 5 when the game is executed.

ゲーム処理プログラム81は、ゲーム装置本体5のCPU11に、上記ゲームを実現するためのゲーム処理を実行させるためのプログラムである。ゲーム処理プログラム81は、例えば、光ディスクからメモリ12にロードされる。   The game processing program 81 is a program for causing the CPU 11 of the game apparatus body 5 to execute a game process for realizing the game. The game processing program 81 is loaded into the memory 12 from an optical disc, for example.

処理用データ82は、CPU11において実行されるゲーム処理において用いられるデータである。処理用データ82は、端末操作データ83、端末送信用データ84、ゲーム音声データ85、端末装置姿勢データ86、仮想マイク姿勢データ87、音源オブジェクトデータ88等を含む。   The processing data 82 is data used in the game process executed by the CPU 11. The processing data 82 includes terminal operation data 83, terminal transmission data 84, game sound data 85, terminal device attitude data 86, virtual microphone attitude data 87, sound source object data 88, and the like.

端末操作データ83は、端末装置6から周期的に送信される操作データである。図13は、端末操作データ83の構成の一例を示す図である。端末操作データ83には、操作ボタンデータ91、タッチ位置データ92、モーションセンサデータ93等が含まれる。操作ボタンデータ91は、操作部31(アナログスティック25、十字キー26、およびボタン27)に対する入力状態を示すデータである。また、モーションセンサ32に対する入力内容も操作ボタンデータ91に含まれる。タッチ位置データ92は、タッチパネル22の入力面において入力が行われた位置(タッチ位置)を示すデータである。モーションセンサデータ93は、上記モーションセンサに含まれる加速度センサおよび角速度センサで検出された加速度および角速度を示すデータである。   The terminal operation data 83 is operation data periodically transmitted from the terminal device 6. FIG. 13 is a diagram illustrating an example of the configuration of the terminal operation data 83. The terminal operation data 83 includes operation button data 91, touch position data 92, motion sensor data 93, and the like. The operation button data 91 is data indicating an input state with respect to the operation unit 31 (the analog stick 25, the cross key 26, and the button 27). Further, the operation button data 91 also includes the input content for the motion sensor 32. The touch position data 92 is data indicating a position (touch position) where an input is performed on the input surface of the touch panel 22. The motion sensor data 93 is data indicating the acceleration and angular velocity detected by the acceleration sensor and the angular velocity sensor included in the motion sensor.

図12に戻り、端末送信用データ84は、端末装置6へ周期的に送信するデータである。端末送信用データ84には、上記端末用ゲーム画像や端末用ゲーム音声が含まれる。   Returning to FIG. 12, the terminal transmission data 84 is data periodically transmitted to the terminal device 6. The terminal transmission data 84 includes the terminal game image and the terminal game sound.

ゲーム音声データ85は、上記端末用ゲーム音声およびモニタ用ゲーム音声の素になるデータである。ゲーム音声データ85には、効果音の音声データや、上述したようなLR2chで構成されるBGMデータが複数含まれている。   The game sound data 85 is data that becomes the basis of the terminal game sound and the monitor game sound. The game sound data 85 includes sound effect sound data and a plurality of BGM data composed of LR2ch as described above.

端末装置姿勢データ86は、端末装置6の姿勢を示すデータである。仮想マイク姿勢データ87は、上記仮想マイクの姿勢を示すデータである。これらの姿勢データは、例えば、3軸のベクトルデータの組み合わせとして示される。なお、仮想マイク姿勢データ87には、端末用仮想マイクの姿勢データとモニタ用仮想マイクの姿勢データのそれぞれが含まれる。但し、以下の説明では、単に「仮想マイク姿勢データ87」と示した場合は端末用仮想マイクの姿勢データを指すものとする。   The terminal device attitude data 86 is data indicating the attitude of the terminal device 6. The virtual microphone attitude data 87 is data indicating the attitude of the virtual microphone. These posture data are shown as combinations of three-axis vector data, for example. The virtual microphone attitude data 87 includes the attitude data of the terminal virtual microphone and the attitude data of the monitor virtual microphone. However, in the following description, the “virtual microphone attitude data 87” simply indicates the attitude data of the terminal virtual microphone.

音源オブジェクトデータ88は、上記音源オブジェクトに関するデータである。また、複数の音源オブジェクトデータ88がメモリ12に格納されている。図14は、各音源オブジェクトデータ88の構成の一例を示す図である。音源オブジェクトデータ88は、オブジェクトID881、セット対象識別データ882、対応BGM識別データ883、担当チャンネル識別データ884、分離後BGMデータ885を含む。   The sound source object data 88 is data related to the sound source object. A plurality of sound source object data 88 is stored in the memory 12. FIG. 14 is a diagram showing an example of the configuration of each sound source object data 88. The sound source object data 88 includes an object ID 881, set target identification data 882, corresponding BGM identification data 883, assigned channel identification data 884, and separated BGM data 885.

オブジェクトID881は、各音源オブジェクトを識別するためのIDである。セット対象識別データ882は、自身と組になる音源オブジェクトを示すデータである。本実施形態では、1つのBGMデータをLチャンネルとRチャンネルに分離して2つの音源オブジェクトに割り当てる。そのため、この2つの音源オブジェクトを1組の音源オブジェクト(以下、セット型音源オブジェクトと呼ぶ)として扱う。そして、当該セット対象識別データは、自身と組になる他方の音源オブジェクトを示すデータである。例えば、組となる相手のオブジェクトID881が当該データとして示される。また、このような組とはならない音源オブジェクト(例えば効果音のみを発する音源オブジェクト等。以下、単体型音源オブジェクトと呼ぶ)である場合は、その旨を示す情報が当該セット対象識別データ882として設定される。   The object ID 881 is an ID for identifying each sound source object. The set target identification data 882 is data indicating a sound source object paired with itself. In the present embodiment, one BGM data is separated into an L channel and an R channel and assigned to two sound source objects. Therefore, these two sound source objects are handled as a set of sound source objects (hereinafter referred to as set type sound source objects). The set target identification data is data indicating the other sound source object paired with itself. For example, the object ID 881 of the partner to be paired is shown as the data. In addition, in the case of a sound source object that does not form such a set (for example, a sound source object that emits only sound effects; hereinafter referred to as a single-type sound source object), information indicating that is set as the set target identification data 882. Is done.

対応BGM識別データ883は、当該音源オブジェクトが再生するBGMであると定義されているBGMデータを示すデータである。例えば、上記ゲーム音声データ85に含まれているBGMデータ(2chで構成されたBGMデータ)を示す情報が本データである。   Corresponding BGM identification data 883 is data indicating BGM data defined as BGM to be reproduced by the sound source object. For example, information indicating the BGM data (BGM data composed of 2ch) included in the game sound data 85 is the main data.

担当チャンネル識別データは、当該音源オブジェクトがセット型音源オブジェクトである場合に、LチャンネルとRチャンネルのいずれを担当するかを示すデータである。   The assigned channel identification data is data indicating which one of the L channel and the R channel is assigned when the sound source object is a set-type sound source object.

分離後BGMデータ885は、LR2chで構成されたBGMデータをLチャンネルおよびRチャンネルのサウンドデータに分離した後のいずれか一方のデータである。   The post-separation BGM data 885 is one of the data after the BGM data configured by LR2ch is separated into sound data of the L channel and the R channel.

その他、図示は省略するが、当該音源オブジェクトが音声発生中か否かを示す情報や、当該音源オブジェクトが発する音声の音の大きさやその音の指向性等を定義した情報等、音源オブジェクトが発する音声に関する情報も適宜含まれている。   In addition, although not shown in the figure, the sound source object emits information such as information indicating whether the sound source object is generating sound, information defining the sound volume of the sound generated by the sound source object, the directivity of the sound, or the like. Information about audio is also included as appropriate.

次に、図15〜図17のフローチャートを参照し、ゲーム処理プログラム81に基づいてゲーム装置本体5のCPU11によって実行されるゲーム処理の流れを説明する。   Next, the flow of game processing executed by the CPU 11 of the game apparatus body 5 based on the game processing program 81 will be described with reference to the flowcharts of FIGS.

図15において、ゲーム処理プログラム81の実行が開始されると、ステップS1において、CPU11は、初期設定処理を行う。この初期設定処理では、上記音源オブジェクト等の各種オブジェクトの初期設定および仮想空間内への配置、仮想カメラや仮想マイクの姿勢(仮想マイク姿勢データ87)の初期化が実行される。図16は、当該初期設定処理の詳細を示すフローチャートである。当該初期設定処理では、まず、セット型音源オブジェクトの設定処理が行われる。すなわち、ステップS41で、CPU11は、音源オブジェクトの中から、上記セット型音源オブジェクトを抽出する。   In FIG. 15, when the execution of the game processing program 81 is started, in step S1, the CPU 11 performs an initial setting process. In this initial setting process, initial setting of various objects such as the sound source object, arrangement in the virtual space, and initialization of the attitude of the virtual camera and the virtual microphone (virtual microphone attitude data 87) are executed. FIG. 16 is a flowchart showing details of the initial setting process. In the initial setting process, first, a set type sound source object setting process is performed. That is, in step S41, the CPU 11 extracts the set type sound source object from the sound source objects.

次に、ステップS42で、CPU11は、抽出したセット型音源オブジェクトのうち、処理対象とする1組のセット型音源オブジェクトを選択する。以下、これを処理対象オブジェクトと呼ぶ。   Next, in step S42, the CPU 11 selects a set of set-type sound source objects to be processed from the extracted set-type sound source objects. Hereinafter, this is referred to as a processing target object.

次に、ステップS43で、CPU11は、対応BGM識別データ883に基づいて、当該処理対象が再生するBGMのデータをゲーム音声データ85から取得する。続くステップS44で、CPU11は、当該取得したBGMデータに基づいて、上記LチャンネルデータおよびRチャンネルデータを生成する。   Next, in step S <b> 43, the CPU 11 acquires BGM data to be reproduced by the processing target from the game sound data 85 based on the corresponding BGM identification data 883. In subsequent step S44, the CPU 11 generates the L channel data and the R channel data based on the acquired BGM data.

次に、ステップS45で、CPU11は、上記生成したLチャンネルデータおよびRチャンネルデータを処理対象オブジェクト(2つの音源オブジェクト)に1つずつ割り当てる。すなわち、まず、CPU11は、当該処理対象オブジェクトのうちの一方の音源オブジェクトの担当チャンネル識別データ884を参照する。そして、これに示されているチャンネルに対応するLチャンネルデータ、またはRチャンネルデータを分離後BGMデータ885に格納する。同様に、処理対象オブジェクトのうちの他方の音源オブジェクトの分離後BGMデータ885に、残りのLチャンネルデータ、またはRチャンネルデータを格納する。これにより、あるBGMについて、Lチャンネルの音のみ再生する音源オブジェクトと、Rチャンネルの音のみ再生する音源オブジェクトとの2つの音源オブジェクトが設定されることになる。   Next, in step S45, the CPU 11 assigns the generated L channel data and R channel data to the processing target objects (two sound source objects) one by one. That is, first, the CPU 11 refers to the assigned channel identification data 884 of one sound source object among the processing target objects. Then, the L channel data or the R channel data corresponding to the channel indicated therein is stored in the BGM data 885 after separation. Similarly, the remaining L channel data or R channel data is stored in the BGM data 885 after separation of the other sound source object of the processing target objects. As a result, two sound source objects are set for a BGM: a sound source object that reproduces only the sound of the L channel and a sound source object that reproduces only the sound of the R channel.

次に、ステップS46で、CPU11は、上記処理対象オブジェクトを仮想空間内の所定の位置に配置する。なお、この配置位置については、上記図8の音源オブジェクト105Lおよび105Rのように、2つの音源オブジェクトが左右にある程度離れているような位置関係(つまり、ステレオ効果が得られるような位置関係)となるように配置することが好ましい。   Next, in step S46, the CPU 11 places the processing target object at a predetermined position in the virtual space. Note that this arrangement position is such that the two sound source objects are separated from each other to the right and left by a certain amount (that is, a position relationship that provides a stereo effect), such as the sound source objects 105L and 105R in FIG. It is preferable to arrange so that.

次に、ステップS47で、CPU11は、上記ステップS41で抽出したセット型音源オブジェクトの全てについて上記のような処理が行われたか否かを判定する。その結果、まだ未処理のセット型音源オブジェクトが残っているときは(ステップS47でNO)、上記ステップS42に戻り処理が繰り返される。一方、全て処理済みであれば(ステップS47でYES)、続くステップS48で、CPU11は、その他の初期設定処理を実行する。すなわち、各種オブジェクト(単体型音源オブジェクトやプレイヤキャラクタ等)の仮想空間内への配置や、仮想カメラおよび仮想マイク等の姿勢の初期化、その他各種変数の初期化等が実行される。なお、仮想カメラおよび仮想マイクの初期値は、マイク座標系の各軸の向きを仮想3次元空間の空間座標系の各軸の向きに一致させた状態である。以上で、初期設定処理は終了する。   Next, in step S47, the CPU 11 determines whether or not the above processing has been performed for all the set-type sound source objects extracted in step S41. As a result, when an unprocessed set-type sound source object still remains (NO in step S47), the process returns to step S42 and the process is repeated. On the other hand, if all the processes have been completed (YES in step S47), in the subsequent step S48, the CPU 11 executes other initial setting processes. That is, various objects (single sound source objects, player characters, etc.) are arranged in the virtual space, the postures of the virtual camera and the virtual microphone, and other various variables are initialized. Note that the initial values of the virtual camera and the virtual microphone are in a state in which the directions of the respective axes of the microphone coordinate system are made coincident with the directions of the respective axes of the spatial coordinate system in the virtual three-dimensional space. This completes the initial setting process.

図15に戻り、次に、ステップS2において、CPU11は、端末操作データ83の取得を行う。   Returning to FIG. 15, next, in step S <b> 2, the CPU 11 acquires the terminal operation data 83.

次に、ステップS3において、CPU11は、モーションセンサデータ93(加速度データおよび角速度データ)に基づいて、端末装置6の現在の姿勢を算出する。算出された姿勢を示すデータは、端末装置姿勢データ86としてメモリ12に格納される。   Next, in step S <b> 3, the CPU 11 calculates the current posture of the terminal device 6 based on the motion sensor data 93 (acceleration data and angular velocity data). Data indicating the calculated attitude is stored in the memory 12 as terminal apparatus attitude data 86.

次に、ステップS4において、CPU11は、端末装置6の現在の姿勢を仮想マイク(端末用仮想マイク)の姿勢に反映する。具体的には、端末装置姿勢データ86で示される姿勢を仮想マイク姿勢データ87に反映させる。   Next, in step S4, the CPU 11 reflects the current posture of the terminal device 6 in the posture of the virtual microphone (terminal virtual microphone). Specifically, the attitude indicated by the terminal apparatus attitude data 86 is reflected in the virtual microphone attitude data 87.

次に、ステップS5において、CPU11は、端末操作データ83で示される操作内容(主に操作ボタンデータ91やタッチ位置データ92で示される操作内容)に基づき、所定のゲーム処理を実行する。例えば、プレイヤキャラクタ等の各種キャラクタを移動させる処理等が行われる。   Next, in step S <b> 5, the CPU 11 executes a predetermined game process based on the operation content indicated by the terminal operation data 83 (mainly the operation content indicated by the operation button data 91 and the touch position data 92). For example, a process of moving various characters such as a player character is performed.

次に、ステップS6において、CPU11は、上記ゲーム処理の結果が反映されたゲーム画像を生成する処理を実行する。例えば、上記操作内容に基づいてプレイヤキャラクタが移動した後の仮想ゲーム空間を仮想カメラで撮影することでゲーム画像が生成される。また、このとき、CPU11は、ゲーム内容に応じて、適宜、モニタ用ゲーム画像と端末用ゲーム画像の2つの画像を生成する。例えば、2つの仮想カメラを用いることでそれぞれの画像が生成される。   Next, in step S6, the CPU 11 executes a process for generating a game image in which the result of the game process is reflected. For example, a game image is generated by photographing a virtual game space after the player character has moved based on the operation content with a virtual camera. At this time, the CPU 11 appropriately generates two images, a monitor game image and a terminal game image, according to the game content. For example, each image is generated by using two virtual cameras.

次に、ステップS7において、CPU11は、モニタ用ゲーム音声および端末用ゲーム音声を生成するためのゲーム音声生成処理を実行する。図17は、上記ステップS7で示したゲーム音声生成処理の詳細を示すフローチャートである。図17において、まず、ステップS21で、CPU11は、処理対象とする音源オブジェクトを一つ選択する。音源オブジェクトが仮想空間内に複数存在する場合に、これらを一つずつ順番に処理していくためである。また、処理対象となる音源オブジェクトは、例えば、現在音声発生中の状態にある音源オブジェクトである。   Next, in step S7, the CPU 11 executes a game sound generation process for generating a monitor game sound and a terminal game sound. FIG. 17 is a flowchart showing details of the game sound generation processing shown in step S7. In FIG. 17, first, in step S21, the CPU 11 selects one sound source object to be processed. This is because when a plurality of sound source objects exist in the virtual space, these are processed one by one in order. Further, the sound source object to be processed is, for example, a sound source object in a state where sound is currently being generated.

次に、ステップS22において、CPU11は、上記処理対象の音源オブジェクトのマイク座標系における位置および向きを算出する。これにより、マイク座標系において、音源オブジェクトが仮想マイク(の正面方向を基準として)の右側に位置するか左側に位置するかを認識することができる。   Next, in step S22, the CPU 11 calculates the position and orientation of the processing-target sound source object in the microphone coordinate system. Thereby, in the microphone coordinate system, it is possible to recognize whether the sound source object is located on the right side or the left side of the virtual microphone (based on the front direction).

次に、ステップS23で、CPU11は、マイク座標系における仮想マイクから音源オブジェクトまでの直線距離を算出する。続くステップS24において、CPU11は、上記算出したマイク座標系における音源オブジェクトの位置、向き、距離、および、仮想マイク自身の向きに基づいて、スピーカ23Lおよび23Rのそれぞれの音量値を決定する。つまり、スピーカ23Lおよび23Rの左右の音量バランスが決定される。   Next, in step S23, the CPU 11 calculates a linear distance from the virtual microphone to the sound source object in the microphone coordinate system. In subsequent step S24, the CPU 11 determines the volume values of the speakers 23L and 23R based on the calculated position, orientation, distance, and orientation of the virtual microphone itself in the microphone coordinate system. That is, the left and right volume balance of the speakers 23L and 23R is determined.

次に、ステップS25において、CPU11は、当該音源オブジェクトに対応付けられているゲーム音声データ85を再生する。但し、当該音源オブジェクトが上記セット型音源オブジェクトにかかるものである場合は、再生される音声は分離後BGMデータ885に基づくものとなる。その結果、セット型音源オブジェクトに関しては、所定のBGMのLチャンネルの音声のみ、あるいは、Rチャンネルの音声のみが再生されることになる。なお、再生音量については、上記ステップS24で決定された音量に従う。   Next, in step S25, the CPU 11 reproduces the game sound data 85 associated with the sound source object. However, when the sound source object is related to the set type sound source object, the reproduced sound is based on the separated BGM data 885. As a result, for the set type sound source object, only the sound of the L channel of the predetermined BGM or only the sound of the R channel is reproduced. Note that the playback volume follows the volume determined in step S24.

次に、ステップS26において、CPU11は、処理対象となる音源オブジェクトの全てについて上記のような処理を行ったか否かを判定する。そして、まだ未処理の音源オブジェクトが残っていれば(ステップS26でNO)、CPU11は、上記ステップS21に戻り処理を繰り返す。一方、全て処理が終わっていれば(ステップS26でYES)、ステップS27において、CPU11は、上記処理を行った各音源オブジェクトにかかる音声を含む端末用ゲーム音声を生成する。   Next, in step S <b> 26, the CPU 11 determines whether or not the above processing has been performed for all sound source objects to be processed. If unprocessed sound source objects still remain (NO in step S26), the CPU 11 returns to step S21 and repeats the process. On the other hand, if all the processes have been completed (YES in step S26), in step S27, the CPU 11 generates terminal game sound including the sound applied to each sound source object subjected to the above process.

続くステップS27で、CPU11は、モニタ用仮想マイクを用いて、ゲーム処理の結果に応じたモニタ用ゲーム音声を適宜生成する。ここでは、当該モニタ用ゲーム音声も、その対象をスピーカ2Lおよび2Rとして、基本的には上記端末用ゲーム音声と同様の処理で生成されるものとする。以上で、ゲーム音声生成処理は終了する。   In subsequent step S27, the CPU 11 appropriately generates a monitor game sound corresponding to the result of the game process using the monitor virtual microphone. Here, it is assumed that the monitor game sound is also generated by the same processing as the above-described terminal game sound, with the targets being speakers 2L and 2R. This is the end of the game sound generation process.

図15に戻り、ゲーム音声生成処理の次に、ステップS8において、CPU11は、上記ステップS3で生成された端末用ゲーム画像およびステップS7で生成された端末用ゲーム音声を端末送信用データ84に格納し、当該端末送信用データ84を端末装置6に送信する。なお、ここでは説明の便宜上、端末用ゲーム音声の送信周期を端末用ゲーム画像の送信周期を合わせている例を挙げているが、他の実施形態では、端末用ゲーム音声の送信周期については端末用ゲーム画像の送信周期よりも短くしてもよい。例えば、端末用ゲーム画像については1/60秒周期で送信するようにし、端末用ゲーム音声については1/180秒周期で送信するようにしてもよい。   Returning to FIG. 15, next to the game sound generation process, in step S <b> 8, the CPU 11 stores the terminal game image generated in step S <b> 3 and the terminal game sound generated in step S <b> 7 in the terminal transmission data 84. Then, the terminal transmission data 84 is transmitted to the terminal device 6. Here, for convenience of explanation, an example is given in which the transmission cycle of the terminal game sound is matched with the transmission cycle of the terminal game image. However, in other embodiments, the transmission cycle of the terminal game sound is set to the terminal. The game image transmission cycle may be shorter. For example, the terminal game image may be transmitted at a 1/60 second period, and the terminal game sound may be transmitted at a 1/180 second period.

次に、ステップS9において、CPU11は、上記ステップS6で生成されたモニタ用ゲーム画像をモニタ2に出力する。続くステップS10において、CPU11は、上記ステップS7で生成されたモニタ用ゲーム音声をスピーカ2Lおよび2Rに出力する。   Next, in step S9, the CPU 11 outputs the monitor game image generated in step S6 to the monitor 2. In subsequent step S10, CPU 11 outputs the monitor game sound generated in step S7 to speakers 2L and 2R.

次に、ステップS11で、CPU11は、ゲーム処理を終了するための所定の条件が満たされたか否かを判定する。その結果、所定の条件が満たされていないときは(ステップS11でNO)、上記ステップS2に戻り、上述の処理を繰り返す。所定の条件が満たされたときは(ステップS11でYES)、CPU11は当該ゲーム処理を終了する。   Next, in step S11, the CPU 11 determines whether or not a predetermined condition for ending the game process is satisfied. As a result, when the predetermined condition is not satisfied (NO in step S11), the process returns to step S2 and the above-described processing is repeated. When the predetermined condition is satisfied (YES in step S11), the CPU 11 ends the game process.

次に、図18のフローチャートを参照して、端末装置6の制御部33が実行する制御処理の流れを説明する。まず、ステップS41において、制御部33は、ゲーム装置本体5から送信された端末送信用データ84を受信する。   Next, the flow of control processing executed by the control unit 33 of the terminal device 6 will be described with reference to the flowchart of FIG. First, in step S <b> 41, the control unit 33 receives terminal transmission data 84 transmitted from the game apparatus body 5.

次に、ステップS42において、制御部33は、上記受信した端末送信用データ84に含まれている端末用ゲーム画像をLCD21に出力する。   Next, in step S <b> 42, the control unit 33 outputs the terminal game image included in the received terminal transmission data 84 to the LCD 21.

次に、ステップS43において、制御部33は、上記受信した端末送信用データ84に含まれている端末用ゲーム音声をスピーカ23Lおよび23Rに出力する。また、その音量バランスは、上記ステップS24で決定された音量に従う。   Next, in step S43, the control unit 33 outputs the terminal game sound included in the received terminal transmission data 84 to the speakers 23L and 23R. The volume balance follows the volume determined in step S24.

次に、ステップS44において、制御部33は、操作部31やモーションセンサ32、タッチパネル22に対する入力(操作内容)を検出し、操作ボタンデータ91、タッチ位置データ92、および、モーションセンサデータ93を生成する。   Next, in step S <b> 44, the control unit 33 detects an input (operation content) to the operation unit 31, the motion sensor 32, and the touch panel 22, and generates operation button data 91, touch position data 92, and motion sensor data 93. To do.

次に、ステップS45において、制御部33は、上記ステップS44で生成した操作ボタンデータ91、タッチ位置データ92、を含む端末操作データ83を生成し、ゲーム装置本体5に送信する。   Next, in step S <b> 45, the control unit 33 generates terminal operation data 83 including the operation button data 91 and touch position data 92 generated in step S <b> 44 and transmits the terminal operation data 83 to the game apparatus body 5.

次に、ステップS46において、制御部33は、端末装置6の制御処理を終了するための所定の条件が満たされたか否かを判定する(例えば、電源オフ操作が行われたか否か等)。その結果、所定の条件が満たされていないときは(ステップS46でNO)、上記ステップS41に戻り、上述の処理を繰り返す。所定の条件が満たされたときは(ステップS46でYES)、制御部33は当該端末装置6の制御処理を終了する。   Next, in step S46, the control unit 33 determines whether or not a predetermined condition for ending the control process of the terminal device 6 is satisfied (for example, whether or not a power-off operation has been performed). As a result, when the predetermined condition is not satisfied (NO in step S46), the process returns to step S41, and the above-described processing is repeated. When the predetermined condition is satisfied (YES in step S46), the control unit 33 ends the control process of the terminal device 6.

このように、本実施形態では、仮想空間内の音源オブジェクト(特に、セット型音源オブジェクト)と仮想マイクとの位置関係やその向きを反映したBGMの再生処理を行っている。これにより、仮想空間内の音源から2chで構成されたBGMが再生されるときの音響表現をより正確に表現でき、仮想空間の臨場感をより高めることができる。特に、上述したような、端末装置6自体の姿勢を変化させて「覗き窓」のように仮想空間の様子を表示するようなシステムのゲーム処理等に上記の処理は好適である。   As described above, in the present embodiment, the BGM reproduction process reflecting the positional relationship between the sound source object (particularly, the set-type sound source object) and the virtual microphone in the virtual space is performed. Accordingly, it is possible to more accurately represent the acoustic expression when the BGM composed of 2ch is reproduced from the sound source in the virtual space, and it is possible to further enhance the sense of reality in the virtual space. In particular, the above processing is suitable for the game processing of the system that displays the state of the virtual space like a “view window” by changing the attitude of the terminal device 6 itself as described above.

なお、上記実施形態では、初期設定処理において所定のBGMをLRチャンネルのデータに分離し、異なる音源オブジェクトに割り当てる処理を行っていた。このような処理の他、次のような処理を行っても良い。例えば、ゲームソフトの開発段階で上記のような2chのBGMをチャンネル分離したサウンドデータ(LチャンネルデータおよびRチャンネルデータ)を予め作成しておき、ゲーム音声データ85に含めておくようにしてもよい。そして、所定の音源オブジェクトに対応するBGMデータとして、LチャンネルデータあるいはRチャンネルデータを対応付けた音源オブジェクトデータを予め作成しておくようにしてもよい。この場合は、図14で示したような音源オブジェクトデータ88の構成としては、オブジェクトID881および対応BGM識別データ883のみが含まれる構成でもよい。そして、上記初期設定処理においては、他の音源オブジェクトのデータと共に、当該LチャンネルデータあるいはRチャンネルデータを再生する音源オブジェクトのデータを読み出し、仮想空間内に適宜配置するだけでよい。これは、初期設定処理にかかる処理時間が短縮される点で有利である。   In the above embodiment, in the initial setting process, a predetermined BGM is separated into LR channel data and assigned to different sound source objects. In addition to such processing, the following processing may be performed. For example, sound data (L channel data and R channel data) obtained by channel-separating the 2ch BGM as described above may be created in advance and included in the game sound data 85 at the game software development stage. . Then, sound source object data associated with L channel data or R channel data may be created in advance as BGM data corresponding to a predetermined sound source object. In this case, the structure of the sound source object data 88 as shown in FIG. 14 may include only the object ID 881 and the corresponding BGM identification data 883. In the initial setting process, it is only necessary to read out the data of the sound source object for reproducing the L channel data or the R channel data together with the data of the other sound source objects and appropriately arrange it in the virtual space. This is advantageous in that the processing time for the initial setting process is shortened.

また、その他、上記ステップS7のゲーム音声生成処理において、上記のBGMのチャンネル分離処理等をリアルタイムに実行するようにしてもよい。例えば、上記音源オブジェクトデータ88の構成として、図14に示した構成から分離後BGMデータ885のみを外した構成としておく。そして、ゲーム音声生成処理において、セット型音源オブジェクトについては、その組を構成する各音源オブジェクトの担当チャンネル識別データ884を参照する。そして、その音源オブジェクトが担当するチャンネルを識別できれば、BGMデータをLチャンネルとRチャンネルのサウンドデータに分離し、担当チャンネルのサウンドデータのみを再生するようにしてもよい。   In addition, in the game sound generation process in step S7, the BGM channel separation process and the like may be executed in real time. For example, as the configuration of the sound source object data 88, only the post-separation BGM data 885 is removed from the configuration shown in FIG. In the game sound generation process, the set type sound source object is referred to the assigned channel identification data 884 of each sound source object constituting the set. If the channel assigned to the sound source object can be identified, the BGM data may be separated into the sound data of the L channel and the R channel, and only the sound data of the assigned channel may be reproduced.

また、上記実施形態では、モニタ2および端末装置6という、2つの画面と2セットのステレオスピーカ(4つのスピーカ)を有するゲームシステムを例に挙げた。このような構成に限らず、例えば、携帯型ゲーム装置のように、画面およびステレオスピーカがハウジングに一体化するよう設けられている情報処理装置にも上記の処理は適用可能である。また、このような情報処理装置は、モーションセンサを内蔵しており、自身の姿勢が検知可能な情報処理装置であることが好ましい。そして、このような情報処理装置で、上述したような仮想空間の表示システムを利用する処理を行う場合に好適である。この場合は、仮想カメラや仮想マイクを一つだけにして上記と同様の処理を行えばよい。   In the above embodiment, a game system having two screens and two sets of stereo speakers (four speakers), such as the monitor 2 and the terminal device 6, has been described as an example. For example, the above processing can be applied to an information processing apparatus in which a screen and a stereo speaker are integrated with a housing, such as a portable game device. Further, such an information processing apparatus is preferably an information processing apparatus that has a built-in motion sensor and can detect its own posture. Such an information processing apparatus is suitable when processing using the virtual space display system as described above is performed. In this case, the same processing as described above may be performed with only one virtual camera or virtual microphone.

また、例えば、プレイヤの直接的な操作対象となるゲーム画面の表示や各種操作に関しては端末装置6を用いるが、音声出力に関しては、端末装置6のスピーカ23は使わずにモニタ2のスピーカのみを利用するような構成の場合も上記のような処理は適用可能である。例えば、プレイヤが端末装置6を把持したまま、モニタ2に対面している姿勢から180度回転した場合(つまり、モニタ2に背を向けた場合)、上記の処理を用いてセット型音源オブジェクトの音声をモニタ2のスピーカ2Lおよび2Rに出力するようにすればよい。   Further, for example, the terminal device 6 is used for display of a game screen that is a direct operation target of the player and various operations, but for the sound output, only the speaker of the monitor 2 is used without using the speaker 23 of the terminal device 6. The above processing can also be applied in the case of a configuration to be used. For example, when the player rotates 180 degrees from the posture facing the monitor 2 while holding the terminal device 6 (that is, when the player turns his back to the monitor 2), the set type sound source object is The sound may be output to the speakers 2L and 2R of the monitor 2.

また、外付けスピーカとして、例えば5.1chサラウンドシステムのスピーカを用いるような場合も、同様の処理が適用できる。この場合は、例えば、5.1ch対応のBGMデータをチャンネル毎のデータに分離し(6つのサウンドデータとなる)、これらを6つの音源オブジェクトに割り当てるようにすればよい、そして、上記のように端末装置6の姿勢変化に応じて仮想マイクの向きを変化させ、仮想空間内の音源オブジェクトと仮想マイクとの位置関係や向きに基づいてBGM再生処理を行えば、スピーカの数が多い分、より臨場感の高いBGM再生の音響効果を提供することができる。   The same processing can be applied to a case where, for example, a 5.1ch surround system speaker is used as the external speaker. In this case, for example, 5.1ch-compatible BGM data is separated into data for each channel (becomes six sound data), and these are assigned to six sound source objects, and as described above. If the direction of the virtual microphone is changed in accordance with the change in the attitude of the terminal device 6 and the BGM playback processing is performed based on the positional relationship and direction between the sound source object and the virtual microphone in the virtual space, the number of speakers is increased. A sound effect of BGM reproduction with high presence can be provided.

また、例えば端末装置6にステレオヘッドホンを接続し、プレイヤがこれを用いてゲーム音声を聴くような場合も上記処理は適用可能である。この場合は、ヘッドホン端子24へのヘッドホンの接続状態をゲーム装置本体5が検出できるように構成する。例えば、接続状態を示すデータを上記端末操作データ83に含めるように構成する。そして、上述の処理におけるスピーカ23Lおよび23Rへの出力をこのようなヘッドホンの左右スピーカへの出力に置き換えるようにして上記処理を適用すればよい。但し、上記図11で示したような、端末装置6を縦持ちにしたときの上下方向にかかる音声の鳴らし分けの処理に関しては、ヘッドホン装着時は適用しないようにしてもよい。プレイヤがヘッドホンを装着しているときは、スピーカの位置関係は左右方向にかかる配置という位置関係に固定されるためである。   Further, for example, the above-described processing can be applied when a stereo headphone is connected to the terminal device 6 and the player listens to the game sound using this. In this case, the game apparatus main body 5 is configured to detect the connection state of the headphones to the headphone terminal 24. For example, the terminal operation data 83 is configured to include data indicating a connection state. Then, the above processing may be applied so that the output to the speakers 23L and 23R in the above processing is replaced with the output to the left and right speakers of such headphones. However, as shown in FIG. 11 described above, the process of sound generation in the vertical direction when the terminal device 6 is held vertically may not be applied when headphones are attached. This is because when the player is wearing headphones, the positional relationship of the speakers is fixed to the positional relationship of arrangement in the left-right direction.

また、その他、端末装置6自体の姿勢は変更せずに、仮想カメラの向きのみをプレイヤが操作可能な場合にも上記処理を適用してもよい(例えば、アナログスティック25を用いて仮想カメラの向きを変更する等)。プレイヤからすると、仮想カメラの向きの操作によって、自分を中心にして仮想空間自体が回転しているような感覚となる。この場合は、端末装置6の姿勢の代わりに、プレイヤの操作によって変更された仮想カメラの姿勢に併せて仮想マイクの向きを変更すればよい。すなわち、仮想マイクの正面方向(z軸正方向)が仮想カメラの正面方向(z軸正方向)に一致するように仮想マイクの姿勢を変更し、上記のような処理を行うようにしてもよい。   In addition, the above processing may be applied even when the player can operate only the orientation of the virtual camera without changing the orientation of the terminal device 6 itself (for example, the analog camera 25 is used for the virtual camera). Change orientation). From the viewpoint of the player, the virtual space itself is rotated around the user by operating the direction of the virtual camera. In this case, instead of the attitude of the terminal device 6, the orientation of the virtual microphone may be changed in accordance with the attitude of the virtual camera changed by the operation of the player. That is, the attitude of the virtual microphone may be changed so that the front direction (z-axis positive direction) of the virtual microphone matches the front direction (z-axis positive direction) of the virtual camera, and the above-described processing may be performed. .

また、その他、モニタ2のスピーカ2Lおよび2Rと、端末装置6のスピーカ23Lおよび23Rの、合計2セットのステレオスピーカ(計4つのスピーカ)を用いて上記の処理を適用しても良い。特に、端末装置6を主に「縦向き姿勢」で利用する場合に好適である。この場合、例えば、仮想空間内の左右方向についての音源オブジェクトの移動に関してはモニタ2のスピーカ23Lおよび23Rからの出力に反映させる。そして、上下方向についての音源オブジェクトの移動については、端末装置6のスピーカ23Lおよび23Rからの出力に反映させる。これにより、例えば5.1chのスピーカセットを用いずとも、臨場感の高い音響効果を得られる。   In addition, the above processing may be applied using a total of two sets of stereo speakers (a total of four speakers) including the speakers 2L and 2R of the monitor 2 and the speakers 23L and 23R of the terminal device 6. In particular, it is suitable when the terminal device 6 is mainly used in the “vertical orientation”. In this case, for example, the movement of the sound source object in the left-right direction in the virtual space is reflected in the outputs from the speakers 23L and 23R of the monitor 2. The movement of the sound source object in the vertical direction is reflected in the outputs from the speakers 23L and 23R of the terminal device 6. Thereby, for example, a highly realistic sound effect can be obtained without using a 5.1ch speaker set.

また、上述の実施例にかかる処理を実行するためのゲーム処理プログラムは、任意のコンピュータ読み取り可能な記憶媒体(例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、半導体メモリカード、ROM、RAMなど)に格納され得る。   In addition, a game processing program for executing the processing according to the above-described embodiment is an arbitrary computer-readable storage medium (for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic medium). Tape, semiconductor memory card, ROM, RAM, etc.).

また、上記実施例ではゲーム処理を一例に説明しているが、情報処理の内容はゲーム処理に限るものではなく、上記のような仮想空間の表示システムを利用する他の情報処理においても上記実施例の処理は適用可能である。   In the above embodiment, the game process is described as an example. However, the contents of the information processing are not limited to the game process, and the above processing is also performed in other information processing using the virtual space display system as described above. The example processing is applicable.

また、上記実施形態においては、2chで構成されるBGMデータをLRそれぞれのチャンネルに分離し、別々の音源オブジェクトで再生するような制御を行うための一連の処理が単一の装置(ゲーム装置本体5)において実行される場合を説明したが、他の実施形態においては、上記一連の処理が複数の情報処理装置からなる情報処理システムにおいて実行されてもよい。例えば、ゲーム装置本体5と、当該ゲーム装置本体5とネットワークを介して通信可能なサーバ側装置とを含む情報処理システムにおいて、上記一連の処理のうちの一部の処理がサーバ側装置によって実行されてもよい。また、上記情報処理システムにおいて、サーバ側のシステムは、複数の情報処理装置によって構成され、サーバ側で実行するべき処理を複数の情報処理装置が分担して実行してもよい。   In the above-described embodiment, a series of processes for performing control such that BGM data composed of 2ch is separated into LR channels and reproduced by separate sound source objects is performed by a single device (game device main body). Although the case where it performed in 5) was demonstrated, in other embodiment, the said series of processes may be performed in the information processing system which consists of a some information processing apparatus. For example, in an information processing system including a game apparatus body 5 and a server-side apparatus that can communicate with the game apparatus body 5 via a network, a part of the series of processes is executed by the server-side apparatus. May be. In the information processing system, the server-side system may be configured by a plurality of information processing apparatuses, and the plurality of information processing apparatuses may share and execute processing to be executed on the server side.

1…ゲームシステム
2…モニタ
2L、2R…スピーカ
3…ゲーム装置
5…ゲーム装置本体
6…端末装置
20…ハウジング
21…LCD
23L、23R…スピーカ
DESCRIPTION OF SYMBOLS 1 ... Game system 2 ... Monitor 2L, 2R ... Speaker 3 ... Game device 5 ... Game device main body 6 ... Terminal device 20 ... Housing 21 ... LCD
23L, 23R ... Speaker

Claims (11)

情報処理部と、第1のスピーカおよび第2のスピーカとを備える情報処理システムであって、
2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する音楽データ分離手段と、
前記分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する音源オブジェクト配置手段と、
前記仮想3次元空間内の所定の位置に仮想マイクを配置する仮想マイク配置手段と、
前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、前記第1のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、前記第2のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する音声出力制御手段と、を備える、情報処理システム。
An information processing system comprising an information processing unit, a first speaker, and a second speaker,
Music data separation means for separating predetermined music data composed of two channels into first channel music data and second channel music data;
The first sound source object associated with one of the separated music data and the second sound source object associated with the other of the separated music data are different from each other in the virtual three-dimensional space. A sound source object placement means for placing a position;
Virtual microphone placement means for placing a virtual microphone at a predetermined position in the virtual three-dimensional space;
The first channel music reproduced from the first speaker based on the positional relationship between the direction of the virtual microphone arranged in the virtual three-dimensional space and the first sound source object and the second sound source object. Audio output control means for determining the reproduction volume of the data and the second channel music data, and the reproduction volume of the first channel music data and the second channel music data reproduced from the second speaker. Processing system.
前記情報処理システムは、
動きセンサ、前記第1のスピーカ、前記第2のスピーカ、および前記仮想3次元空間の様子が表示される第1の表示部とが設けられているハウジングを有する第1出力装置と、
前記動きセンサの出力に基づいて前記第1出力装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出する姿勢検出手段と、
前記第1出力装置の姿勢に応じて前記仮想マイクの向きを変更する仮想マイク姿勢変更手段と、を更に備える、請求項1に記載の情報処理システム。
The information processing system includes:
A first output device having a housing provided with a motion sensor, the first speaker, the second speaker, and a first display unit on which a state of the virtual three-dimensional space is displayed;
Posture detection means for detecting the posture of the first output device itself in real time or almost in real time based on the output of the motion sensor;
The information processing system according to claim 1, further comprising: a virtual microphone posture changing unit that changes a direction of the virtual microphone according to a posture of the first output device.
前記情報処理システムは、前記第1出力装置の姿勢に基づいて前記第1のスピーカと前記第2のスピーカとの位置関係を認識するスピーカ位置関係認識部を更に備え、
前記音声出力制御手段は、前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に加え、更に前記第1のスピーカおよび前記第2のスピーカの位置関係に基づいて、当該第1のスピーカから出力される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、当該第2のスピーカから出力される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量を決定する、請求項2に記載の情報処理システム。
The information processing system further includes a speaker positional relationship recognition unit that recognizes a positional relationship between the first speaker and the second speaker based on an attitude of the first output device,
In addition to the positional relationship between the direction of the virtual microphone arranged in the virtual three-dimensional space and the first sound source object and the second sound source object, the audio output control means further includes the first speaker and the Based on the positional relationship of the second speaker, the playback volume of the first channel music data and second channel music data output from the first speaker, and the first channel music output from the second speaker. The information processing system according to claim 2, wherein a reproduction volume of the data and the second channel music data is determined.
前記情報処理システムは、第3のスピーカ、第4のスピーカ、および第2の表示部を有する第2出力装置を更に備え、
前記音声出力制御部は、前記第1出力装置が有する第1のスピーカおよび第2のスピーカと、前記第2出力装置が有する第3のスピーカおよび第4のスピーカとの間の位置関係に基づいて、各スピーカからの前記再生音量を決定する、請求項2に記載の情報処理システム。
The information processing system further includes a second output device having a third speaker, a fourth speaker, and a second display unit,
The audio output control unit is based on a positional relationship between the first speaker and the second speaker included in the first output device and the third speaker and the fourth speaker included in the second output device. The information processing system according to claim 2, wherein the reproduction volume from each speaker is determined.
前記音楽データはステレオ2チャンネルで構成された音楽データであり、
前記第1のスピーカおよび第2のスピーカは、組となるステレオスピーカである、請求項1ないし4のいずれかに記載の情報処理システム。
The music data is music data composed of two stereo channels,
The information processing system according to claim 1, wherein the first speaker and the second speaker are a pair of stereo speakers.
情報処理部と、第1のスピーカおよび第2のスピーカを備える音声出力システムのコンピュータに実行させる情報処理プログラムであって
2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する音楽データ分離手段と、
前記分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する音源オブジェクト配置手段と、
前記仮想3次元空間内の所定の位置に仮想マイクを配置する仮想マイク配置手段と、
前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、前記第1のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、前記第2のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する音声出力制御手段として前記コンピュータを機能させる、情報処理プログラム。
An information processing program to be executed by a computer of an audio output system including an information processing unit, a first speaker, and a second speaker, wherein predetermined music data composed of two channels is converted into first channel music data and second Music data separating means for separating into channel music data;
The first sound source object associated with one of the separated music data and the second sound source object associated with the other of the separated music data are different from each other in the virtual three-dimensional space. A sound source object placement means for placing a position;
Virtual microphone placement means for placing a virtual microphone at a predetermined position in the virtual three-dimensional space;
The first channel music reproduced from the first speaker based on the positional relationship between the direction of the virtual microphone arranged in the virtual three-dimensional space and the first sound source object and the second sound source object. The computer functions as audio output control means for determining the reproduction volume of the data and the second channel music data and the reproduction volume of the first channel music data and the second channel music data reproduced from the second speaker. Information processing program.
前記情報処理システムは、動きセンサ、前記第1のスピーカ、前記第2のスピーカ、および前記仮想3次元空間の様子が表示される第1の表示部とが設けられているハウジングを有する第1出力装置を更に備え、
前記情報処理プログラムは、前記コンピュータを、
前記動きセンサの出力に基づいて前記第1出力装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出する姿勢検出手段と、
前記第1出力装置の姿勢に応じて前記仮想マイクの向きを変更する仮想マイク姿勢変更手段として更に機能させる、請求項6に記載の情報処理プログラム。
The information processing system includes a housing provided with a motion sensor, the first speaker, the second speaker, and a first display unit on which a state of the virtual three-dimensional space is displayed. Further comprising a device,
The information processing program causes the computer to
Posture detection means for detecting the posture of the first output device itself in real time or almost in real time based on the output of the motion sensor;
The information processing program according to claim 6, further causing it to function as virtual microphone posture changing means for changing a direction of the virtual microphone according to a posture of the first output device.
情報処理部と、第1のスピーカおよび第2のスピーカを備える情報処理システムを制御するための情報処理制御方法であって
2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する音楽データ分離ステップと、
前記分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する音源オブジェクト配置ステップと、
前記仮想3次元空間内の所定の位置に仮想マイクを配置するマイク配置ステップと、
前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、前記第1のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、前記第2のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する音声出力制御ステップとを備える、情報処理制御方法。
An information processing control method for controlling an information processing system and an information processing system including a first speaker and a second speaker, wherein predetermined music data composed of two channels is converted into first channel music data and A music data separation step for separating into two-channel music data;
The first sound source object associated with one of the separated music data and the second sound source object associated with the other of the separated music data are different from each other in the virtual three-dimensional space. A sound source object placement step to be placed at a position;
A microphone placement step of placing a virtual microphone at a predetermined position in the virtual three-dimensional space;
The first channel music reproduced from the first speaker based on the positional relationship between the direction of the virtual microphone arranged in the virtual three-dimensional space and the first sound source object and the second sound source object. And an audio output control step for determining a reproduction volume of the data and the second channel music data and a reproduction volume of the first channel music data and the second channel music data reproduced from the second speaker. Control method.
前記情報処理システムには、動きセンサ、前記第1のスピーカ、前記第2のスピーカ、および前記仮想3次元空間の様子が表示される第1の表示部とが設けられているハウジングを有する第1出力装置を有しており、
前記情報処理制御方法は、
前記動きセンサの出力に基づいて前記第1出力装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出する姿勢検出ステップと、
前記第1出力装置の姿勢に応じて前記仮想マイクの向きを変更する仮想マイク姿勢変更ステップと、を更に備える、請求項8に記載の情報処理システム。
The information processing system includes a housing having a motion sensor, the first speaker, the second speaker, and a first display unit on which a state of the virtual three-dimensional space is displayed. Has an output device,
The information processing control method includes:
An attitude detection step for detecting the attitude of the first output device itself in real time or almost in real time based on the output of the motion sensor;
The information processing system according to claim 8, further comprising: a virtual microphone posture changing step of changing a direction of the virtual microphone according to a posture of the first output device.
第1のスピーカおよび第2のスピーカを備える情報処理装置であって、
2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する音楽データ分離手段と、
前記分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する音源オブジェクト配置手段と、
前記仮想3次元空間内の所定の位置に仮想マイクを配置する仮想マイク配置手段と、
前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、前記第1のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、前記第2のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する音声出力制御手段と、を備える、情報処理装置。
An information processing apparatus comprising a first speaker and a second speaker,
Music data separation means for separating predetermined music data composed of two channels into first channel music data and second channel music data;
The first sound source object associated with one of the separated music data and the second sound source object associated with the other of the separated music data are different from each other in the virtual three-dimensional space. A sound source object placement means for placing a position;
Virtual microphone placement means for placing a virtual microphone at a predetermined position in the virtual three-dimensional space;
The first channel music reproduced from the first speaker based on the positional relationship between the direction of the virtual microphone arranged in the virtual three-dimensional space and the first sound source object and the second sound source object. Audio output control means for determining the reproduction volume of the data and the second channel music data, and the reproduction volume of the first channel music data and the second channel music data reproduced from the second speaker. Processing equipment.
前記情報処理装置は、
動きセンサと、
前記仮想3次元空間の様子が表示される第1の表示手段と、
前記動きセンサの出力に基づいて前記情報処理装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出する姿勢検出手段と、
前記情報処理の姿勢に応じて前記仮想マイクの向きを変更する仮想マイク姿勢変更手段と、を更に備える、請求項10に記載の情報処理装置。
The information processing apparatus includes:
A motion sensor;
First display means for displaying the state of the virtual three-dimensional space;
Posture detecting means for detecting the posture of the information processing device itself in real time or almost in real time based on the output of the motion sensor;
The information processing apparatus according to claim 10, further comprising: a virtual microphone posture changing unit that changes a direction of the virtual microphone according to the posture of the information processing.
JP2012237973A 2012-10-29 2012-10-29 Information processing system, information processing program, information processing control method, and information processing apparatus Active JP6055651B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012237973A JP6055651B2 (en) 2012-10-29 2012-10-29 Information processing system, information processing program, information processing control method, and information processing apparatus
US13/867,469 US9241231B2 (en) 2012-10-29 2013-04-22 Information processing system, computer-readable non-transitory storage medium having stored therein information processing program, information processing control method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012237973A JP6055651B2 (en) 2012-10-29 2012-10-29 Information processing system, information processing program, information processing control method, and information processing apparatus

Publications (2)

Publication Number Publication Date
JP2014090251A true JP2014090251A (en) 2014-05-15
JP6055651B2 JP6055651B2 (en) 2016-12-27

Family

ID=50547216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012237973A Active JP6055651B2 (en) 2012-10-29 2012-10-29 Information processing system, information processing program, information processing control method, and information processing apparatus

Country Status (2)

Country Link
US (1) US9241231B2 (en)
JP (1) JP6055651B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016088306A1 (en) * 2014-12-03 2016-06-09 株式会社ソシオネクスト Sound reproduction system
JP2018026048A (en) * 2016-08-12 2018-02-15 株式会社コロプラ Information processing method and program for causing computer to execute information processing method
JP2018088946A (en) * 2016-11-30 2018-06-14 株式会社コロプラ Information processing method and program for causing computer to execute information processing method
WO2024085444A1 (en) * 2022-10-18 2024-04-25 삼성전자 주식회사 Method for providing content, and display device
JP2025091813A (en) * 2023-12-07 2025-06-19 株式会社カプコン Program, sound control device, and system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10038947B2 (en) * 2013-10-24 2018-07-31 Samsung Electronics Co., Ltd. Method and apparatus for outputting sound through speaker
US10293253B2 (en) 2015-11-27 2019-05-21 Gree, Inc. Program, game control method, and information processing apparatus
JP6670202B2 (en) * 2016-08-10 2020-03-18 任天堂株式会社 Voice processing program, information processing program, voice processing method, voice processing device, and game program
US20210365526A1 (en) * 2020-05-20 2021-11-25 Sony Group Corporation Mix tape digital assets in virtual environments

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991461A (en) * 1995-09-26 1997-04-04 Nippon Telegr & Teleph Corp <Ntt> Sound field controller
JP2003244786A (en) * 2002-02-15 2003-08-29 Fujitsu Ltd Electronics
JP2003257162A (en) * 2002-02-27 2003-09-12 Yamaha Corp Sound controller, sound control method, program, and recording medium
US20060067534A1 (en) * 2004-09-27 2006-03-30 Nintendo Co., Ltd. Storage medium storing stereo enhancement processing program, stereo enhancement apparatus and stereo enhancement method
US20100034404A1 (en) * 2008-08-11 2010-02-11 Paul Wilkinson Dent Virtual reality sound for advanced multi-media applications
JP2012183256A (en) * 2011-03-08 2012-09-27 Nintendo Co Ltd Information processing system, information processing program and information processing method

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7146296B1 (en) * 1999-08-06 2006-12-05 Agere Systems Inc. Acoustic modeling apparatus and method using accelerated beam tracing techniques
GB2359177A (en) * 2000-02-08 2001-08-15 Nokia Corp Orientation sensitive display and selection mechanism
KR100542129B1 (en) * 2002-10-28 2006-01-11 한국전자통신연구원 Object-based 3D Audio System and Its Control Method
US9015051B2 (en) * 2007-03-21 2015-04-21 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Reconstruction of audio channels with direction parameters indicating direction of origin
US20090282335A1 (en) * 2008-05-06 2009-11-12 Petter Alexandersson Electronic device with 3d positional audio function and method
JP5036797B2 (en) 2009-12-11 2012-09-26 株式会社スクウェア・エニックス Pronunciation processing apparatus, pronunciation processing method, and pronunciation processing program
KR101844511B1 (en) * 2010-03-19 2018-05-18 삼성전자주식회사 Method and apparatus for reproducing stereophonic sound
US8665321B2 (en) * 2010-06-08 2014-03-04 Lg Electronics Inc. Image display apparatus and method for operating the same
KR101401775B1 (en) * 2010-11-10 2014-05-30 한국전자통신연구원 Apparatus and method for reproducing surround wave field using wave field synthesis based speaker array
JP5780755B2 (en) 2010-12-24 2015-09-16 任天堂株式会社 GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
JP5969200B2 (en) * 2011-11-11 2016-08-17 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
KR20130098770A (en) 2012-02-28 2013-09-05 한국전자통신연구원 Expanded 3d space based virtual sports simulation system
US20130279706A1 (en) * 2012-04-23 2013-10-24 Stefan J. Marti Controlling individual audio output devices based on detected inputs

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991461A (en) * 1995-09-26 1997-04-04 Nippon Telegr & Teleph Corp <Ntt> Sound field controller
JP2003244786A (en) * 2002-02-15 2003-08-29 Fujitsu Ltd Electronics
JP2003257162A (en) * 2002-02-27 2003-09-12 Yamaha Corp Sound controller, sound control method, program, and recording medium
US20060067534A1 (en) * 2004-09-27 2006-03-30 Nintendo Co., Ltd. Storage medium storing stereo enhancement processing program, stereo enhancement apparatus and stereo enhancement method
JP2006094275A (en) * 2004-09-27 2006-04-06 Nintendo Co Ltd Stereo-sound expanding processing program and stereo-sound expanding device
US20100034404A1 (en) * 2008-08-11 2010-02-11 Paul Wilkinson Dent Virtual reality sound for advanced multi-media applications
JP2012183256A (en) * 2011-03-08 2012-09-27 Nintendo Co Ltd Information processing system, information processing program and information processing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016088306A1 (en) * 2014-12-03 2016-06-09 株式会社ソシオネクスト Sound reproduction system
JP2018026048A (en) * 2016-08-12 2018-02-15 株式会社コロプラ Information processing method and program for causing computer to execute information processing method
JP2018088946A (en) * 2016-11-30 2018-06-14 株式会社コロプラ Information processing method and program for causing computer to execute information processing method
US10504296B2 (en) 2016-11-30 2019-12-10 Colopl, Inc. Information processing method and system for executing the information processing method
WO2024085444A1 (en) * 2022-10-18 2024-04-25 삼성전자 주식회사 Method for providing content, and display device
JP2025091813A (en) * 2023-12-07 2025-06-19 株式会社カプコン Program, sound control device, and system

Also Published As

Publication number Publication date
JP6055651B2 (en) 2016-12-27
US9241231B2 (en) 2016-01-19
US20140119580A1 (en) 2014-05-01

Similar Documents

Publication Publication Date Title
JP6055651B2 (en) Information processing system, information processing program, information processing control method, and information processing apparatus
JP6243595B2 (en) Information processing system, information processing program, information processing control method, and information processing apparatus
JP6147486B2 (en) GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM
CN107277736B (en) Simulation system, sound processing method, and information storage medium
JP6055657B2 (en) GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM
JP5992210B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
EP3485346B1 (en) Virtual, augmented, and mixed reality
CN109691141B (en) Spatialized audio system and method of rendering spatialized audio
CN103218198B (en) Voice Localization for Motion Users
JP2017119032A (en) GAME DEVICE AND PROGRAM
EP3477466A1 (en) Provision of virtual reality content
JP6616023B2 (en) Audio output device, head mounted display, audio output method and program
JP4688267B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
JP7053074B1 (en) Appreciation system, appreciation device and program
JP2019208185A (en) Information processing unit and sound generation method
JP6603734B2 (en) GAME PROGRAM AND GAME DEVICE
US9277340B2 (en) Sound output system, information processing apparatus, computer-readable non-transitory storage medium having information processing program stored therein, and sound output control method
JP6159515B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING CONTROL METHOD
JP4789145B2 (en) Content reproduction apparatus and content reproduction program
WO2022149497A1 (en) Information processing device, information processing method, and computer program
US20250303295A1 (en) Method for using ai to customize in game audio
JP2025091813A (en) Program, sound control device, and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161205

R150 Certificate of patent or registration of utility model

Ref document number: 6055651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250