[go: up one dir, main page]

JP3863165B2 - 音声出力装置、音声出力方法、ならびに、プログラム - Google Patents

音声出力装置、音声出力方法、ならびに、プログラム Download PDF

Info

Publication number
JP3863165B2
JP3863165B2 JP2005060312A JP2005060312A JP3863165B2 JP 3863165 B2 JP3863165 B2 JP 3863165B2 JP 2005060312 A JP2005060312 A JP 2005060312A JP 2005060312 A JP2005060312 A JP 2005060312A JP 3863165 B2 JP3863165 B2 JP 3863165B2
Authority
JP
Japan
Prior art keywords
sound
distance
sounding
amplification factor
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005060312A
Other languages
English (en)
Other versions
JP2006239211A (ja
Inventor
啓之 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2005060312A priority Critical patent/JP3863165B2/ja
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to CN2006800070243A priority patent/CN101132838B/zh
Priority to EP06714876A priority patent/EP1854516A4/en
Priority to KR1020077019284A priority patent/KR100903500B1/ko
Priority to US11/817,131 priority patent/US20090023498A1/en
Priority to PCT/JP2006/303746 priority patent/WO2006093145A1/ja
Priority to TW095107145A priority patent/TWI305705B/zh
Publication of JP2006239211A publication Critical patent/JP2006239211A/ja
Application granted granted Critical
Publication of JP3863165B2 publication Critical patent/JP3863165B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、仮想空間を移動する2つの発音体の音声の差異を明確にして臨場感を高めるように出力するのに好適な音声出力装置、音声出力方法、ならびに、これらをコンピュータにて実現するプログラムに関する。
従来から、2次元平面や3次元空間などの仮想空間内にバイク、自動車、飛行機など各種の乗物や地面を走ったりジャンプしたり、空を飛んだり、水の中を泳いだりするキャラクター(以下、まとめて「オブジェクト」という。)を、プレイヤーがコントローラを用いて操作することによって当該仮想空間内を移動させたり、所定のアルゴリズムに応じてオブジェクトを自動的に当該仮想空間内を移動させたりして、競争を行う技術が提案されている。
また、この際に、オブジェクトが発すると想定される音声を生成して、よりリアルな環境を提供する技術が提案されている。このように、仮想空間内で音声を発すると想定されるオブジェクトを発音体とも呼ぶ。このような技術については、たとえば以下の文献に開示がされている。
特許第3455739号公報
[特許文献1]には、競馬ゲームのレースにおいて、視点位置から近い順に馬の足に優先順位をつけ、優先順位の低い足から発せられる足音の音声はグループとしてひとまとめにして、合成出力に用いる発音数を抑制する技術が開示されている。
このように、仮想空間内を移動するオブジェクトが発する音声を合成出力する技術は、ユーザに仮想空間の様子を知覚させる観点で重要である。
このように仮想空間を提供する複数のオブジェクトが音声を発する場合に、これらのオブジェクトが発する音声の差異を極立たせて、ユーザに、オブジェクトの対比を明確に知覚させたい場合がある。したがって、このような要望に対応するための技術が求められている。
本発明は、上記のような課題を解決するためになされたもので、2つの発音体の音声の差異を明確にして臨場感を高めるように出力するのに好適な音声出力装置、音声出力方法、ならびに、これらをコンピュータにて実現するプログラムを提供することを目的とする。
以上の目的を達成するため、本発明の原理にしたがって、下記の発明を開示する。
本発明の第1の観点に係る音声出力装置は、記憶部、距離計算部、変化率計算部、増幅率計算部、混合出力部を備え、以下のように構成する。
すなわち、記憶部は、仮想空間内を移動する2つの発音体のそれぞれに対応付けられる音声情報および音量係数を記憶する。
典型的には、音声情報はPCM(Pulse Coded Modulation)形式やMP3(MPeg audio layer 3)形式などのファイルとしてCD−ROM(Compact Disk Read Only Memory)やハードディスクなどの記憶媒体に記憶される。また、音量係数は、当該音声情報の「迫力」の度合に関連する係数で、発音体による音声出力のエネルギー量や、音声情報の平均音量などに対応付けられるものである。
一方、距離計算部は、当該仮想空間内における所定の注目点と当該2つの発音体のそれぞれとの距離を計算する。
ここで、所定の注目点は、典型的には、仮想空間内を3次元グラフィックス表示する場合の視点位置に相当するものである。発音体が発する音声の大きさは、距離が離れれば離れるほど小さくなるから、この距離による影響を考慮するために、注目点と発音体との距離を計算するのである。なお、「距離」としては、通常の距離(位置ベクトルの差の大きさ)のほか、自乗距離(位置ベクトルの差の大きさの自乗)やマンハッタン距離(位置ベクトルの差の各要素の絶対値の総和)を採用しても良い。
さらに、変化率計算部は、当該2つの発音体のそれぞれが発する音声の音量が、当該発音体について計算された距離だけ離れることによって変化する変化率を計算する。
上記のように、発音体とこれが発する音を聞く注目点の距離が離れれば離れるほど、聞こえる音の大きさは小さくなるため、この小さくなる度合を示す変化率を求めるものである。発音体の音声情報に基づく波動の振幅にこの変化率を単純に乗ずれば、通常の仮想空間内における発音体が発する音のシミュレーションができることになる。
そして、増幅率計算部は、当該2つの音量係数のうち大きい方に対応付けられる発音体に対して、その変化率よりも大きい増幅率を計算し、当該2つの音量係数のうち小さい方に対応付けられる発音体に対して、その変化率よりも小さい増幅率を計算する。
上記のように、単純に音声情報の振幅に変化率を乗じれば、仮想空間内における発音体が発する音のシミュレーションを行うことができるのであるが、2つの発音体が発する音の差異を極立たせ、コントラストを明確にするために、音量係数が大きい方は、求められた変化率よりもさらに大きな増幅率を採用し、音量係数が小さい方は、求められた変化率よりもさらに小さな増幅率を採用するのである。計算の手法は種々考えられ、その好適実施形態については後述する。
一方、混合出力部は、当該2つの発音体のそれぞれに対応付けられる音声情報を当該発音体に対して計算された増幅率で増幅して加算した音声を出力する。
すなわち、2つの発音体のそれぞれについて、それぞれの音声情報をそれぞれについて求められた増幅率で増幅して、その波形を加算することにより、注目点で聞こえる音声の波形を生成する。
本発明によれば、2つの発音体が発する音声の差異を、これらに割り当てられた音量係数に基づいて、より極立たせてコントラストを明確にすることができ、本音声出力装置のユーザは、2つの発音体の特徴を、一層はっきりと把握することができるようになる。
また、本発明の音声出力装置において、混合出力部は、当該仮想空間内における当該所定の注目点の位置と当該2つの発音体の位置とが、所定の条件を満たす場合は、当該2つの発音体のそれぞれに対応付けられる音声情報を前記計算された変化率で増幅して加算した音声を出力し、当該所定の条件を満たさない場合は、当該2つの発音体のそれぞれに対応付けられる音声情報を当該発音体に対して計算された増幅率で増幅して加算した音声を出力するように構成することができる。
たとえば、ステレオ音声出力や5.1チャンネル音声出力で発音体の音が発生している方向を示すような場合には、注目点から見た2つの発音体が仮想空間内で配置されている方向が離れている場合には、上記のような差異の明確化が不要な場合もある。そこで、そのような場合には、単純に2つの音声情報に変化率を乗じてから加算するのである。
2つの発音体の位置と注目点の位置の関係とは、たとえば、第1の発音体−注目点−第2の発音体がなす角が一定の角度より小さいか否か、あるいは、第1の発音体と第2の発音体との距離が一定の長さより小さいか否か、等、種々の条件を採用することができる。
本発明によれば、2つの発音体の位置関係によって音声の差異を極立たせる必要が少ない場合には、コントラストを強調する効果を与えずに音声出力をして、自然な印象をユーザに与えるような音声出力装置を提供することができる。
また、本発明に係る音声出力装置において、増幅率計算部は、当該2つの音量係数のうち大きい方の小さい方に対する比により、当該2つの音量係数のうち大きい方に対応付けられる発音体に対する増幅率を、当該変化率に当該比を乗じたものとし、当該2つの音量係数のうち小さい方に対応付けられる発音体に対する増幅率を、当該変化率に当該比の逆数を乗じたものとするように構成することができる。
たとえば、一方の音声体の音量係数をp1、変化率をc1、増幅率をA1他方の音声体の音量係数をp2、変化率をc2、増幅率をA2とし、p1 > p2 > 0とした場合、
A1 = c1×(p1/p2) > c1;
A2 = c2×(p2/p1) < c2
とするのである。
本発明は、上記発明の好適実施形態に係るもので、音量係数を用いることによって容易に増幅率の計算を行うことができるようになる。
また、本発明に係る音声出力装置において、増幅率計算部は、当該2つの音量係数のうち大きい方の小さい方に対する比の所定の羃乗により、当該2つの音量係数のうち大きい方に対応付けられる発音体に対する増幅率を、当該変化率に当該比の所定の羃乗を乗じたものとし、当該2つの音量係数のうち小さい方に対応付けられる発音体に対する増幅率を、当該変化率に当該比の所定の羃乗の逆数を乗じたものとするように構成することができる。
上記の例と同様に考え、所定の羃乗をR乗(ただしR≧1)とすると、
A1 = c1×(p1/p2)R > c1;
A2 = c2×(p2/p1)R < c2
とするのである。
本発明は、上記発明の好適実施形態に係るもので、音量係数を用いることによって容易に増幅率の計算を行うことができるようになる。
また、本発明に係る音声出力装置において、混合出力部は、当該音声情報の加算に飽和加算を用いるように構成することができる。
特に、増幅率や変化率に基づいて音声情報を増幅する計算では、飽和乗算もしくは通常の乗算を採用し、加算の差異に飽和加算を用いるのである。
本発明では、飽和加算を用いることにより、音量が極めて大きくなった場合の「音割れ」現象をシミュレートすることができるので、コントラストを強調して音声出力する場合に、ユーザにより迫力のある音声を提供することができるようになる。
本発明のその他の観点に係る音声出力方法は、記憶部、距離計算部、変化率計算部、増幅率計算部、混合出力部を備える音声出力装置にて実行され、距離計算工程、変化率計算工程、増幅率計算工程、混合出力工程を備え、以下のように構成する。
すなわち、記憶部には、仮想空間内を移動する2つの発音体のそれぞれに対応付けられる音声情報および音量係数が記憶される。
一方、距離計算工程では、距離計算部が、当該仮想空間内における所定の注目点と当該2つの発音体のそれぞれとの距離を計算する。
さらに、変化率計算工程では、変化率計算部が、当該2つの発音体のそれぞれが発する音声の音量が、当該発音体について計算された距離だけ離れることによって変化する変化率を計算する。
そして、増幅率計算工程では、増幅率計算部が、当該2つの音量係数のうち大きい方に対応付けられる発音体に対して、その変化率よりも大きい増幅率を計算し、当該2つの音量係数のうち小さい方に対応付けられる発音体に対して、その変化率よりも小さい増幅率を計算する。
一方、混合出力工程では、混合出力部が、当該2つの発音体のそれぞれに対応付けられる音声情報を当該発音体に対して計算された増幅率で増幅して加算した音声を出力する。
本発明のその他の観点に係るプログラムは、コンピュータを上記音声出力装置として機能させ、または、コンピュータに上記音声出力方法を実行させるように構成する。
また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記憶媒体に記録することができる。
上記プログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記憶媒体は、コンピュータとは独立して配布・販売することができる。
本発明によれば、2つの発音体の音声の差異を明確にして臨場感を高めるように出力するのに好適な音声出力装置、音声出力方法、ならびに、これらをコンピュータにて実現するプログラムを提供することができる。
以下に本発明の実施形態を説明する。以下では、理解を容易にするため、三次元グラフィックス表示と音声出力がされるゲーム装置に本発明が適用される実施形態を説明するが、各種のコンピュータ、PDA(Personal Data Assistants)、携帯電話などの情報処理装置においても同様に本発明を適用することができる。すなわち、以下に説明する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素もしくは全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。
図1は、本発明の音声出力装置が実現される典型的な情報処理装置の概要構成を示す説明図である。以下、本図を参照して説明する。
情報処理装置100は、CPU(Central Processing Unit)101と、ROM 102と、RAM(Random Access Memory)103と、インターフェイス104と、コントローラ105と、外部メモリ106と、画像処理部107と、DVD−ROM(Digital Versatile Disc ROM)ドライブ108と、NIC(Network Interface Card)109と、音声処理部110と、を備える。
ゲーム用のプログラムおよびデータを記憶したDVD−ROMをDVD−ROMドライブ108に装着して、情報処理装置100の電源を投入することにより、当該プログラムが実行され、本実施形態の表示装置が実現される。
CPU 101は、情報処理装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。また、CPU 101は、レジスタ(図示せず)という高速アクセスが可能な記憶域に対してALU(Arithmetic Logic Unit)(図示せず)を用いて加減乗除等の算術演算や、論理和、論理積、論理否定等の論理演算、ビット和、ビット積、ビット反転、ビットシフト、ビット回転等のビット演算などを行うことができる。さらに、マルチメディア処理対応のための加減乗除等の飽和演算や、三角関数等、ベクトル演算などを高速に行えるように、CPU 101自身が構成されているものや、コプロセッサを備えて実現するものがある。
ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記録され、これが実行されることにより、DVD−ROMに記録されたプログラムをRAM 103に読み出してCPU 101による実行が開始される。また、ROM 102には、情報処理装置100全体の動作制御に必要なオペレーティングシステムのプログラムや各種のデータが記録される。
RAM 103は、データやプログラムを一時的に記憶するためのもので、DVD−ROMから読み出したプログラムやデータ、その他ゲームの進行やチャット通信に必要なデータが保持される。また、CPU 101は、RAM 103に変数領域を設け、当該変数に格納された値に対して直接ALUを作用させて演算を行ったり、RAM 103に格納された値を一旦レジスタに格納してからレジスタに対して演算を行い、演算結果をメモリに書き戻す、などの処理を行う。
インターフェイス104を介して接続されたコントローラ105は、ユーザがレーシングゲームなどのゲーム実行の際に行う操作入力を受け付ける。
インターフェイス104を介して着脱自在に接続された外部メモリ106には、レーシングゲーム等のプレイ状況(過去の成績等)を示すデータ、ゲームの進行状態を示すデータ、チャット通信のログ(記録)のデータなどが書き換え可能に記憶される。ユーザは、コントローラ105を介して指示入力を行うことにより、これらのデータを適宜外部メモリ106に記録することができる。
DVD−ROMドライブ108に装着されるDVD−ROMには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データが記録される。CPU 101の制御によって、DVD−ROMドライブ108は、これに装着されたDVD−ROMに対する読み出し処理を行って、必要なプログラムやデータを読み出し、これらはRAM 103等に一時的に記憶される。
画像処理部107は、DVD−ROMから読み出されたデータをCPU 101や画像処理部107が備える画像演算プロセッサ(図示せず)によって加工処理した後、これを画像処理部107が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号に変換され画像処理部107に接続されるモニタ(図示せず)へ出力される。これにより、各種の画像表示が可能となる。
画像演算プロセッサは、2次元の画像の重ね合わせ演算やαブレンディング等の透過演算、各種の飽和演算を高速に実行できる。
また、仮想3次元空間に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から仮想3次元空間に配置されたポリゴンを所定の視線の方向へ俯瞰したレンダリング画像を得る演算の高速実行も可能である。
さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報にしたがって、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画することが可能である。
NIC 109は、情報処理装置100をインターネット等のコンピュータ通信網(図示せず)に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格にしたがうものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、これらとCPU 101との仲立ちを行うインターフェース(図示せず)により構成される。
音声処理部110は、DVD−ROMから読み出した音声データをアナログ音声信号に変換し、これに接続されたスピーカ(図示せず)から出力させる。また、CPU 101の制御の下、ゲームの進行の中で発生させるべき効果音や楽曲データを生成し、これに対応した音声をスピーカから出力させる。
音声処理部110では、DVD−ROMに記録された音声データがMIDIデータである場合には、これが有する音源データを参照して、MIDIデータをPCMデータに変換する。また、ADPCM形式やOgg Vorbis形式等の圧縮済音声データである場合には、これを展開してPCMデータに変換する。PCMデータは、そのサンプリング周波数に応じたタイミングでD/A(Digital/Analog)変換を行って、スピーカに出力することにより、音声出力が可能となる。
このほか、情報処理装置100は、ハードディスク等の大容量外部記憶装置を用いて、ROM 102、RAM 103、外部メモリ106、DVD−ROMドライブ108に装着されるDVD−ROM等と同じ機能を果たすように構成してもよい。
図2は、本発明の実施形態の一つに係る音声出力装置の概要構成を示す模式図である。当該音声出力装置は、上記の情報処理装置100上に実現される。以下、本図を参照して説明する。
音声出力装置201は、記憶部202、距離計算部203、変化率計算部204、増幅率計算部205、混合出力部206を備える。
まず、記憶部202は、仮想空間内を移動する2つの発音体のそれぞれに対応付けられる音声情報および音量係数を記憶する。
本実施形態では、音声情報はPCM形式やMP3形式などのファイルである。また、音量係数は、当該音声情報の「迫力」の度合に関連する係数で、発音体による音声出力のエネルギー量や、音声情報の平均音量などに対応付けられるものである。
音量係数として音声情報の平均音量を採用する場合には、あらかじめ音量係数を求めて記憶部202に記憶することとしても良いし、音声情報を必要に応じて走査することによって、リアルタイムに音量係数を求めることとし、その結果を記憶部202に記憶することとしても良い。
したがって、RAM 103、DVD−ROMドライブ108に装着されるDVD−ROMやCD−ROM、ハードディスク等の大容量外部記憶装置が、記憶部202として機能することとなる。
さて、一方の発音体の音量係数をp1、他方の発音体の音量係数をp2とし、p1 > p2 > 0であるものとする。
経過時間tにおける振幅により、一方の発音体の音声情報をa1(t)と表現し、他方の発音体の音声情報を、a2(t)と表現することとする。
音量係数は、上記のように、任意に定めることができる。当該音声情報が、それぞれ時間長T,T'で繰り返し再生されるものとすると、音量係数を平均音量とした場合には、
p1 = (1/T)∫0 T |a1(t)|2 dt;
p2 = (1/T')∫0 T' |a2(t)|2 dt
が、それぞれ成立することとなる。
また、音量係数を平均振幅とした場合には、
|p1|2 = (1/T)∫0 T |a1(t)|2 dt;
|p2|2 = (1/T')∫0 T' |a2(t)|2 dt
により、それぞれ計算で求めることができる。ここで、当該積分は、PCM波形等から容易に計算することができる。
このほか、RAM 103には、仮想空間内における2つの発音体や注目点(仮想空間を観察する視点)の位置や速度などの各種の状態パラメータを記憶する領域があり、ユーザの指示入力や所定のアルゴリズムに基づいて、適宜仮想空間内を移動する。
さて、このような音声情報と音声係数等が記憶部202に記憶されている状態から、音声出力装置201において音声出力処理が開始される。図3は、当該音声出力装置にて実行される音声出力処理の制御の流れを示すフローチャートである。以下、本図を参照して説明する。
まず、注目点および2つの発音体の位置等の各種の状態パラメータを初期化する(ステップS301)。当該初期化は、ゲームのプレイ開始前の初期化に相当するもので、各初期値は、あらかじめDVD−ROMや外部メモリ106等に記憶されている値としても良いし、乱数により定めることとしても良い。
そして、RAM 103内に用意された増幅率A1、A2を記憶する領域に、0をセットする(ステップS302)。
さらに、混合出力部206は、情報処理装置100の音声処理部110に、「RAM 103内に記憶される増幅率A1、A2を参照して音声情報a1(t)をA1に記憶される値で増幅し、音声情報a2(t)をA2に記憶される値で増幅して、ミキンシングして音声出力する」ように指示を出す(ステップS303)。音声処理部110による音声の増幅、ミキシング(混合)、出力は、以降の処理と並行して行われる。
したがって、CPU 101は、RAM 103や音声処理部110と共働して、混合出力部206として機能する。
なお、a1(t)をA1倍に増幅し、a2(t)をA2倍に増幅するための乗算や、これらの結果を混合する加算は、適宜飽和演算を用いても良い。飽和演算を用いると、マイクの近くで大音量が発生した場合の音割れのような効果を得ることができる。
さて、音声の混合出力が並行して開始された後は、現在の注目点および2つの発音体の位置等の各種の状態パラメータから、所定の微小時間後のこれらの状態パラメータを計算して(ステップS304)、RAM 103に記憶されるこれらの状態パラメータを計算された新たな値で更新する(ステップS305)。状態所定の微小時間としては、たとえば、モニタ画面の垂直同期割り込みの間隔などを採用すると、表示の差異の画像のブレやちらつきを抑えることができる。
また、状態パラメータの計算は、仮想空間内に設定された物理法則等にしたがうものとし、プレイヤーがコントローラ105を用いて与える指示入力や、CPU 101が所定のアルゴリズムに基づいて生成する指示入力に基づいて更新されるものとする。たとえば、レーシングゲームや競馬ゲームにおけるプレイヤーキャラクターや非プレイヤーキャラクターの動作を定める手法と同様の手法を採用することができる。
図4は、このようにして更新された時刻tにおいて、仮想空間内に配置される注目点および2つの発音体の位置関係を示す説明図である。以下、本図を参照して説明する。
本図に示すように、仮想空間401において、注目点405の位置ベクトルをs(t)とし、音量係数p1に対応付けられる発音体411の位置ベクトルをr1(t)とし、音量係数p2に対応付けられる発音体412の位置ベクトルをr2(t)とする。
このように、注目点405、発音体411、発音体412が配置された場合、注目点405と発音体411の自乗距離は、
|r1(t)-s(t)|2 = (r1(t)-s(t))・(r1(t)-s(t))
ユークリッド距離は、
|r1(t)-s(t)|
と、それぞれ表現できる。
同様に、注目点405と発音体411の自乗距離は、
|r2(t)-s(t)|2 = (r2(t)-s(t))・(r2(t)-s(t))
と、ユークリッド距離は、
|r2(t)-s(t)|
と、それぞれ表現できる。ただし、u・vは、ベクトルuとベクトルvの内積を意味する。
また、マンハッタン距離は、ユークリッド座標系を採用した場合、ベクトルr1(t)-s(t)等のx,y,zのそれぞれの軸方向の要素の絶対値の総和として求めることができる。
さて、上記のように更新された後、距離計算部203は、当該仮想空間401内における所定の注目点405と当該発音体411、発音体412のそれぞれとの距離を計算する(ステップS306)。
「距離」として、自乗距離、ユークリッド距離、マンハッタン距離のいずれかを採用するものとすれば、注目点405と発音体411の距離d1、および、注目点405と発音体412の距離d2は、上記のようなベクトル計算によって求めることができる。したがって、CPU 101がRAM 103等と共働して、距離計算部203として機能する。これらの距離d1、d2もRAM 103内に一時的に記憶される。
ついで、変化率計算部204は、当該発音体411、発音体412のそれぞれが発する音声の音量が、それぞれ注目点405から距離d1、d2だけ離れることによって変化する変化率c1、c2を計算する(ステップS307)。
この変化率c1、c2を求める関数をf(・)とおくと、
c1 = f(d1);
c2 = f(d2)
と書くことができる。関数f(・)は、典型的には単調減少関数であり、近くであればあるほど(距離が小さければ小さいほど)大きく、遠くであればあるほど(距離が大きければ大きいほど)小さくなる。
たとえば、K,Jを正の定数として、以下のような関数を採用することができる。
(1)f(s) = K-J×s (0≦s≦K/J);
= 0 (K/J≦s)
(2)f(s) = K/s;
(3)f(s) = K/(s×s);
(4)f(s) = K×exp(-J×s)
上記のように、発音体411や発音体412とこれらが発する音を聞く注目点405の距離が離れれば離れるほど、聞こえる音の大きさは小さくなるため、この小さくなる度合を示す変化率を求めるものである。発音体の音声情報に基づく波動の振幅にこの変化率を単純に乗ずれば、通常の仮想空間401内における発音体が発する音のシミュレーションができることになる。
なお、本実施形態では、距離の計算と合わせて、注目点405から発音体411および発音体412を見込む角θもしくはcosθを、さらに計算する(ステップS308)。すなわち、
cosθ = (r1(t)-s(t))・(r2(t)-s(t))/(|r1(t)-s(t)|×|r2(t)-s(t)|);
θ = arccos((r1(t)-s(t))・(r2(t)-s(t))/(|r1(t)-s(t)|×|r2(t)-s(t)|))
によって、θもしくはcosθを計算する。注目点405に到達する発音体411起源の音声と発音体412起源の音声とが、どれぐらい異なる方向からやってくるか、を知ることができる。この計算では、上記の距離の計算と共通する値を使用するので、適宜共通する計算をまとめて行うのが効率的である。
ついで、CPU 101は、計算された角θが所定の角度φより小さいか否かを判定する(ステップS309)。所定の角度φとしては、ある程度大きい角度が望ましいが、たとえば90度(= π/2)とすると、θやcosθを直接計算しなくとも、内積(r1(t)-s(t))・(r2(t)-s(t))の正負によって判断ができるため、計算量を抑えることができて便利である。
角θが所定の角度より小さいか否かは、cosθが対応する所定の値より大きいか否か、によっても判断ができる。したがって、後者の判断を用いれば、計算コストが大きいarccos(・)の計算を行わないですむ。
さて、判断の結果、角θが所定の角度φより小さいと判断された場合(ステップS309;Yes)、増幅率計算部205は、当該2つの音量係数のうち大きい方p1に対応付けられる発音体411に対する変化率c1よりも大きい増幅率A1と、当該2つの音量係数のうち小さい方p2に対応付けられる発音体412に対する変化率c2よりも小さい増幅率A2と、を計算して、計算結果をRAM 103内の上記の領域に記憶して更新する(ステップS310)。
すなわち、p1 > p2であるときに、A1 > c1を満たすA1と、A2 < c2を満たすA2とを、それぞれ何らかの手法で計算するのである。
上記のように、単純に音声情報の振幅に変化率を乗じれば、仮想空間401内における発音体が発する音のシミュレーションを行うことができるのであるが、発音体411、発音体412が発する音の差異を極立たせ、コントラストを明確にするために、音量係数が大きい方は、求められた変化率よりもさらに大きな増幅率を採用し、音量係数が小さい方求められた変化率よりもさらに小さな増幅率を採用するのである。計算の手法は種々考えられるが、たとえば、以下のような手法が考えられる。
(1) p1とp2の比p1/p2 > 1とその逆数p2/p1 < 1を用いて
A1 = c1×(p1/p2) > c1;
A2 = c2×(p2/p1) < c2
とする。
(2) 上記(1)のほか、さらに所定の1以上の正整数Rを用いて
A1 = c1×(p1/p2)R > c1;
A2 = c2×(p2/p1)R < c2
とする。
(3)1より大きい正定数Pと1より小さい正定数Qを用いて、
A1 = c1×P > c1;
A2 = c2×Q < c2
とする。
前述したように、混合出力部206は、当該発音体411、発音体412のそれぞれに対応付けられる音声情報a1(t),a2(5)を計算された増幅率A1,A2で増幅して加算した音声を出力するので、発音体411、発音体412が発する音声の差異を、これらに割り当てられた音量係数p1,p2に基づいて、より極立たせてコントラストを明確にすることができ、ユーザは、発音体411、発音体412の特徴を、一層はっきりと把握することができるようになる。
A1,A2の計算とRAM 103への更新が終わったら、ステップS312に進む。
一方、角θが所定の角度φ以上であると判断された場合(ステップS309;No)、増幅率A1として変化率c1を、増幅率A2として変化率c2をそれぞれ採用するように、RAM 103内を更新して(ステップS311)、ステップS312に進む。これは、発音体411と発音体412が十分に離れており、両者のコントラストを明確にする必要がない場合に相当する。たとえば、ステレオ音声出力や5.1チャンネル音声出力で発音体の音が発生している方向を示すような場合には、注目点405から見た発音体411、発音体412が仮想空間401内で配置されている方向が離れている場合には、このような差異の明確化が不要な場合もある。
なお、cosθやθの計算ならびにθとφの比較を一切省略して、常にステップS310の処理が行われることとしても良い。
また、見込む角θを用いるのではなく、仮想空間401内における発音体411と発音体412の距離|r1(t)-r2(t)|が所定の閾値よりも小さいか否かによって判断することとしても良い。
なお、音声処理部110のハードウェアの態様によっては、ミキシング対象の音声情報a1(t),a2(t)を設定した上で、所望の時刻で変化させるべき増幅率A1,A2を直接指示することとしている場合もある。このような場合には、RAM 103に記憶して更新する処理にかえて、音声処理部110のハードウェアに増幅率A1,A2を指定する指示を出すこととすれば良い。
さて、このようにして、RAM 103内に記憶される増幅率A1,A2が更新された後は、これらの発音体411、発音体412を含む仮想空間401を注目点405から見た三次元グラフィックス画像を生成して(ステップS312)、垂直同期割り込みが生じるまで待機し(ステップS313)、垂直同期割り込みが生じたら生成されたグラフィックス画像をフレームメモリに転送して(ステップS314)、ステップS304に戻る。
このように、本実施形態によれば、2つの発音体が発する音声の差異を、これらに割り当てられた音量係数に基づいて、より極立たせてコントラストを明確にすることができ、本音声出力装置のユーザは、2つの発音体の特徴を、一層はっきりと把握することができるようになる。
以下で説明する実施形態は、3つ以上の発音体がある場合(で、かつ、すべてについてコントラストを明確化したい場合)に対応するものである。すなわち、発音体がn個あり、その音量係数がp1,p2,p3,…,pnであり、
p1 > p3 > … > pn > p2
という関係がある場合を考える。
まず、音量係数がp1,p2,p3,…,pnである発音体のそれぞれに対する変化率は、上記実施例と同様に求めることができ、
c1,c2,c3,…,cn
となるものとする。
次に、音量係数がp1,p2であるものの増幅率A1,A2は上記実施形態と同様に求める。
あとは、音量係数がp3,…,pnである発音体のそれぞれに対する増幅率A3,…,Anをどのように定めるか、ということとなる。
このような場合に、たとえば、音量係数がpi (3≦i≦n)である発音体について、以下のような種々の関係を満たすように、増幅率Ai (3≦i≦n)を定める、という手法がありうる。
(1)A1/c1 : Ai/ci = Ai/ci : A2/c2;すなわち、Ai = ci×(A1×A2/(c1×c2))1/2
(2)A1/c1 : Ai/ci = p1 : pi;すなわち、Ai = ci×pi×A1/(c1×p1)
(3)A2/c2 : Ai/ci = p2 : pi;すなわち、Ai = ci×pi×A2/(c2×p2)
(4)(A1/c1 - Ai/ci):(Ai/ci - A2/c2) = (p1 - pi):(pi - p2);すなわち、内分を行うのである。
このような手法を採用することにより、3つ以上の発音体がある場合にも、これらに割り当てられた音量係数に基づいて、より極立たせてコントラストを明確にすることができる。
以上説明したように、本発明によれば、2つの発音体の音声の差異を明確にして臨場感を高めるように出力するのに好適な音声出力装置、音声出力方法、ならびに、これらをコンピュータにて実現するプログラムを提供することができ、ゲーム装置において各種の競争ゲーム等を実現する場合のほか、教育目的等で各種の仮想体験を提供するバーチャルリアリティ技術に適用することができる。
本発明の実施形態の1つに係る音声出力装置が実現される典型的な情報処理装置の概要構成を示す説明図である。 本発明の実施形態の一つに係る音声出力装置の概要構成を示す模式図である。 当該音声出力装置にて実行される音声出力処理の制御の流れを示すフローチャートである。 仮想空間内に配置される注目点および2つの発音体の位置関係を示す説明図である。
符号の説明
100 情報処理装置
101 CPU
102 ROM
103 RAM
104 インターフェイス
105 コントローラ
106 外部メモリ
107 画像処理部
108 DVD−ROMドライブ
109 NIC
110 音声処理部
201 音声出力装置
202 記憶部
203 距離計算部
204 変化率計算部
205 増幅率計算部
206 混合出力部
401 仮想空間
405 注目点
411 発音体
412 発音体

Claims (10)

  1. 仮想空間内を移動する2つの発音体のそれぞれに対応付けられる音声情報および音量係数、当該仮想空間内における当該2つの発音体のそれぞれの位置、当該仮想空間内における所定の注目点の位置を記憶する記憶部、
    前記記憶された当該所定の注目点の位置と、前記記憶された当該2つの発音体の位置と、から、当該仮想空間内における当該所定の注目点と当該2つの発音体のそれぞれとの距離を自乗距離、ユークリッド距離、もしくは、マンハッタン距離により計算する距離計算部、
    当該2つの発音体のそれぞれに対して、当該発音体が発する音声の音量の変化率であって当該発音体との距離が大きくなれば大きくなるほど小さくなるように定められる変化率を、前記計算された当該発音体と当該所定の注目点との距離により計算する変化率計算部、
    前記記憶された当該2つの音量係数のうち大きい方p1と、当該2つの音量係数のうち小さい方p2と、当該音量係数p1に対応付けられる発音体に対して前記計算された変化率c1と、当該音量係数p2に対応付けられる発音体に対して前記計算された変化率c2と、から、当該音量係数p1に対応付けられる発音体に対する増幅率A1をc1より大きくし、当該音量係数p2に対応付けられる発音体に対する増幅率A2をc2より小さくして当該2つの発音体が発する音声情報のコントラストを明確にする所定の計算式により、当該増幅率A1と、当該増幅率A2と、を計算する増幅率計算部、
    当該2つの発音体のそれぞれに対応付けられる音声情報を前記当該発音体に対して計算された増幅率で増幅して加算した音声を出力する混合出力部
    を備えることを特徴とする音声出力装置。
  2. 請求項1に記載の音声出力装置であって、
    当該所定の計算式として、計算式(A)「1より大きい正定数Pと1より小さい正定数Qに対して、A1 = c1×P;A2 = c2×Q」を採用する
    ことを特徴とする音声出力装置。
  3. 請求項1に記載の音声出力装置であって、
    当該所定の計算式として、計算式(B)「A1 = c1×(p1/p2);A2 = c2×(p2/p1)」を採用する
    ことを特徴とする音声出力装置。
  4. 請求項1に記載の音声出力装置であって、
    当該所定の計算式として、計算式(C)「所定の1以上の正定数Rに対して、A1 = c1×(p1/p2)R;A2 = c2×(p2/p1)R」を採用する
    ことを特徴とする音声出力装置。
  5. 請求項1から4のいずれか1項に記載の音声出力装置であって、
    前記増幅率計算部が当該増幅率を計算するのは、所定の条件が満たされる場合であり、
    前記混合出力部は、当該所定の条件が満たされる場合、当該2つの発音体のそれぞれに対応付けられる音声情報を前記当該発音体に対して計算された増幅率で増幅して加算した音声を出力し、当該所定の条件が満たされない場合、当該2つの発音体のそれぞれに対応付けられる音声情報を当該発音体に対して計算された変化率で増幅して加算した音声を出力する
    ことを特徴とする音声出力装置。
  6. 請求項5に記載の音声出力装置であって、
    当該所定の条件として、条件(a)「当該2つの発音体を当該所定の注目点から見込む角が所定の角度より小さいこと」を採用する
    ことを特徴とする音声出力装置。
  7. 請求項5に記載の音声出力装置であって、
    当該所定の条件として、条件(b)「当該2つの発音体の距離が所定の閾値より小さいこと」を採用する
    ことを特徴とする音声出力装置。
  8. 請求項1から7のいずれか1項に記載の音声出力装置であって、
    前記混合出力部は、当該音声情報の加算に飽和加算を用いる
    ことを特徴とする音声出力装置。
  9. 記憶部、距離計算部、変化率計算部、増幅率計算部、混合出力部を備える音声出力装置にて実行される音声出力方法であって、前記記憶部には、仮想空間内を移動する2つの発音体のそれぞれに対応付けられる音声情報および音量係数、当該仮想空間内における当該2つの発音体のそれぞれの位置、当該仮想空間内における所定の注目点の位置が記憶され、
    前記距離計算部が、前記記憶された当該所定の注目点の位置と、前記記憶された当該2つの発音体の位置と、から、当該仮想空間内における当該所定の注目点と当該2つの発音体のそれぞれとの距離を自乗距離、ユークリッド距離、もしくは、マンハッタン距離により計算する距離計算工程、
    前記変化率計算部が、当該2つの発音体のそれぞれに対して、当該発音体が発する音声の音量の変化率であって当該発音体との距離が大きくなれば大きくなるほど小さくなるように定められる変化率を、前記計算された当該発音体と当該所定の注目点との距離により計算する変化率計算工程、
    前記記憶された当該2つの音量係数のうち大きい方p1と、当該2つの音量係数のうち小さい方p2と、当該音量係数p1に対応付けられる発音体に対して前記計算された変化率c1と、当該音量係数p2に対応付けられる発音体に対して前記計算された変化率c2と、から、当該音量係数p1に対応付けられる発音体に対する増幅率A1をc1より大きくし、当該音量係数p2に対応付けられる発音体に対する増幅率A2をc2より小さくして当該2つの発音体が発する音声情報のコントラストを明確にする所定の計算式により、当該増幅率A1と、当該増幅率A2と、を計算する増幅率計算工程、
    前記混合出力部が、当該2つの発音体のそれぞれに対応付けられる音声情報を当該発音体に対して計算された増幅率で増幅して加算した音声を出力する混合出力工程
    を備えることを特徴とする方法。
  10. コンピュータを、
    仮想空間内を移動する2つの発音体のそれぞれに対応付けられる音声情報および音量係数、当該仮想空間内における当該2つの発音体のそれぞれの位置、当該仮想空間内における所定の注目点の位置を記憶する記憶部、
    前記記憶された当該所定の注目点の位置と、前記記憶された当該2つの発音体の位置と、から、当該仮想空間内における当該所定の注目点と当該2つの発音体のそれぞれとの距離を自乗距離、ユークリッド距離、もしくは、マンハッタン距離により計算する距離計算部、
    当該2つの発音体のそれぞれに対して、当該発音体が発する音声の音量の変化率であって当該発音体との距離が大きくなれば大きくなるほど小さくなるように定められる変化率を、前記計算された当該発音体と当該所定の注目点との距離により計算する変化率計算部、
    前記記憶された当該2つの音量係数のうち大きい方p1と、当該2つの音量係数のうち小さい方p2と、当該音量係数p1に対応付けられる発音体に対して前記計算された変化率c1と、当該音量係数p2に対応付けられる発音体に対して前記計算された変化率c2と、から、当該音量係数p1に対応付けられる発音体に対する増幅率A1をc1より大きくし、当該音量係数p2に対応付けられる発音体に対する増幅率A2をc2より小さくして当該2つの発音体が発する音声情報のコントラストを明確にする所定の計算式により、当該増幅率A1と、当該増幅率A2と、を計算する増幅率計算部、
    当該2つの発音体のそれぞれに対応付けられる音声情報を前記当該発音体に対して計算された増幅率で増幅して加算した音声を出力する混合出力部
    として機能させることを特徴とするプログラム。
JP2005060312A 2005-03-04 2005-03-04 音声出力装置、音声出力方法、ならびに、プログラム Expired - Fee Related JP3863165B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2005060312A JP3863165B2 (ja) 2005-03-04 2005-03-04 音声出力装置、音声出力方法、ならびに、プログラム
EP06714876A EP1854516A4 (en) 2005-03-04 2006-02-28 VOICE OUTPUT DEVICE, VOICE OUTPUT PROCEDURE, INFORMATION RECORDING MEDIUM AND PROGRAM
KR1020077019284A KR100903500B1 (ko) 2005-03-04 2006-02-28 음성출력장치, 음성출력방법 및 프로그램을 기록한 컴퓨터 판독 가능한 정보기록매체
US11/817,131 US20090023498A1 (en) 2005-03-04 2006-02-28 Voice output device, voice output method, information recording medium and program
CN2006800070243A CN101132838B (zh) 2005-03-04 2006-02-28 声音输出装置及其声音输出方法
PCT/JP2006/303746 WO2006093145A1 (ja) 2005-03-04 2006-02-28 音声出力装置、音声出力方法、情報記録媒体、ならびに、プログラム
TW095107145A TWI305705B (en) 2005-03-04 2006-03-03 Sound emission apparatus, sound emission method and information recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005060312A JP3863165B2 (ja) 2005-03-04 2005-03-04 音声出力装置、音声出力方法、ならびに、プログラム

Publications (2)

Publication Number Publication Date
JP2006239211A JP2006239211A (ja) 2006-09-14
JP3863165B2 true JP3863165B2 (ja) 2006-12-27

Family

ID=36941174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005060312A Expired - Fee Related JP3863165B2 (ja) 2005-03-04 2005-03-04 音声出力装置、音声出力方法、ならびに、プログラム

Country Status (7)

Country Link
US (1) US20090023498A1 (ja)
EP (1) EP1854516A4 (ja)
JP (1) JP3863165B2 (ja)
KR (1) KR100903500B1 (ja)
CN (1) CN101132838B (ja)
TW (1) TWI305705B (ja)
WO (1) WO2006093145A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK1607840T3 (da) 2004-06-18 2015-02-16 Tobii Technology Ab Øjenstyring af et computerapparat
JP4074879B1 (ja) 2006-10-18 2008-04-16 株式会社コナミデジタルエンタテインメント ゲーム装置、メッセージ表示方法、および、プログラム
JP4561766B2 (ja) * 2007-04-06 2010-10-13 株式会社デンソー 音データ検索支援装置、音データ再生装置、プログラム
KR20110002005A (ko) * 2008-01-17 2011-01-06 비복스 인크. 아바타별 렌더링 환경을 이용하는 가상 현실 시스템에서 실시간 아바타별 스트리밍 데이터를 제공하기 위한 확장가능한 기술들
TWI563850B (en) * 2012-09-07 2016-12-21 Hon Hai Prec Ind Co Ltd Spot detection system and method
US11714487B2 (en) 2013-03-04 2023-08-01 Tobii Ab Gaze and smooth pursuit based continuous foveal adjustment
US10895908B2 (en) 2013-03-04 2021-01-19 Tobii Ab Targeting saccade landing prediction using visual history
US9898081B2 (en) 2013-03-04 2018-02-20 Tobii Ab Gaze and saccade based graphical manipulation
US9143880B2 (en) 2013-08-23 2015-09-22 Tobii Ab Systems and methods for providing audio to a user based on gaze input
EP3036620B1 (en) * 2013-08-23 2017-03-29 Tobii AB Systems and methods for providing audio to a user based on gaze input
CN104715753B (zh) * 2013-12-12 2018-08-31 联想(北京)有限公司 一种数据处理的方法及电子设备
US9952883B2 (en) 2014-08-05 2018-04-24 Tobii Ab Dynamic determination of hardware
US10511807B2 (en) * 2015-12-11 2019-12-17 Sony Corporation Information processing apparatus, information processing method, and program

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2684833B2 (ja) * 1990-09-11 1997-12-03 ヤマハ株式会社 楽音信号発生装置
US5633993A (en) * 1993-02-10 1997-05-27 The Walt Disney Company Method and apparatus for providing a virtual world sound system
JP3377272B2 (ja) * 1993-12-22 2003-02-17 株式会社ナムコ マルチプレーヤ型ゲーム装置
JPH1073525A (ja) * 1996-08-30 1998-03-17 Shimadzu Corp 比重測定装置
DE69841857D1 (de) * 1998-05-27 2010-10-07 Sony France Sa Musik-Raumklangeffekt-System und -Verfahren
JP2000267675A (ja) * 1999-03-16 2000-09-29 Sega Enterp Ltd 音響信号処理装置
JP4226238B2 (ja) * 2001-09-18 2009-02-18 日本放送協会 音場再現装置
JP3455739B2 (ja) * 2001-12-26 2003-10-14 コナミ株式会社 ゲーム装置、及びプログラム
JP2004267433A (ja) 2003-03-07 2004-09-30 Namco Ltd 音声チャット機能を提供する情報処理装置、サーバおよびプログラム並びに記録媒体
JP3740518B2 (ja) * 2003-07-31 2006-02-01 コナミ株式会社 ゲーム装置、コンピュータの制御方法及びプログラム
GB2414369B (en) * 2004-05-21 2007-08-01 Hewlett Packard Development Co Processing audio data
US7928311B2 (en) * 2004-12-01 2011-04-19 Creative Technology Ltd System and method for forming and rendering 3D MIDI messages

Also Published As

Publication number Publication date
KR20070104625A (ko) 2007-10-26
JP2006239211A (ja) 2006-09-14
WO2006093145A1 (ja) 2006-09-08
TW200701824A (en) 2007-01-01
EP1854516A1 (en) 2007-11-14
EP1854516A4 (en) 2008-05-21
CN101132838A (zh) 2008-02-27
KR100903500B1 (ko) 2009-06-18
TWI305705B (en) 2009-01-21
US20090023498A1 (en) 2009-01-22
CN101132838B (zh) 2010-09-08

Similar Documents

Publication Publication Date Title
JP3949701B1 (ja) 音声処理装置、音声処理方法、ならびに、プログラム
JP3977405B1 (ja) ゲーム音出力装置、ゲーム音制御方法、および、プログラム
JP3863165B2 (ja) 音声出力装置、音声出力方法、ならびに、プログラム
CN101405770B (zh) 图像生成装置、图像生成方法、信息记录媒体及程序
JP3827693B2 (ja) ゲーム装置、ゲーム装置制御方法、ならびに、プログラム
JP5305765B2 (ja) プログラム及びゲームシステム
JP4019095B2 (ja) 音声処理装置、音声処理方法、ならびに、プログラム
JP2012050791A (ja) キャラクター表示装置、キャラクター表示方法、ならびに、プログラム
JP4468963B2 (ja) 音声画像処理装置、音声画像処理方法、ならびに、プログラム
JP2008035320A (ja) 音声シミュレーション装置、音声シミュレーション方法、ならびに、プログラム
JP4437993B2 (ja) 音声処理装置、音声処理方法、ならびに、プログラム
JP4880298B2 (ja) プログラム、情報記憶媒体、及びデータ再生システム
JP2004294844A (ja) 効果音出力装置、効果音生成方法、ならびに、プログラム
JP2011024648A (ja) ゲーム装置、ゲーム制御方法、ならびに、プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060704

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060927

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091006

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091006

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111006

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131006

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees