[go: up one dir, main page]

JP7666041B2 - 音場支援方法および音場支援装置 - Google Patents

音場支援方法および音場支援装置 Download PDF

Info

Publication number
JP7666041B2
JP7666041B2 JP2021045543A JP2021045543A JP7666041B2 JP 7666041 B2 JP7666041 B2 JP 7666041B2 JP 2021045543 A JP2021045543 A JP 2021045543A JP 2021045543 A JP2021045543 A JP 2021045543A JP 7666041 B2 JP7666041 B2 JP 7666041B2
Authority
JP
Japan
Prior art keywords
sound
information
sound field
localization
simulated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021045543A
Other languages
English (en)
Other versions
JP2022144499A (ja
Inventor
隆行 渡辺
悌 橋本
広臣 四童子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2021045543A priority Critical patent/JP7666041B2/ja
Priority to CN202210247023.7A priority patent/CN115119133B/zh
Priority to US17/695,907 priority patent/US11917393B2/en
Priority to EP22162878.7A priority patent/EP4061017A3/en
Publication of JP2022144499A publication Critical patent/JP2022144499A/ja
Priority to JP2025063577A priority patent/JP2025096443A/ja
Application granted granted Critical
Publication of JP7666041B2 publication Critical patent/JP7666041B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • H04S7/306For headphones

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Stereophonic System (AREA)

Description

この発明の一実施形態は、仮想空間に設定した音源による音場と、スピーカが配置される対象空間で模擬するための処理を行う音場支援方法および音場支援装置に関する。
仮想空間に設定した音源の音を実空間で模擬する技術が各種考案されている。
例えば、特許文献1に示すようなシミュレーションシステムは、視聴者の位置の変化に伴って、仮想空間上での視聴者との相対的位置関係を保って追従するように複数の仮想スピーカの位置を設定する。さらに、特許文献1に示すシミュレーションシステムは、複数の仮想スピーカの音量バランスを設定する。
特許文献1に示すシミュレーションシステムは、これらの設定に基づいて、複数の仮想スピーカを用いた音処理を実行する。
特開2017-184174号公報
しかしながら、仮想音源(特許文献1の仮想スピーカ)を用いて設定された音を対象空間で放音する場合、この音は、対象空間に配置され、仮想音源が割り当てられたスピーカによって放音される。すなわち、対象空間で放音される音は、仮想音源の音をスピーカの音で模擬したものである。
そして、従来、仮想音源からの音と、対象空間でスピーカによって模擬的に再生される音(模擬再生音)とは、比較できなかった。そのため、視聴者は、模擬再生音によって仮想音源からの音をどの程度模擬できているかを確認できず、調整を容易に行えなかった。
そこで、この発明の一実施形態は、仮想音源の音と模擬再生音とを比較可能にすることを目的とする。
音場支援方法は、仮想空間上で設定される音源の位置情報と、対象空間に設定されるスピーカからの出力音で音源の音を模擬するときの音源の定位情報と、のいずれか一方を選択し、選択された位置情報および定位情報に基づく音を用いて、スピーカによる音源の音像定位を調整する。
音場支援方法は、仮想音源の音と模擬再生音とを視聴者が比較できる。
本発明の第1の実施形態に係る音場支援装置を含む音場支援システムの構成を示す機能ブロック図である。 本発明の第1の実施形態に係る音場支援方法における音源、視聴点、複数スピーカの位置関係の一例を示す図であり、音源の位置座標、視聴点の位置座標、複数のスピーカの位置座標を示す図である。 音源から放音するイメージを示す図であり、音源をスピーカにレンダリングして放音するイメージを示す図である。 本発明の第1の実施形態に係る音場支援方法の第1方法を示すフローチャートである。 本発明の第1の実施形態に係る音場支援方法の第2方法を示すフローチャートである。 パラメータ調整用のGUIの一例を示す図である。 本発明の第2の実施形態に係る音場支援装置を含む音場支援システムの構成を示す機能ブロック図である。 本発明の第2の実施形態に係る音場支援方法における音源、視聴点、複数スピーカ、仮想空間の位置関係の一例を示す図である。 音の広がりおよび定位感の調整用のGUIの一例を示す図である。 本発明の第2の実施形態に係る音場支援方法を示すフローチャートである。 本発明の第3の実施形態に係る音場支援装置を含む音場支援システムの構成を示す機能ブロック図である。 本発明の第3の実施形態に係る音場支援方法を示すフローチャートである。
本発明の実施形態に係る音場支援方法および音場支援装置について、図を参照して説明する。
本実施形態において、対象空間は、視聴者がスピーカ等を用いて、仮想空間に設定した音源の音を実際に聞く空間である。なお、より詳細には、本実施形態の音場支援方法においては、対象空間は、スピーカが実際に配置される空間を意味するのではなく、スピーカを配置して、視聴者がこのスピーカからの音を聞く予定の空間を意味する。仮想空間は、対象空間で模擬したい音源が設定される空間である。
[第1の実施形態]
図1は、本発明の第1の実施形態に係る音場支援装置を含む音場支援システムの構成を示す機能ブロック図である。図2(A)は、本発明の第1の実施形態に係る音場支援方法における音源、視聴点、複数スピーカの位置関係の一例を示す図であり、図2(B)は、図2(A)の場合における音源の位置座標、視聴点の位置座標、複数のスピーカの位置座標を示す図である。図3(A)は、音源から放音するイメージを示す図であり、図3(B)は、音源をスピーカにレンダリングして放音するイメージを示す図である。
図2(A)に示すように、対象空間90には、視聴者が視聴する視聴点900、複数のスピーカSP1-SP5が配置される。この対象空間90には、仮想空間が設定されている。仮想空間には、音源OBJが設定される。
なお、本実施形態の説明では、音源は1個であるが、音源は複数個であってもよい。音源が複数個の場合、以下に示す音場支援方法は、複数の音源毎に適用してもよい。または、以下に示す音場支援方法は、複数の音源をまとめて適用してもよい。なお、本実施形態では、音源1個の場合を説明する。また、本実施形態の説明では、スピーカの台数は5台であるが、スピーカの台数はこれに限るものではない。
対象空間90の座標系と仮想空間の座標系とは、例えば、直交三軸の方向、中心点が一致するように設定されている。この場合、対象空間90での座標系による位置座標と、仮想空間の座標系による位置座標とは一致する。なお、対象空間90の座標系と仮想空間の座標系とが一致しなくても、この場合は、対象空間90と仮想空間との間の座標変換行列が設定されていればよい。
図1に示すように、音場支援システムは、音場支援装置10、および、ヘッドフォン80を備える。音場支援装置10は、視聴点設定部21、音源位置設定部22、スピーカ位置設定部23、調整操作部29、模擬再生音信号生成部30、選択部40、および、バイノーラル処理部50を備える。音場支援装置10は、上述の各機能部を実行するプログラムと、このプログラムを記憶する記憶媒体と、このプログラムを実行するCPU等の演算処理装置とによって実現される。
視聴点設定部21は、対象空間90における視聴点900の位置座標Prを設定する。視聴点設定部21は、視聴点900の位置座標Prを、模擬再生音信号生成部30およびバイノーラル処理部50に出力する。
音源位置設定部22は、仮想空間における音源OBJの位置座標Pobj(より具体的には、仮想空間における音源を対象空間90に射影した位置座標)を設定する。音源位置設定部22は、音源OBJの位置座標Pobjを、模擬再生音信号生成部30およびバイノーラル処理部50に出力する。
スピーカ位置設定部23は、対象空間90における複数のスピーカSP1-SP5の位置座標Psp1-Psp5を設定する。スピーカ位置設定部23は、複数のスピーカSP1-P5の位置座標Psp1-Psp5を、模擬再生音信号生成部30およびバイノーラル処理部50に出力する。
調整操作部29は、調整用のパラメータの操作入力を受け付ける。調整操作部29は、調整用のパラメータを模擬再生音信号生成部30に出力する。
模擬再生音信号生成部30は、オブジェクト再生音信号から、対象空間90のスピーカSP1-SP5に出力するための模擬再生音信号を生成する。
ここで、オブジェクト再生音信号とは、音源OBJから出力される音信号である。模擬再生音信号とは、音源OBJをレンダリングしたスピーカによって音源OBJの音像定位を行うための音信号である。
より具体的には、模擬再生音信号生成部30は、視聴点900の位置座標Prを基準点として、音源OBJの位置座標Pobjと複数のスピーカSP1-SP5の位置座標Psp1-Psp5との位置関係を算出する。模擬再生音信号生成部30は、この位置関係を用いて、音源OBJの音像定位情報を設定する。音像定位情報とは、複数のスピーカSP1-SP5が出力する音によって視聴点900において音源OBJで放音しているように設定する情報であり、複数のスピーカSP1-SP5からの出力音の音量、出力タイミングを決定する情報である。
模擬再生音信号生成部30は、音源OBJの音像定位情報を用いて、音源OBJをレンダリングする複数のスピーカを設定する(図3(B)参照)。模擬再生音信号生成部30は、音源OBJがレンダリングされた複数のスピーカで再生する模擬再生音信号を生成する。模擬再生音信号生成部30は、模擬再生音信号を選択部40に出力する。
選択部40は、視聴者等からの操作入力を受け、オブジェクト再生音信号と、模擬再生音信号とを選択する。より具体的に、仮想空間上に設定された音源OBJから直接出力された音を聞く設定(図3(A)の状態)が選択されると、選択部40は、オブジェクト再生音信号を選択して出力する。一方、レンダリングされた複数のスピーカからの音を聞く設定(図3(B)の状態)が選択されると、選択部40は、模擬再生音信号を選択して出力する。言い換えれば、音源OBJの位置情報が選択されれば、オブジェクト再生音信号を選択して出力し、スピーカを用いた音源OBJの定位情報が選択されれば、模擬再生音信号を選択して出力する。
選択部40は、選択した音信号をバイノーラル処理部50に出力する。
バイノーラル処理部50は、選択部40で選択された音信号にバイノーラル処理を施す。なお、バイノーラル処理は頭部伝達関数を用いるものであり、詳細な内容は既知であり、バイノーラル処理の詳細な説明は、省略する。
より具体的には、選択部40がオブジェクト再生音信号を選択した場合、バイノーラル処理部50は、音源OBJの位置座標Pobjと視聴点900の位置座標Prとを用いて、音源OBJの音信号にバイノーラル処理を施す。選択部40が模擬再生音信号を選択した場合、バイノーラル処理部50は、音源OBJがレンダリングされたスピーカSPの位置座標Pspと視聴点900の位置座標Prとを用いて、模擬再生音信号にバイノーラル処理を施す。
例えば、図2(A)、図2(B)、図3(A)、図3(B)の場合であれば、選択部40がオブジェクト再生音信号を選択した場合、バイノーラル処理部50は、音源OBJの位置座標Pobjと視聴点900の位置座標Prとを用いて、オブジェクト再生音信号にバイノーラル処理を施す。選択部40が模擬再生音信号を選択した場合、バイノーラル処理部50は、音源OBJがレンダリングされたスピーカSP1、SP5の位置座標Psp1、Psp5と視聴点900の位置座標Prとを用いて、模擬再生音信号にバイノーラル処理を施す。
バイノーラル処理部50は、バイノーラル処理を施した音信号(バイノーラル信号)を、ヘッドフォン80に出力する。
ヘッドフォン80は、バイノーラル信号による音信号を再生して放音する。なお、本実施形態では、ヘッドフォン80を用いて放音する態様を示したが、2チャンネルのステレオスピーカを用いて放音することもできる。
このような構成によって、オブジェクト再生音信号が選択された場合、視聴者は、ヘッドフォン80を通じて、音源OBJの位置に音源が定位した音(オブジェクト再生音)を聞くことができる。一方、模擬再生音信号が選択された場合、視聴者は、ヘッドフォンを通じて、音源OBJにレンダリングしたスピーカによって音源OBJの位置に音源を模擬的に定位させた音(模擬再生音)を聞くことができる。
これにより、視聴者は、実際に実空間にスピーカを配置しなくても、オブジェクト再生音と模擬再生音とを比較して聞くことができる。したがって、視聴者は、オブジェクト再生音と模擬再生音との相違を直接体感でき、模擬再生音がオブジェクト再生音を精度良く再現(模擬)できているか、オブジェクト再生音と模擬再生音との間で違和感がないかを判断できる。
また、視聴者は、このような体感結果を参照することで、模擬再生音信号の調整用のパラメータを調整できる。そして、このようなパラメータの調整を繰り返すことによって、視聴者は、模擬再生音によってオブジェクト再生音を精度良く再現できる。
なお、ここでは、音源OBJの音を精度良く再現するために、模擬再生音信号を調整する態様を示した。しかしながら、例えば、対象空間90のスピーカの位置の変更、パラメータの設定の変更が難しい場合で、音源OBJの位置設定を変更できる場合には、上述のバイノーラル処理された音を聞いて、視聴者が音源OBJの設定を変更し、所望の音場を実現することが可能である。
(第1実施形態の音場支援方法1)
図4は、本発明の第1の実施形態に係る音場支援方法の第1方法を示すフローチャートである。図4に示す音場支援方法は、バイノーラル処理が施された音信号を出力するまでを実行するものである。なお、図4に示す各処理における詳細な説明は上述しているので、以下での詳細な説明は省略する。また、以下では、図2(A)、図2(B)、図3(A)、図3(B)に示す配置態様の場合を例に説明する。
音源位置設定部22は、仮想空間における音源OBJの位置を設定する(S11)。スピーカ位置設定部23は、対象空間におけるスピーカSP1-SP5の位置を設定する(S12)。
模擬再生音信号生成部30は、音源OBJの位置座標Pobj、スピーカSP1-SP5の位置座標Psp1-Psp5、視聴点900の位置座標Prを用いて、音源OBJをスピーカSP1、SP5にレンダリングする(S13)。模擬再生音信号生成部30は、レンダリング結果を用いて模擬再生音信号を生成する(S14)。
選択部40は、視聴者等からの操作によって、オブジェクト再生音信号と模擬再生音信号とを選択する(S15)。例えば、音場支援装置10は、GUI(Graphical User Interface)等を備える。GUIは、再生対象の音信号を選択する操作子を備える。視聴者がオブジェクト再生音信号の出力を選択すれば、選択部40は、オブジェクト再生音信号を選択する(S150:YES)。視聴者が模擬再生音信号の出力を選択すれば、選択部40は、模擬再生音信号を選択する(S150:NO)。なお、オブジェクト再生音信号と模擬再生音信号との選択は、切り替え時間を設定し、この時間に応じて、自動で切り替えるようにすることも可能である。
バイノーラル処理部50は、選択した音信号にバイノーラル処理を施し、バイノーラル信号を生成する。より具体的には、オブジェクト再生音信号が選択されていれば、バイノーラル処理部50は、オブジェクト再生音信号にバイノーラル処理を施し、オブジェクト再生音信号のバイノーラル信号を生成する(S161)。模擬再生音信号が選択されていれば、バイノーラル処理部50は、模擬再生音信号にバイノーラル処理を施し、模擬再生音信号のバイノーラル信号を生成する(S162)。
ヘッドフォン80は、バイノーラル信号を再生する(S17)。より具体的には、ヘッドフォン80は、オブジェクト再生音信号のバイノーラル信号が入力されれば、このバイノーラル信号を再生する。ヘッドフォン80は、模擬再生音信号のバイノーラル信号が入力されれば、このバイノーラル信号を再生する。
このような処理を行うことによって、音場支援方法は、オブジェクト再生音と模擬再生音とを選択的に、視聴者等に提供できる。
(第1実施形態の音場支援方法2)
図5は、本発明の第1の実施形態に係る音場支援方法の第2方法を示すフローチャートである。図5に示す音場支援方法は、図4に示す音場支援方法に、パラメータ調整を加えたものである。なお、図5に示す処理における図4に示す処理と同じ処理の説明は省略する。また、以下では、図2(A)、図2(B)、図3(A)、図3(B)に示す配置態様の場合を例に説明する。
図5に示す音場支援方法は、図4に示す音場支援方法に対して、ステップS17までは同じ処理を実行する。
視聴者は、ステップS15からステップS17の処理を実行して再生する音信号を切り替える。これにより、視聴者は、オブジェクト再生音信号のバイノーラル信号の音と、模擬再生音信号のバイノーラル信号の音とを聞き、これらの音を比較する。
パラメータ調整が不要であれば(S23:NO)、すなわち、模擬再生音信号のバイノーラル信号による音がオブジェクト再生音信号のバイノーラル信号による音を精度良く再現できていれば、処理は終了する。パラメータ調整が必要であれば(S23:YES)、視聴者は、調整操作部29を用いてパラメータ調整を行う(S24)。模擬再生音信号生成部30は、この調整されたパラメータを用いて模擬再生音信号を生成する(S14)。
なお、調整されるパラメータは、例えば、音源OBJとスピーカとのレンダリングの設定、模擬再生音信号の音量レベル、周波数特性等である。図6は、パラメータ調整用のGUIの一例を示す図である。図6に示すように、GUI100は、位置関係確認ウィンドウ111、波形確認ウィンドウ112、複数の操作子113を備える。複数の操作子113は、それぞれに、ノブ1131と調整値表示ウィンドウ1132とを備える。
位置関係確認ウィンドウ111は、音源OBJ1-OBJ3と複数のスピーカSP1-SP5とを、それぞれに設定された位置座標で表示する。音源OBJに割り当てるスピーカSPの設定は、例えば、位置関係確認ウィンドウ111において、レンダリングする音源OBJとスピーカSPとを選択することによって実現できる。
波形確認ウィンドウ112は、模擬再生音信号の波形を表示する。表示する模擬再生音信号の選択は、例えば、位置関係確認ウィンドウ111に表示された複数のスピーカSP1-SP5を選択することによって切り替えられる。
複数の操作子113は、例えば、模擬再生音信号のQ、フィルタ処理の設定、ゲイン値の設定等を、複数の周波数帯域(Hi、Mid、Low)毎に受け付ける操作子である。ノブ1131は、視聴者からの操作を受け付け、調整値表示ウィンドウ1132は、ノブ1131によって設定された数値を表示する。複数の操作子113による操作入力によって、模擬再生音信号のパラメータは調整される。そして、この調整されたパラメータによる波形が、波形確認ウィンドウ112に表示される。
視聴者は、このGUI100を見ながら操作することによって、パラメータを調整および設定できる。
以降、視聴者は、オブジェクト再生音信号のバイノーラル信号による音と模擬再生音信号のバイノーラル信号による音とを聞き比べながらパラメータ調整を行う。これにより、視聴者は、模擬再生音信号のバイノーラル信号による音がオブジェクト再生音信号のバイノーラル信号による音を精度良く再現する、すなわち、スピーカによる模擬再生音が音源OBJのオブジェクト再生音を精度良く模擬できるように調整できる。なお、オブジェクト再生音と模擬再生音とを出力して比較する手段、および、調整操作部29によって、本発明の「調整部」は実現される。
なお、本実施形態の音場支援装置10および音場支援方法は、バイノーラル再生によるオブジェクト再生音と模擬再生音の比較を行う態様を示した。しかしながら、本実施形態の音場支援装置10および音場支援方法は、例えば、オブジェクト再生音信号の波形や周波数スペクトル、HOA(高次アンビソニックス)と、模擬再生音信号の波形や周波数スペクトル、HOA(高次アンビソニックス)を比較して、パラメータ調整を行うことも可能である。
[第2の実施形態]
本発明の第2の実施形態に係る音場支援装置および音場支援方法について、図を参照して説明する。
図7は、本発明の第2の実施形態に係る音場支援装置を含む音場支援システムの構成を示す機能ブロック図である。図8は、本発明の第2の実施形態に係る音場支援方法における音源、視聴点、複数スピーカ、仮想空間の位置関係の一例を示す図である。
図7に示すように、第2の実施形態に係る音場支援装置10Aは、第1の実施形態に係る音場支援装置10に対して、リバーブ処理部60を追加した点で異なる。音場支援装置10Aの他の構成は、音場支援装置10と同様であり、同様の箇所の説明は省略する。
音場支援装置10Aは、リバーブ処理部60を備える。リバーブ処理部60には、オブジェクト再生音信号および模擬再生音信号が入力される。
リバーブ処理部60は、仮想空間99の情報を用いて初期反射音信号および残響音信号を生成する。初期反射音信号とは、音源OBJの音が仮想空間の壁で反射(一次反射)して視聴点に届く音を模擬する音信号である。初期反射音信号は、仮想空間の幾何学形状、仮想空間における音源OBJの位置、視聴点の位置において決定される。残響音信号は、仮想空間を多重反射して視聴点に届く音を模擬する音信号である。残響音信号は、仮想空間の幾何学形状、仮想空間における視聴点の位置において決定される。
より具体的には、リバーブ処理部60は、音源OBJの位置情報と仮想空間99の情報と視聴点の位置情報とを用いて、オブジェクト再生音信号に対する初期反射音信号および残響音信号を生成する。リバーブ処理部60は、この生成した初期反射音信号および残響音信号をオブジェクト再生音信号に付加して、選択部40に出力する。
また、リバーブ処理部60は、音源OBJの位置情報、スピーカSP1-スピーカSP5の位置情報、仮想空間99の情報、および、視聴点の位置情報を用いて、模擬再生音信号に対する初期反射音信号および残響音信号を生成する。具体的な一例として、リバーブ処理部60は、音源OBJおよび視聴点の位置情報と仮想空間99の情報とから、この音源OBJに対する初期反射音の発生位置を模擬的に表す仮想音源を設定する。リバーブ処理部60は、この仮想音源と、この仮想音源が割り当てられるスピーカSPとの位置関係から、初期反射音信号を生成する。リバーブ処理部60は、仮想空間の幾何学形状、仮想空間における視聴点の位置を用いて、残響音信号を生成する。リバーブ処理部60は、このように生成した初期反射音信号および残響音信号を模擬再生音信号に付加して、選択部40に出力する。
このような構成によって、音場支援装置10Aは、オブジェクト再生音(音源OBJからの音)および模擬再生音(スピーカで模擬した音)に、それぞれのリバーブ成分(初期反射音および残響音)を付加して、出力できる。これにより、視聴者は、リバーブ成分も考慮して、模擬再生音によるオブジェクト再生音の再現の精度を判断できる。
さらに、リバーブ処理部60は、模擬再生音信号の初期反射音信号および残響音信号に対して広がりおよび定位感を与えることもできる。この場合、視聴者は、例えば、図9に示すようなGUIを用いて調整を行うことができる。図9は、音の広がりおよび定位感の調整用のGUIの一例を示す図である。図9に示すように、GUI100Aは、設定表示ウィンドウ111A、出力状態表示ウィンドウ115、複数の操作子116を備える。複数の操作子116は、ノブ1161、調整値表示ウィンドウ1162を備える。
設定表示ウィンドウ111Aは、音源OBJに対して設定された仮想音源SS、複数のスピーカSP、仮想空間99、視聴点RPを、それぞれに設定された位置座標で表示する。
複数の操作子116は、ウェイト値を設定するウェイトボリューム、シェイプ値を設定するシェイプボリューム等を設定する操作子である。ウェイトボリューム用の操作子116は、左右のウェイト、前後のウェイト、上下のウェイトを設定する操作子116をそれぞれに備え、それぞれに、ゲイン値の設定用の操作子と、遅延量の設定用の操作子とを備える。シェイプボリューム用の操作子116は、広がりを設定する操作子を備え、ゲイン値の設定用の操作子と、遅延量の設定用の操作子とを備える。視聴者は、複数の操作子116を操作することで、音の広がりおよび定位感の調整できる。
出力状態表示ウィンドウ115は、複数の操作子116によって設定されたウェイト値およびシェイプ値によって実現される音の広がりおよび定位感を、グラフィカルに模式的に表示する。これにより、ユーザは、複数の操作子116によって設定した音の広がりおよび定位感を画像として容易に認識できる。なお、出力状態表示ウィンドウ115は、バイノーラル処理された音をヘッドフォン80で聞く場合に、頭部を表す画像と、この頭部の画像に合わせて音の広がりおよび定位感を表現する画像とを組み合わせて表示することもできる。
これにより、視聴者は、音の広がりおよび定位感も考慮して、模擬再生音によるオブジェクト再生音の再現の精度を判断できる。
なお、例えば、設定表示ウィンドウ111Aを操作することによって、視聴者は、仮想空間99の形状、再生空間に対する位置、音源OBJの位置、複数のスピーカSPの位置を調整することも可能である。この場合、音場支援装置は、調整された各種の内容に応じて、オブジェクト再生音信号および模擬再生音信号を生成し、同様のリバーブ処理を施す。これにより、視聴者は、この調整後についても、模擬再生音によるオブジェクト再生音の再現の精度を判断できる。
(第2実施形態の音場支援方法)
図10は、本発明の第2の実施形態に係る音場支援方法を示すフローチャートである。図10に示す音場支援方法は、図4に示す音場支援方法に、リバーブ成分の付加処理を加えたものである。なお、図10に示す各処理における図4に示す処理と同じ処理の説明は省略する。
図10に示す音場支援方法は、図4に示す音場支援方法に対して、ステップS14までは同じ処理を実行する。
リバーブ処理部60は、オブジェクト再生音信号および模擬再生音信号に対するリバーブ成分(初期反射音信号および残響音信号)を生成し、オブジェクト再生音信号および模擬再生音信号に付加する(S31)。
音場支援装置10Aは、リバーブ成分が付加した音信号およびリバーブ成分が付加した模擬再生音信号を用いて、ステップS15以降の処理を実行する。
これにより、第2の実施形態の音場支援方法は、オブジェクト再生音(音源OBJからの音)および模擬再生音(スピーカで模擬した音)に、それぞれのリバーブ成分(初期反射音および残響音)を付加して、出力できる。これにより、視聴者は、リバーブ成分も考慮して、模擬再生音によるオブジェクト再生音の再現の精度を判断できる。
[第3の実施形態]
本発明の第3の実施形態に係る音場支援装置および音場支援方法について、図を参照して説明する。図11は、本発明の第3の実施形態に係る音場支援装置を含む音場支援システムの構成を示す機能ブロック図である。
図11に示すように、第3の実施形態に係る音場支援装置10Bは、第1の実施形態に係る音場支援装置10に対して、姿勢検出部70を追加した点で異なる。音場支援装置10Bの他の構成は、音場支援装置10と同様であり、同様の箇所の説明は省略する。
姿勢検出部70は、視聴者の頭部に装着され、視聴者の頭部の姿勢を検出する。例えば、姿勢検出部70は、直交三軸の姿勢検出センサであり、ヘッドフォン80に装着されている。姿勢検出部70は、検出した視聴者の頭部の姿勢を、バイノーラル処理部50に出力する。
バイノーラル処理部50は、視聴者の頭部の姿勢検出結果、すなわち、視聴者の顔の向きを用いて、オブジェクト再生音信号および模擬再生音信号にバイノーラル処理を施す。
これにより、音場支援装置10Bは、視聴者の顔の向きに応じたオブジェクト再生音および模擬再生音を体感できる。したがって、視聴者は、対象空間内で顔の向きを変えながら、その顔の向きに応じたオブジェクト再生音と模擬再生音とを比較して聞くことができる。このため、視聴者は、対象空間内において複数の向きで、オブジェクト再生音と模擬再生音との相違を直接体感でき、模擬再生音がオブジェクト再生音を精度良く再現(模擬)できているか、オブジェクト再生音と模擬再生音との間で違和感がないかを、より精度良く判断できる。また、この結果、視聴者は、模擬再生音によってオブジェクト再生音をより精度良く再現できる。
(第3実施形態の音場支援方法)
図12は、本発明の第3の実施形態に係る音場支援方法を示すフローチャートである。図12に示す音場支援方法は、図4に示す音場支援方法に、頭部の姿勢検出に関連する処理を加えたものである。なお、図12に示す各処理における図4に示す処理と同じ処理の説明は省略する。
図12に示す音場支援方法は、図4に示す音場支援方法に対して、ステップS14までは同じ処理を実行する。
姿勢検出部70は、視聴者の頭部の姿勢を検出する(S41)。
選択部40は、視聴者等からの操作によって、オブジェクト再生音信号と模擬再生音信号とを選択する(S15)。
オブジェクト再生音信号が選択されれば(S150:YES)、バイノーラル処理部50は、検出した頭部の姿勢を用いて、オブジェクト再生音信号にバイノーラル処理を施す(S461)。模擬再生音信号が選択されれば(S150:NO)、バイノーラル処理部50は、検出した頭部の姿勢を用いて、模擬再生音信号にバイノーラル処理を施す(S462)。
音場支援装置10Bは、バイノーラル処理が施された音信号を用いて、ステップS17の処理を実行する。
これにより、第3の実施形態の音場支援方法は、視聴者の顔の向きに応じたオブジェクト再生音および模擬再生音を出力できる。したがって、視聴者は、対象空間内で顔の向きを変えながら、その顔の向きに応じたオブジェクト再生音と模擬再生音とを比較して聞くことができる。このため、視聴者は、対象空間内において複数の向きで、オブジェクト再生音と模擬再生音との相違を直接体感でき、模擬再生音がオブジェクト再生音を精度良く再現(模擬)できているか、オブジェクト再生音と模擬再生音との間で違和感がないかを、より精度良く判断できる。また、この結果、視聴者は、模擬再生音によってオブジェクト再生音をより精度良く再現できる。
なお、上述の各実施形態の構成および処理は、適宜組合せが可能であり、それぞれの組合せに応じた作用効果を奏することができる。
また、本実施形態の説明は、すべての点で例示であって、制限的なものではない。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10、10A、10B:音場支援装置
21:視聴点設定部
22:音源位置設定部
23:スピーカ位置設定部
29:調整操作部
30:模擬再生音信号生成部
40:選択部
50:バイノーラル処理部
60:リバーブ処理部
70:姿勢検出部
80:ヘッドフォン
90:対象空間
99:仮想空間
100、100A:GUI
111:位置関係確認ウィンドウ
111A:設定表示ウィンドウ
112:波形確認ウィンドウ
113、116:操作子
115:出力状態表示ウィンドウ
900:視聴点

Claims (10)

  1. 仮想空間上で設定される音源の位置情報を選択し
    象空間に設定されるスピーカからの出力音で前記音源の音を模擬するときの前記音源の定位情報を選択し、
    前記選択された前記位置情報および前記定位情報に基づく音を用いて、前記スピーカによる前記音源の音像定位を調整する、
    音場支援方法。
  2. 前記選択された前記位置情報および前記定位情報に基づく音を比較し、比較結果に基づいて前記音像定位を調整する、
    請求項1に記載の音場支援方法。
  3. 前記選択された前記位置情報および前記定位情報に基づく音に、初期反射音または残響音をそれぞれ付加する、
    請求項1または請求項2に記載の音場支援方法。
  4. 前記対象空間に視聴位置を設定し、
    前記位置情報または前記定位情報と前記視聴位置とに基づいてバイノーラル処理を設定し、
    前記バイノーラル処理された音を出力する、
    請求項1乃至請求項3のいずれかに記載の音場支援方法。
  5. 前記視聴位置での視聴者の顔の向きを設定し、
    前記位置情報または前記定位情報、前記視聴位置、および、前記顔の向きに基づいて、前記バイノーラル処理を設定する、
    請求項4に記載の音場支援方法。
  6. 仮想空間上で設定される音源の位置情報を選択し
    象空間に設定されるスピーカからの出力音で前記音源の音を模擬するときの前記音源の定位情報を選択する
    択部と、
    前記選択された前記位置情報および前記定位情報に基づく音を用いて、前記スピーカによる前記音源の音像定位を調整する調整部と、
    を備える、音場支援装置。
  7. 前記調整部は、
    前記選択された前記位置情報および前記定位情報に基づく音を比較し、比較結果に基づいて前記音像定位を調整する、
    請求項6に記載の音場支援装置。
  8. 前記選択された前記位置情報および前記定位情報に基づく音に初期反射音または残響音をそれぞれ付加するリバーブ処理部を備える、
    請求項6または請求項7に記載の音場支援装置。
  9. 前記対象空間に視聴位置を設定する視聴点設定部と、
    前記位置情報または前記定位情報と前記視聴位置とに基づいて、前記音にバイノーラル処理を施して、前記バイノーラル処理された音を出力するバイノーラル処理部と、
    を備える、
    請求項6乃至請求項8のいずれかに記載の音場支援装置。
  10. 前記視聴位置での視聴者の顔の向きを検出する姿勢検出部を備え、
    前記バイノーラル処理部は、
    前記位置情報または前記定位情報、前記視聴位置、および、前記顔の向きに基づいて、前記バイノーラル処理を設定する、
    請求項9に記載の音場支援装置。
JP2021045543A 2021-03-19 2021-03-19 音場支援方法および音場支援装置 Active JP7666041B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021045543A JP7666041B2 (ja) 2021-03-19 2021-03-19 音場支援方法および音場支援装置
CN202210247023.7A CN115119133B (zh) 2021-03-19 2022-03-14 声场辅助方法、声场辅助装置以及存储介质
US17/695,907 US11917393B2 (en) 2021-03-19 2022-03-16 Sound field support method, sound field support apparatus and a non-transitory computer-readable storage medium storing a program
EP22162878.7A EP4061017A3 (en) 2021-03-19 2022-03-18 Sound field support method, sound field support apparatus and sound field support program
JP2025063577A JP2025096443A (ja) 2021-03-19 2025-04-08 音場支援方法および音場支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021045543A JP7666041B2 (ja) 2021-03-19 2021-03-19 音場支援方法および音場支援装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2025063577A Division JP2025096443A (ja) 2021-03-19 2025-04-08 音場支援方法および音場支援装置

Publications (2)

Publication Number Publication Date
JP2022144499A JP2022144499A (ja) 2022-10-03
JP7666041B2 true JP7666041B2 (ja) 2025-04-22

Family

ID=80819642

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021045543A Active JP7666041B2 (ja) 2021-03-19 2021-03-19 音場支援方法および音場支援装置
JP2025063577A Pending JP2025096443A (ja) 2021-03-19 2025-04-08 音場支援方法および音場支援装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2025063577A Pending JP2025096443A (ja) 2021-03-19 2025-04-08 音場支援方法および音場支援装置

Country Status (4)

Country Link
US (1) US11917393B2 (ja)
EP (1) EP4061017A3 (ja)
JP (2) JP7666041B2 (ja)
CN (1) CN115119133B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102671956B1 (ko) * 2022-12-06 2024-06-05 주식회사 라온에이엔씨 인터콤용 실감음향 오디오출력장치
CN116600230A (zh) * 2023-04-06 2023-08-15 北京奥特维科技有限公司 一种特定场景环境声音模拟方法及装置
WO2025018560A1 (ko) * 2023-07-20 2025-01-23 삼성전자주식회사 가상 공간을 통해 음성을 전달하는 방법 및 장치
CN118310620B (zh) * 2024-06-07 2024-08-06 深圳市声菲特科技技术有限公司 基于特征分析的声场测试方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006222801A (ja) 2005-02-10 2006-08-24 Nec Tokin Corp 移動音像提示装置
JP2007228526A (ja) 2006-02-27 2007-09-06 Mitsubishi Electric Corp 音像定位装置
JP2008193382A (ja) 2007-02-05 2008-08-21 Mitsubishi Electric Corp 携帯電話機、及び音声調整方法
WO2019156892A1 (en) 2018-02-06 2019-08-15 Sony Interactive Entertainment Inc. Method of improving localization of surround sound

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104010265A (zh) * 2013-02-22 2014-08-27 杜比实验室特许公司 音频空间渲染设备及方法
ES2986134T3 (es) * 2013-10-31 2024-11-08 Dolby Laboratories Licensing Corp Renderización binaural para auriculares utilizando procesamiento de metadatos
KR20170106063A (ko) * 2016-03-11 2017-09-20 가우디오디오랩 주식회사 오디오 신호 처리 방법 및 장치
JP6461850B2 (ja) * 2016-03-31 2019-01-30 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
CN108616789B (zh) * 2018-04-11 2021-01-01 北京理工大学 基于双耳实时测量的个性化虚拟音频回放方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006222801A (ja) 2005-02-10 2006-08-24 Nec Tokin Corp 移動音像提示装置
JP2007228526A (ja) 2006-02-27 2007-09-06 Mitsubishi Electric Corp 音像定位装置
JP2008193382A (ja) 2007-02-05 2008-08-21 Mitsubishi Electric Corp 携帯電話機、及び音声調整方法
WO2019156892A1 (en) 2018-02-06 2019-08-15 Sony Interactive Entertainment Inc. Method of improving localization of surround sound

Also Published As

Publication number Publication date
US20220303709A1 (en) 2022-09-22
JP2025096443A (ja) 2025-06-26
CN115119133A (zh) 2022-09-27
EP4061017A3 (en) 2022-09-28
JP2022144499A (ja) 2022-10-03
EP4061017A2 (en) 2022-09-21
US11917393B2 (en) 2024-02-27
CN115119133B (zh) 2025-12-12

Similar Documents

Publication Publication Date Title
JP7666041B2 (ja) 音場支援方法および音場支援装置
CN100588286C (zh) 产生低频声道的设备与方法
EP2589231B1 (en) Facilitating communications using a portable communication device and directed sound output
EP1825713B1 (en) A method and apparatus for multichannel upmixing and downmixing
JP4743790B2 (ja) 前方配置ラウドスピーカからのマルチチャネルオーディオサラウンドサウンドシステム
JP5172665B2 (ja) 筐体内の音場の録音、合成、及び再現
US7751915B2 (en) Device for level correction in a wave field synthesis system
WO2013064943A1 (en) Spatial sound rendering system and method
JP2006509439A (ja) パーソナライズされたサラウンドサウンドヘッドホンシステム
JP4196509B2 (ja) 音場創出装置
Blommer et al. Realistic 3d sound simulation in the virttex driving simulator
JP4426159B2 (ja) ミキシング装置
DK180449B1 (en) A method and system for real-time implementation of head-related transfer functions
JP2018139353A (ja) 音響装置
WO2007096792A1 (en) Device for and a method of processing audio data
Song et al. Psychoacoustic evaluation of multichannel reproduced sounds using binaural synthesis and spherical beamforming
Kuhlen et al. A true spatial sound system for CAVE-like displays using four loudspeakers
US20250380107A1 (en) System for determining customized audio
JP2007081710A (ja) 信号処理装置
Yairi et al. The effects of ambient sounds on the quality of 3D virtual sound space
Grigoriou et al. Binaural mixing using gestural control interaction
JPH07288898A (ja) 音像制御装置
LUBECK et al. Evaluating the Plausibility of Binaural Ambisonics and Parametric Renderings
Hughes et al. Moving virtual source perception in 2d space
JP3059882B2 (ja) 音の遠近感制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20241015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250324

R150 Certificate of patent or registration of utility model

Ref document number: 7666041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150