[go: up one dir, main page]

JP2009212944A - Acoustic apparatus - Google Patents

Acoustic apparatus Download PDF

Info

Publication number
JP2009212944A
JP2009212944A JP2008055165A JP2008055165A JP2009212944A JP 2009212944 A JP2009212944 A JP 2009212944A JP 2008055165 A JP2008055165 A JP 2008055165A JP 2008055165 A JP2008055165 A JP 2008055165A JP 2009212944 A JP2009212944 A JP 2009212944A
Authority
JP
Japan
Prior art keywords
audio signal
listener
localization
channel
slch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008055165A
Other languages
Japanese (ja)
Inventor
Maki Katayama
真樹 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008055165A priority Critical patent/JP2009212944A/en
Publication of JP2009212944A publication Critical patent/JP2009212944A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic System (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an acoustic apparatus capable of giving a surround feeling to a listener by raising the stereotactic feeling of rear-side virtual sound sources when surround sound is reproduced in an acoustic apparatus. <P>SOLUTION: The acoustic apparatus 1 performs control to allow the listener to sense that the virtual sound source 24 of SLch is periodically moved by its prescribed time constant between the first point 24A and the second point 24B on the rear left side of the listener, and that the virtual sound source 25 of SRch is moved in the same way between the third point 25A and the fourth point 25B on the rear right side of the listener. When control is performed in this way, the positions of the virtual sound sources are normally moved without being fixed even when the listener is seated still on a chair, thereby obtaining an effect being the same as that where a person normally and slightly moves his/her head. That is, the acoustic apparatus 1 allows the listener to easily obtain the positions of the virtual sound sources and to have the stereotactic feeling of the virtual sound sources and also the surround feeling with the surround sound. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、聴取者のフロント側に設置した2本のスピーカによる実音源と、この2本のスピーカにより形成した仮想音源からマルチチャンネルサラウンドサウンドを再生する音響装置に関し、特に仮想音源の定位感を向上できる音響装置に関する。   The present invention relates to an acoustic device that reproduces a multi-channel surround sound from a real sound source using two speakers installed on the front side of a listener and a virtual sound source formed by the two speakers, and more particularly to a sense of localization of the virtual sound source. The present invention relates to an acoustic device that can be improved.

近時、聴取者のフロント側に設置した2本のスピーカからフロント側の音声及びリア側の音声(サラウンド音声)を再生することで、聴取者のリア側に複数の仮想音源を定位させて、聴取者に対してその周囲にあたかも複数のスピーカを配置したかのようなサラウンド感(包囲感)を与えることができる音響装置に関する発明が開示されている(例えば、特許文献1参照。)。   Recently, by reproducing the sound on the front side and the sound on the rear side (surround sound) from two speakers installed on the front side of the listener, a plurality of virtual sound sources are localized on the rear side of the listener, An invention relating to an acoustic device capable of giving a listener a surround feeling (feeling of being surrounded) as if a plurality of speakers are arranged around the listener is disclosed (for example, see Patent Document 1).

特許文献1に記載のバーチャルスピーカアンプでは、例えば5チャンネル(以下、chと表記する。)のサラウンドサウンドを再生する場合、ダミーヘッドや聴取者の頭部形状データに対応する頭部伝達関数に基づいてフィルタ係数及び遅延時間をDSPで算出し、入力されたSLch及びSRchのオーディオ信号に対してフィルタ処理及びクロストークキャンセル処理を行う。続いて、音響装置は、加工されたSLch及びSRchのオーディオ信号を、それぞれLchとRchのオーディオ信号に加算する。また、音響装置は、Cchのオーディオ信号を分割してLchとRchのオーディオ信号に加算する。そして、音響装置は、フロント側のLch用スピーカ及びRch用スピーカから、Lch、Rch、分割されたCch、及び加工されたSLchとSRchのサウンドを放音する。これにより、音響装置は、Cchの音源が聴取者の前方中央のある点に、SLchの音源が聴取者の後方左側のある点に、SRchの音源が聴取者の後方右側のある点に、それぞれ定位しているような定位感を聴取者に与えることができる。したがって、聴取者は、これらの仮想音源と、Lch及びRchの実音源とによるサラウンドサウンドに包まれるような感覚(サラウンド感、包囲感)で、楽音を聴取することができる。
特許第3521900号公報
In the virtual speaker amplifier described in Patent Document 1, for example, when reproducing surround sound of 5 channels (hereinafter referred to as “ch”), it is based on a head-related transfer function corresponding to a head shape data of a dummy head or a listener. The filter coefficient and the delay time are calculated by the DSP, and the filtering process and the crosstalk cancellation process are performed on the input SLch and SRch audio signals. Subsequently, the acoustic device adds the processed SLch and SRch audio signals to the Lch and Rch audio signals, respectively. Also, the acoustic device divides the Cch audio signal and adds it to the Lch and Rch audio signals. Then, the acoustic device emits Lch, Rch, divided Cch, and processed SLch and SRch sounds from the front side Lch speaker and the Rch speaker. As a result, the sound device has a Cch sound source at a point in the front center of the listener, a SLch sound source at a point on the left rear side of the listener, and a SRch sound source at a point on the right rear side of the listener. It is possible to give the listener a feeling of localization as if they were localized. Therefore, the listener can listen to the musical sound with a sense (surround feeling, surrounding feeling) that is surrounded by the surround sound by these virtual sound sources and the real sound sources of Lch and Rch.
Japanese Patent No. 3521900

しかしながら、従来の音響装置では、各仮想音源の定位が点として固定されているので、聴取者は、特にサウンドの再生直後には、リア側のSLch及びSRchの仮想音源がどこに定位しているかがわからないことがあった。そのため、聴取者は、音響装置でサラウンドサウンドを再生しているのにもかかわらず、サラウンド感を感じることができないという問題があった。   However, since the localization of each virtual sound source is fixed as a point in the conventional acoustic apparatus, the listener can determine where the rear SLch and SRch virtual sound sources are localized, particularly immediately after the sound is reproduced. I didn't understand. Therefore, there is a problem that the listener cannot feel the surround sound even though the surround sound is reproduced by the audio device.

そこで、本発明は、音響装置でサラウンドサウンドを再生する場合に、リア側の仮想音源の定位感を向上させて、サラウンド感を聴取者に与えることができる音響装置を提供することを目的とする。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an audio device that can provide a listener with a sense of surround by improving the sense of localization of a virtual sound source on the rear side when playing a surround sound with an audio device. .

この発明は、上記の課題を解決するための手段として、以下の構成を備えている。   The present invention has the following configuration as means for solving the above problems.

(1)聴取者の近傍に配置した2つのスピーカが接続された音響装置であって、
オーディオ信号の定位位置が一定領域内を所定の周期で移動しているように聴取者の耳に聞こえる周波数特性を、頭部伝達関数に基づいて算出して、前記オーディオ信号に付与して出力するフィルタ処理手段と、
前記フィルタ処理手段が出力したオーディオ信号に、前記2つのスピーカの一方から前記聴取者の一方の耳へ到来する音声信号の周波数特性をキャンセルする周波数特性を頭部伝達関数に基づいて算出して、その周波数特性を前記オーディオ信号に付与して出力するダイレクト補正手段と、
前記フィルタ処理手段が出力したオーディオ信号に、前記2つのスピーカの一方から前記聴取者の他方の耳へ回り込む音声信号の周波数特性を反転された周波数特性を頭部伝達関数に基づいて算出して、その周波数特性を前記オーディオ信号に付与して出力するクロス補正手段と、
前記ダイレクト補正手段が出力したオーディオ信号を増幅して前記2つのスピーカの一方へ供給し、前記クロス補正手段が出力したオーディオ信号を増幅して前記2つのスピーカの他方へ供給する増幅手段と、
を備えたことを特徴とする。
(1) An acoustic device to which two speakers arranged in the vicinity of a listener are connected,
Based on the head-related transfer function, a frequency characteristic that can be heard by the listener's ear is calculated so that the localization position of the audio signal is moving within a predetermined region in a predetermined cycle, and is added to the audio signal and output. Filtering means;
Based on the head-related transfer function, a frequency characteristic for canceling a frequency characteristic of an audio signal arriving at one of the listener's ears from one of the two speakers is calculated based on the head signal. Direct correction means for outputting the frequency characteristics to the audio signal; and
Based on the head-related transfer function, a frequency characteristic obtained by inverting the frequency characteristic of the audio signal that circulates from one of the two speakers to the other ear of the listener is output to the audio signal output by the filter processing unit. Cross correction means for giving the frequency characteristics to the audio signal and outputting it,
Amplifying means for amplifying the audio signal output by the direct correction means and supplying the amplified audio signal to one of the two speakers; amplifying the audio signal output by the cross correction means for supplying to the other of the two speakers;
It is provided with.

この構成において、音響装置は、オーディオ信号の定位位置が一定領域内を所定の周期で移動しているように聴取者に聞こえる周波数特性をオーディオ信号に付与し、このオーディオ信号が聴取者の一方の耳からのみ聞こえるようにダイレクト補正手段及びクロス補正手段によりクロストークキャンセル処理を行って、オーディオ信号を2つのスピーカから聴取者へ放音させる。したがって、聴取者は、オーディオ信号の定位位置が一定領域内を所定の周期で移動しているように聞こえるので、仮想音源の定位位置を容易に知覚することができる。   In this configuration, the acoustic device provides the audio signal with a frequency characteristic that can be heard by the listener as if the localization position of the audio signal is moving within a predetermined region at a predetermined period, and the audio signal is transmitted to one of the listeners. Crosstalk cancellation processing is performed by the direct correction means and the cross correction means so that only the ear can hear, and the audio signal is emitted from the two speakers to the listener. Therefore, the listener can easily perceive the localization position of the virtual sound source because the localization position of the audio signal seems to move within a certain area with a predetermined period.

(2)聴取者のフロント側に配置したLチャンネルスピーカ及びRチャンネルスピーカへ、マルチチャンネルサラウンドサウンドのオーディオ信号を増幅して供給する増幅手段と、
前記マルチチャンネルサラウンドサウンドのサラウンドチャンネルのオーディオ信号が聴取者のリア側の一定領域内を所定の周期で移動していると、聴取者が感知するように、サラウンドチャンネルのオーディオ信号に対してフィルタ処理を行うフィルタ処理手段と、
前記フィルタ処理を行ったサラウンドチャンネルのオーディオ信号にクロストークキャンセル処理を行い、前記増幅手段にオーディオ信号を出力するクロストークキャンセル補正手段と、
を備えたことを特徴とする。
(2) Amplifying means for amplifying and supplying an audio signal of multi-channel surround sound to an L-channel speaker and an R-channel speaker arranged on the front side of the listener;
The surround channel audio signal is filtered so that the listener senses that the surround channel audio signal of the multi-channel surround sound is moving in a predetermined period within a predetermined area on the rear side of the listener. Filtering means for performing
A crosstalk cancellation correcting unit that performs a crosstalk cancellation process on the audio signal of the surround channel that has been subjected to the filtering process, and outputs an audio signal to the amplification unit;
It is provided with.

この構成において、音響装置は、特定チャンネルのオーディオ信号に対して、この信号が一定領域内を所定の周期で移動していると聴取者に感知されるようにフィルタ処理を行い、クロストークキャンセル処理を行って、この特定チャンネルのオーディオ信号をLチャンネルスピーカ及びRチャンネルスピーカへ供給する。したがって、聴取者の周囲に定位する仮想音源が、一定領域内を所定の周期で移動していると聴取者は感知できるので、聴取者は仮想音源の定位位置を容易に知覚することができ、音響装置により再生するマルチチャンネルサラウンドサウンドによる包囲感を感じながら、このサウンドを聴取することができる。   In this configuration, the audio device performs a filtering process on the audio signal of a specific channel so that a listener can detect that the signal is moving within a predetermined region at a predetermined period, and a crosstalk cancellation process. The audio signal of this specific channel is supplied to the L channel speaker and the R channel speaker. Therefore, since the listener can perceive that the virtual sound source localized around the listener is moving within a predetermined region in a predetermined cycle, the listener can easily perceive the localization position of the virtual sound source, This sound can be heard while feeling the siege by the multi-channel surround sound reproduced by the sound device.

(3)前記フィルタ処理手段は、
前記オーディオ信号が第1の点に定位するようにフィルタ処理を行い出力する第1定位手段と、
前記オーディオ信号が第2の点に定位するようにフィルタ処理を行い出力する第2定位手段と、
時定数τに基づいて、前記第1定位手段及び前記第2定位手段が出力したオーディオ信号の加算比率を周期的に変化させて、両オーディオ信号を加算して前記クロストークキャンセル補正手段へ出力する動的加算手段と、
を備えたことを特徴とする。
(3) The filter processing means includes:
First localization means for performing filtering and outputting so that the audio signal is localized at a first point;
Second localization means for performing filtering and outputting so that the audio signal is localized at a second point;
Based on the time constant τ, the addition ratio of the audio signals output from the first localization means and the second localization means is periodically changed, and both audio signals are added and output to the crosstalk cancellation correction means. Dynamic addition means;
It is provided with.

この構成において、音響装置は、動的加算手段によって、第1定位手段及び第2定位手段が出力したオーディオ信号の加算比率を、マルチチャンネルサラウンドサウンドの各チャンネルのオーディオ信号レベル及びバランス及び時定数τに基づいて周期的に変化させて、両オーディオ信号を加算して出力する。したがって、オーディオ信号の定位位置が、第1の点と第2の点との間を周期的に移動しているような定位感を聴取者に与えることができ、聴取者に仮想音源の定位位置を短時間で知覚させることができる。   In this configuration, the acoustic apparatus uses the dynamic addition means to set the audio signal addition ratio output from the first localization means and the second localization means to the audio signal level and balance of each channel of the multichannel surround sound and the time constant τ. The two audio signals are added and output periodically. Therefore, it is possible to give the listener a feeling of localization such that the localization position of the audio signal periodically moves between the first point and the second point, and the localization position of the virtual sound source can be given to the listener. Can be perceived in a short time.

(4)前記動的加算手段は、さらに、前記マルチチャンネルサラウンドサウンドの各チャンネルのオーディオ信号についてレベル及びバランスを検出し、これらの検出結果及び前記時定数τに基づいて、前記第1定位手段及び前記第2定位手段が出力したオーディオ信号の加算比率を周期的に変化させることを特徴とする。   (4) The dynamic addition means further detects the level and balance of the audio signal of each channel of the multi-channel surround sound, and based on the detection result and the time constant τ, the first localization means and The addition ratio of the audio signal output from the second localization means is periodically changed.

この構成においては、マルチチャンネルサラウンドサウンドの各チャンネルのオーディオ信号についてレベル及びバランスを検出し、これらの検出結果及び時定数τに基づいて、第1定位手段及び前記第2定位手段が出力したオーディオ信号の加算比率を周期的に変化させるので、各チャンネルのオーディオ信号のレベル及びバランスに基づいて、オーディオ信号の定位位置を移動させることができる。したがって、オーディオ信号のレベルやバランスが急激に変化した場合でも、オーディオ信号の定位位置が急に移動しないように制御することができる。   In this configuration, the level and balance of the audio signal of each channel of the multi-channel surround sound is detected, and the audio signal output from the first localization means and the second localization means based on the detection result and the time constant τ. Thus, the localization position of the audio signal can be moved based on the level and balance of the audio signal of each channel. Therefore, even when the level or balance of the audio signal changes suddenly, it is possible to control so that the localization position of the audio signal does not move suddenly.

(5)前記フィルタ処理手段は、
前記オーディオ信号が一定領域内の複数の異なる点に定位するようにフィルタ処理を行う定位手段と、
各チャンネルのオーディオ信号のレベル及びバランスを検出して、これらの検出結果及び時定数τに基づいて、特定チャンネルの仮想音源の定位位置を周期的に切り替える定位位置切替手段と、
を備えたことを特徴とする。
(5) The filter processing means includes:
Localization means for performing a filtering process so that the audio signal is localized at a plurality of different points within a fixed region;
Localization position switching means for detecting the level and balance of the audio signal of each channel and periodically switching the localization position of the virtual sound source of the specific channel based on the detection result and the time constant τ;
It is provided with.

この構成においては、定位位置切替手段によって、オーディオ信号の定位位置が周期的に切り替えられる。したがって、オーディオ信号の聞こえる位置が周期的に変化するので、聴取者に仮想音源の定位位置を速やかに把握させることができる。   In this configuration, the localization position of the audio signal is periodically switched by the localization position switching means. Therefore, since the position where the audio signal can be heard changes periodically, the listener can quickly grasp the localization position of the virtual sound source.

本発明の音響装置は、仮想音源の位置を移動させることにより、仮想音源を点としてではなく線や面として定位させることができる。したがって、本発明の音響装置は、聴取者が楽音を聴取する際に、聴取者に仮想音源の位置を短時間で知覚させて、サラウンド感(包囲感)を感じさせることができる。   The acoustic device of the present invention can localize the virtual sound source not as a point but as a line or a surface by moving the position of the virtual sound source. Therefore, when the listener listens to the musical sound, the acoustic device of the present invention can make the listener perceive the position of the virtual sound source in a short time and feel a surround feeling (enclosed feeling).

図1は、本発明の実施形態に係る音響装置の構成を示すブロック図である。音響装置1は、一例として、5チャンネルのサラウンドサウンドを再生するものとする。また、以下の説明では、5チャンネルのサラウンドサウンドの各チャンネルについて、フロントの左チャンネルをL(Left)ch、フロントの右チャンネルをR(Right )ch、センタチャンネルをC(Center)ch、リアの左チャンネルをSL(Surround Left)ch、リアの右チャンネルをSR(Surround Right )chと称する。   FIG. 1 is a block diagram illustrating a configuration of an audio device according to an embodiment of the present invention. As an example, it is assumed that the acoustic device 1 reproduces 5-channel surround sound. Also, in the following description, for each channel of the 5-channel surround sound, the front left channel is L (Left) ch, the front right channel is R (Right) ch, the center channel is C (Center) ch, and the rear channel is The left channel is referred to as SL (Surround Left) ch, and the rear right channel is referred to as SR (Surround Right) ch.

ここで、人は耳が2つしかないのに音源の前後の位置を把握できる要因の1つは、人が常に頭を微妙に動かしているからだと言われており、人がソファなどのイスに座ってほとんど頭を動かさずに楽音を聴取していると、リア側の仮想音源がどこに定位しているかわからないことがある。本発明の音響装置1では、この問題を解決するために、SLchの仮想音源24が聴取者の後方左側の第1の点24Aと第2の点24Bとの間を、SRchの仮想音源25が聴取者の後方右側の第3の点25Aと第4の点25Bとの間を、それぞれ所定の時定数で周期的に移動しながら往復するように制御する。このように制御することで、聴取者がイスにじっと座っていても、仮想音源の位置が固定することなく常に移動するので、人が常に頭を微妙に動かしているのと同じ効果を得ることができる。すなわち、音響装置1は、聴取者に仮想音源の位置を容易に把握させることができ、仮想音源の定位感、さらにはサラウンドサウンドによる包囲感を聴取者に与えることができる。   Here, it is said that one of the factors that enables a person to grasp the front and back positions of a sound source even though there are only two ears is because the person always moves his head slightly. If you are sitting and listening to music without moving your head, you may not know where the rear virtual sound source is located. In the acoustic apparatus 1 of the present invention, in order to solve this problem, the SRch virtual sound source 24 is between the first point 24A and the second point 24B on the left rear side of the listener, and the SRch virtual sound source 25 is Control is performed so as to reciprocate between the third point 25A and the fourth point 25B on the right rear side of the listener while periodically moving with a predetermined time constant. By controlling in this way, even if the listener sits still on the chair, the position of the virtual sound source always moves without being fixed, so the same effect as if the person is always moving his head slightly is obtained. Can do. That is, the acoustic device 1 can make the listener easily grasp the position of the virtual sound source, and can give the listener a sense of localization of the virtual sound source, and further, a sense of siege by surround sound.

以下、本発明の詳細について説明する。音響装置1は、DSP(Digital Signal Processer)デコーダ11、信号処理部12、D/Aコンバータ13、電子ボリューム15、パワーアンプ16、コントローラ17、メモリ18、操作部19、及び表示部20を備えている。また、音響装置1のパワーアンプ16には、Lch用スピーカ21、及びRch用スピーカ22が接続されている。   Details of the present invention will be described below. The audio device 1 includes a DSP (Digital Signal Processor) decoder 11, a signal processing unit 12, a D / A converter 13, an electronic volume 15, a power amplifier 16, a controller 17, a memory 18, an operation unit 19, and a display unit 20. Yes. Further, an Lch speaker 21 and an Rch speaker 22 are connected to the power amplifier 16 of the acoustic device 1.

図1に示すように、部屋91内には、聴取者Uの聴取位置90の前方左、前方右にフロントスピーカとしてLチャンネル(以下、chと表記する。),Rchのスピーカ21,22が配置されている。また、音響装置1は、聴取者Uの聴取位置90の後方左の第1の点24Aと第2の点24Bとの間にSLchの仮想音源24を定位させ、聴取者Uの聴取位置90の後方右の第3の点25Aと第4の点25Bとの間にSRchの仮想音源25を定位させ、聴取者Uの聴取位置90の前方中央にCchの仮想音源23を定位させる。   As shown in FIG. 1, an L channel (hereinafter referred to as “ch”) and Rch speakers 21 and 22 are arranged in the room 91 as front speakers at the front left and front right of the listening position 90 of the listener U. Has been. Also, the acoustic device 1 localizes the SLch virtual sound source 24 between the first point 24A and the second point 24B on the left rear side of the listening position 90 of the listener U, so that the listening position 90 of the listener U is set. The SRch virtual sound source 25 is localized between the rear right third point 25A and the fourth point 25B, and the Cch virtual sound source 23 is localized at the front center of the listening position 90 of the listener U.

DSPデコーダ11には、DIR(Digital audio Interface Receiver)32、A/Dコンバータ34、及びHDMI(High Definition Multimedia Interface)(登録商標)レシーバ36に代表されるディジタルインタフェースが接続されている。DSPデコーダ11は、A/Dコンバータ34を介して接続されたチューナ2や、HDMI(登録商標)レシーバ36を介して接続されたDVDプレーヤ3などのAV機器から出力されたアナログ音信号やディジタルビットストリームを、Lch、Rch、Cch、SLch、及びSRchの5チャンネルのディジタル音信号(PCM信号)に変換して、信号処理部12へ出力する。また、DSPデコーダ11は、AAC(登録商標),Dolby Digital(登録商標),DTS(登録商標),MPEG−1/2,MPEG−2マルチチャンネル,MP3など多様なデータフォーマットをサポートしており、外部入力信号を図外のデコーダにより5チャンネルのディジタルオーディオ信号(PCM信号)にデコードする。また、DSPデコーダ11は、例えばDVDプレーヤ3から5チャンネルのディジタルオーディオ信号(PCM信号)が直接入力された場合には、これらの信号をそのまま信号処理部12へ出力する。   The DSP decoder 11 is connected to a digital interface represented by a digital audio interface receiver (DIR) 32, an A / D converter 34, and a high definition multimedia interface (HDMI) (registered trademark) receiver 36. The DSP decoder 11 is an analog sound signal or digital bit output from an AV device such as the tuner 2 connected via the A / D converter 34 or the DVD player 3 connected via the HDMI (registered trademark) receiver 36. The stream is converted into a 5-channel digital sound signal (PCM signal) of Lch, Rch, Cch, SLch, and SRch and output to the signal processing unit 12. The DSP decoder 11 supports various data formats such as AAC (registered trademark), Dolby Digital (registered trademark), DTS (registered trademark), MPEG-1 / 2, MPEG-2 multi-channel, MP3, and the like. The external input signal is decoded into a 5-channel digital audio signal (PCM signal) by a decoder (not shown). For example, when a 5-channel digital audio signal (PCM signal) is directly input from the DVD player 3, the DSP decoder 11 outputs these signals as they are to the signal processing unit 12.

信号処理部12は、SLch第1定位付加部42、SLch第2定位付加部44、SRch第1定位付加部46、SRch第2定位付加部48、入力信号検出部50、SLch動的加算部52、SRch動的加算部54、クロストークキャンセル補正部60を構成するLchダイレクト補正部62、Lchクロス補正部64、Rchダイレクト補正部66、及びRchクロス補正部68、並びに加算器72〜75を備えている。ここで、DSPデコーダ11及び信号処理部12は、1つのDSPで構成しても、それぞれ別のDSPで構成しても良い。   The signal processing unit 12 includes an SLch first localization adding unit 42, an SLch second localization adding unit 44, an SRch first localization adding unit 46, an SRch second localization adding unit 48, an input signal detection unit 50, and an SLch dynamic addition unit 52. , An SRch dynamic addition unit 54, an Lch direct correction unit 62, an Lch cross correction unit 64, an Rch direct correction unit 66, an Rch cross correction unit 68, and adders 72 to 75 constituting the crosstalk cancellation correction unit 60. ing. Here, the DSP decoder 11 and the signal processing unit 12 may be constituted by one DSP or different DSPs.

信号処理部12では、SLchの仮想音源24を、聴取者Uの後方左側の第1の点24Aに定位させる演算と、聴取者Uの後方左側の第2の点24Bに定位させる演算と、を行い、両演算結果を所定の比率で加算することで、第1の点24Aと第2の点24Bと間に、SLchの仮想音源24を定位させる。また、信号処理部12では、この加算比率を例えば30秒乃至1分といった時定数で周期的に変化させることで、第1の点24Aと第2の点24Bと間においてSLchの仮想音源24を所定の速度で周期的に移動させる。   The signal processing unit 12 performs an operation for localizing the SLch virtual sound source 24 to the first point 24A on the left rear side of the listener U and an operation for localizing the SLch virtual sound source 24 to the second point 24B on the left rear side of the listener U. Then, the SLch virtual sound source 24 is localized between the first point 24A and the second point 24B by adding both calculation results at a predetermined ratio. In addition, the signal processing unit 12 periodically changes the addition ratio with a time constant of, for example, 30 seconds to 1 minute, so that the SLch virtual sound source 24 is generated between the first point 24A and the second point 24B. It is moved periodically at a predetermined speed.

また同様に、信号処理部12では、SRchの仮想音源25を、聴取者Uの後方右側の第3の点25Aに定位させる演算と、聴取者Uの後方右側の第4の点25Bに定位させる演算と、を行い、両演算結果を所定の比率で加算して、第3の点25Aと第4の点25Bと間に、SRchの仮想音源25を定位させる。また、信号処理部12では、この加算比率を例えば30秒乃至1分といった時定数で周期的に変化させることで、第3の点25Aと第4の点25Bと間においてSRchの仮想音源25を所定の速度で周期的に移動させる。   Similarly, the signal processing unit 12 localizes the SRch virtual sound source 25 to the third point 25A on the right rear side of the listener U and the fourth point 25B on the right rear side of the listener U. The calculation is performed, and both calculation results are added at a predetermined ratio to localize the SRch virtual sound source 25 between the third point 25A and the fourth point 25B. In addition, the signal processing unit 12 periodically changes the summing ratio with a time constant such as 30 seconds to 1 minute, so that the SRch virtual sound source 25 is generated between the third point 25A and the fourth point 25B. It is moved periodically at a predetermined speed.

具体的には、信号処理部12の各部は以下のような動作を行う。SLch第1定位付加部42は、ダミーヘッドまたは聴取者の頭部形状データに対応するモデル頭部伝達関数に基づいたフィルタ係数及び遅延時間が設定されており、これらに基づいて畳み込みを行い、聴取位置90の聴取者UにはSLchのサウンドが第1の点24Aに定位したSLchの仮想音源24から聞こえる周波数特性をSLchのオーディオ信号に付与する。そして、SLch第1定位付加部42は、このSLchのオーディオ信号をSLch動的加算部52へ出力する。   Specifically, each unit of the signal processing unit 12 performs the following operation. The SLch first localization adding unit 42 is set with a filter coefficient and a delay time based on a model head-related transfer function corresponding to the dummy head or the listener's head shape data. The listener U at position 90 is given to the SLch audio signal a frequency characteristic that the SLch sound can be heard from the SLch virtual sound source 24 localized at the first point 24A. Then, the SLch first localization adding unit 42 outputs the SLch audio signal to the SLch dynamic adding unit 52.

同様に、SLch第2定位付加部44は、ダミーヘッドまたは聴取者の頭部形状データに対応するモデル頭部伝達関数に基づいたフィルタ係数及び遅延時間が設定されており、これらに基づいて畳み込みを行い、聴取位置90の聴取者UにはSLchのサウンドが第2の点24Bに定位したSLchの仮想音源24から聞こえる周波数特性をSLchのオーディオ信号に付与する。そして、SLch第2定位付加部44は、このSLchのオーディオ信号をSLch動的加算部52へ出力する。   Similarly, the SLch second localization adding unit 44 is set with a filter coefficient and a delay time based on a model head transfer function corresponding to the dummy head or the listener's head shape data, and performs convolution based on these. Then, the listener U at the listening position 90 is given to the SLch audio signal a frequency characteristic that the SLch sound can be heard from the SLch virtual sound source 24 localized at the second point 24B. Then, the SLch second localization adding unit 44 outputs the SLch audio signal to the SLch dynamic adding unit 52.

SRch第1定位付加部46は、ダミーヘッドまたは聴取者の頭部形状データに対応するモデル頭部伝達関数に基づいたフィルタ係数及び遅延時間が設定されており、これらに基づいて畳み込みを行い、聴取位置90の聴取者UにはSRchのサウンドが第3の点25Aに定位したSRchの仮想音源25から聞こえる周波数特性をSRchのオーディオ信号に付与する。そして、SRch第1定位付加部46は、このSRchのオーディオ信号をSRch動的加算部54へ出力する。   The SRch first localization adding unit 46 is set with a filter coefficient and a delay time based on the model head transfer function corresponding to the dummy head or the listener's head shape data. The listener U at the position 90 is given to the SRch audio signal a frequency characteristic that the SRch sound can be heard from the SRch virtual sound source 25 localized at the third point 25A. Then, the SRch first localization adding unit 46 outputs the SRch audio signal to the SRch dynamic adding unit 54.

SRch第2定位付加部48は、ダミーヘッドまたは聴取者の頭部形状データに対応するモデル頭部伝達関数に基づいたフィルタ係数及び遅延時間が設定されており、これらに基づいて畳み込みを行い、聴取位置90の聴取者UにはSRchのサウンドが第4の点25Bに定位したSRchの仮想音源25から聞こえる周波数特性をSRchのオーディオ信号に付与する。そして、SRch第2定位付加部48は、このSRchのオーディオ信号をSRch動的加算部54へ出力する。   The SRch second localization adding unit 48 is set with a filter coefficient and a delay time based on the model head transfer function corresponding to the dummy head or the listener's head shape data, and performs convolution based on these to perform listening. The listener U at position 90 is given to the SRch audio signal a frequency characteristic that the SRch sound can be heard from the SRch virtual sound source 25 localized at the fourth point 25B. The SRch second localization adding unit 48 outputs the SRch audio signal to the SRch dynamic adding unit 54.

入力信号検出部50は、DSPデコーダ11から出力されたサラウンドサウンドの各チャンネル(Lch、Rch、Cch、SLch、及びSRch)のオーディオ入力信号のレベル及びバランスを検出する。そして、入力信号検出部50は、SLch第1定位付加部42から出力されたオーディオ信号と、SLch第2定位付加部44から出力されたオーディオ信号と、の加算比率が周期的に変化するように、上記のオーディオ入力信号のレベル及びバランスと、予め設定された時定数τ1と、に基づいて、その値が徐々に変化するSLch加算比率係数α(0≦α≦1)を生成し、SLch動的加算部52に出力する。また、入力信号検出部50は、SRch第1定位付加部46から出力されたオーディオ信号と、SRch第2定位付加部48から出力されたオーディオ信号と、の加算比率が周期的に変化するように、上記のオーディオ入力信号のレベル及びバランスと、予め設定された時定数τ2と、に基づいて、その値が徐々に変化するSRch加算比率係数β(0≦β≦1)を生成して、SRch動的加算部54に出力する。   The input signal detection unit 50 detects the level and balance of the audio input signal of each channel (Lch, Rch, Cch, SLch, and SRch) of the surround sound output from the DSP decoder 11. Then, the input signal detection unit 50 periodically changes the addition ratio between the audio signal output from the SLch first localization adding unit 42 and the audio signal output from the SLch second localization adding unit 44. Based on the level and balance of the audio input signal and a preset time constant τ1, a SLch addition ratio coefficient α (0 ≦ α ≦ 1) whose value gradually changes is generated, and SLch motion To the automatic adder 52. Further, the input signal detection unit 50 periodically changes the addition ratio between the audio signal output from the SRch first localization adding unit 46 and the audio signal output from the SRch second localization adding unit 48. Based on the level and balance of the audio input signal and a preset time constant τ2, an SRch addition ratio coefficient β (0 ≦ β ≦ 1) whose value gradually changes is generated, and SRch It outputs to the dynamic addition part 54.

なお、オーディオ入力信号のレベル及びバランスがあまり変化しない場合や、特定のチャンネルのオーディオ信号についてには、上記時定数τ1,τ2に基づいてSLch加算比率係数α及びSRch加算比率係数βを生成するようにすることも可能である。   Note that the SLch addition ratio coefficient α and the SRch addition ratio coefficient β are generated based on the time constants τ1 and τ2 for the audio signal of a specific channel when the level and balance of the audio input signal do not change so much. It is also possible to make it.

SLch動的加算部52は、入力信号検出部50から出力されたSLch加算比率の係数αに基づいた加算比率で、SLch第1定位付加部42から出力されたオーディオ信号と、SLch第2定位付加部44から出力されたオーディオ信号と、を加算してSLchの加算オーディオ信号を生成する。そして、SLch動的加算部52は、このSLchの加算オーディオ信号をLchダイレクト補正部62及びLchクロス補正部64へ出力する。   The SLch dynamic addition unit 52 adds the audio signal output from the SLch first localization adding unit 42 and the SLch second localization addition at an addition ratio based on the coefficient α of the SLch addition ratio output from the input signal detection unit 50. The audio signal output from the unit 44 is added to generate an SLch added audio signal. Then, the SLch dynamic addition unit 52 outputs the SLch addition audio signal to the Lch direct correction unit 62 and the Lch cross correction unit 64.

SRch動的加算部54は、入力信号検出部50から出力されたSRch加算比率係数βに基づいた加算比率で、SRch第1定位付加部46から出力されたオーディオ信号と、SRch第2定位付加部48から出力されたオーディオ信号と、を加算してSRchの加算オーディオ信号を生成する。そして、SRch動的加算部54は、このSRchの加算オーディオ信号をRchダイレクト補正部66及びRchクロス補正部68へ出力する。   The SRch dynamic addition unit 54 adds the audio signal output from the SRch first localization adding unit 46 and the SRch second localization addition unit at an addition ratio based on the SRch addition ratio coefficient β output from the input signal detection unit 50. The audio signal output from 48 is added to generate an SRch added audio signal. The SRch dynamic addition unit 54 outputs the SRch addition audio signal to the Rch direct correction unit 66 and the Rch cross correction unit 68.

ここで、SLch第1定位付加部42から出力されたオーディオ信号をA、SLch第2定位付加部44から出力されたオーディオ信号をB、SRch第1定位付加部46から出力されたオーディオ信号をC、SRch第2定位付加部48から出力されたオーディオ信号をD、SLch動的加算部52が出力するSLchの加算オーディオ信号をE、及びSRch動的加算部54が出力するSRchの加算オーディオ信号をFとすると、SLch動的加算部52及びSRch動的加算部54では以下の式に基づいて演算を行っている。   Here, the audio signal output from the SLch first localization adding unit 42 is A, the audio signal output from the SLch second localization adding unit 44 is B, and the audio signal output from the SRch first localization adding unit 46 is C. D, the audio signal output from the SRch second localization adding unit 48, E, the SLch addition audio signal output from the SLch dynamic addition unit 52, and the SRch addition audio signal output from the SRch dynamic addition unit 54. Assuming F, the SLch dynamic addition unit 52 and the SRch dynamic addition unit 54 perform calculations based on the following equations.

E=αA+(1−α)B, F=βC+(1−β)D
図2は、SLchの仮想音源及びSRchの仮想音源の定位位置を示す図である。図2(A)に示すように、第1の点24Aと第2の点24Bとは、聴取者に対する開角θLが10度から30度の間の任意の角度となるように定位させると良い。同様に、第3の点25Aと第4の点25Bとついても、聴取者に対する開角θRが10度から30度の間の任意の角度となるように定位させると良い。
E = αA + (1-α) B, F = βC + (1-β) D
FIG. 2 is a diagram illustrating localization positions of the SLch virtual sound source and the SRch virtual sound source. As shown in FIG. 2A, the first point 24A and the second point 24B are preferably positioned so that the open angle θL with respect to the listener is an arbitrary angle between 10 degrees and 30 degrees. . Similarly, the third point 25A and the fourth point 25B may be localized so that the opening angle θR with respect to the listener is an arbitrary angle between 10 degrees and 30 degrees.

また、SLchの仮想音源24及びSRchの仮想音源25の定位位置は、SLchの仮想音源24の定位位置とSRchの仮想音源25の定位位置との開角θは、図2(B),(C)に示すように常に一定となるように制御しても、図2(D),(E)に示すように、変化するように制御しても良い。また、時定数τ1及び時定数τ2は、同じ値に設定しても異なる値に設定しても良い。   Further, the localization positions of the SLch virtual sound source 24 and the SRch virtual sound source 25 are the opening angle θ between the localization position of the SLch virtual sound source 24 and the localization position of the SRch virtual sound source 25 as shown in FIGS. Or may be controlled so as to change as shown in FIGS. 2D and 2E. Further, the time constant τ1 and the time constant τ2 may be set to the same value or different values.

さらに、第1の点24Aと第2の点24Bとの中点、及び第3の点25Aと第4の点25Bとの中点は、ITU−R BS.775−1で推奨されているSLch及びSRchの位置となるように設定すると良い。   Further, the midpoint between the first point 24A and the second point 24B and the midpoint between the third point 25A and the fourth point 25B are ITU-R BS. The SLch and SRch positions recommended in 775-1 may be set.

ここで、例えばLch用スピーカ21からSLchの音声を放音させて、この音声が聴取者Uには両耳から聞こえると、聴取者UはLch用スピーカ21からSLchの音声が放音されたことを容易に特定できる。しかし、SLchのオーディオ信号に対して、聴取者Uの後方左側に定位する音源から放音されて聴取者Uの耳に到達する音声の周波数特性と、Lch用スピーカ21から放音されて聴取者Uの左耳ELに到達する音声の周波数特性をキャンセルする周波数特性を、モデル頭部伝達関数に基づいて付与して、Lch用スピーカ21から放音させると、聴取者Uは後方左側からその音声が聞こえるように感じる。また、このとき、Lch用スピーカ21から放音されて聴取者Uの右耳に伝搬する音声を打ち消す音声を生成してRch用スピーカ22から放音させると、聴取者Uは、SLchの音声がLch用スピーカ21から放音されたことを知覚しなくなり、Lch用スピーカ21から放音された音声が聴取者Uの左耳のみに聞こえるようになる。そこで、音響装置1では、クロストークキャンセル補正部60で、選択された2つのスピーカの一方から放音される音声が聴取者Uの一方の耳のみにフラットな特性に聞こえるように、選択された2つのスピーカの他方から放音される音声が聴取者Uの他方の耳のみにフラットな特性に聞こえるように、反対側の耳に聞こえる音声を打ち消す音声を生成するクロストークキャンセル処理を行う。具体的には、以下のような処理を行う。   Here, for example, when the SLch sound is emitted from the Lch speaker 21 and this sound is heard from both ears to the listener U, the listener U has emitted the SLch sound from the Lch speaker 21. Can be easily identified. However, with respect to the SLch audio signal, the frequency characteristics of the sound that is emitted from the sound source localized at the rear left side of the listener U and reaches the ear of the listener U, and the sound that is emitted from the Lch speaker 21 are heard. When a frequency characteristic that cancels the frequency characteristic of the voice that reaches the left ear EL of U is applied based on the model head-related transfer function and is emitted from the Lch speaker 21, the listener U hears the voice from the rear left side. I feel like I can hear. At this time, if a sound that cancels the sound that is emitted from the Lch speaker 21 and propagates to the right ear of the listener U is generated and emitted from the Rch speaker 22, the listener U receives the SLch sound. The sound emitted from the Lch speaker 21 is not perceived, and the sound emitted from the Lch speaker 21 can be heard only by the left ear of the listener U. Therefore, in the audio device 1, the crosstalk cancellation correction unit 60 is selected so that the sound emitted from one of the two selected speakers can be heard in a flat characteristic only by one ear of the listener U. A crosstalk cancellation process is performed to generate a sound that cancels the sound heard by the other ear so that the sound emitted from the other of the two speakers can be heard only by the other ear of the listener U with a flat characteristic. Specifically, the following processing is performed.

図3は、クロストークキャンセル補正部における補正処理を説明するための周波数特性のグラフである。図3(A)は、Lch用スピーカから聴取者Uの左耳EL(direct)及び聴取者Uの右耳ER(cross)に伝搬するサウンドの周波数特性を示すグラフである。図3(B)は、Lch用スピーカから聴取者Uの両耳に伝搬するサウンドのクロストークをキャンセルするために、Lchダイレクト補正部及びLchクロス補正部で付与する周波数特性を示す図である。図3(C)は、Rchスピーカから聴取者Uの右耳ER(direct)及び聴取者Uの左耳EL(cross)に伝搬するサウンドの周波数特性を示すグラフである。図3(D)は、Lch用スピーカから聴取者Uの右耳ER(direct)及び聴取者Uの左耳EL(cross)に伝搬するサウンドのクロストークをキャンセルするサウンドの周波数特性である。図4は、クロストークキャンセル処理を説明するための概念図、及びクロストークキャンセル補正部の詳細を示すブロック図である。   FIG. 3 is a graph of frequency characteristics for explaining the correction processing in the crosstalk cancellation correction unit. FIG. 3A is a graph showing frequency characteristics of sound propagating from the Lch speaker to the left ear EL (direct) of the listener U and the right ear ER (cross) of the listener U. FIG. 3B is a diagram illustrating frequency characteristics applied by the Lch direct correction unit and the Lch cross correction unit in order to cancel the crosstalk of the sound propagating from the Lch speaker to both ears of the listener U. FIG. 3C is a graph showing the frequency characteristics of sound propagating from the Rch speaker to the right ear ER (direct) of the listener U and the left ear EL (cross) of the listener U. FIG. 3D shows the frequency characteristics of the sound that cancels the crosstalk of the sound propagating from the Lch speaker to the right ear ER (direct) of the listener U and the left ear EL (cross) of the listener U. FIG. 4 is a conceptual diagram for explaining the crosstalk cancellation processing and a block diagram showing details of the crosstalk cancellation correction unit.

Lch用スピーカ21からフラットな周波数特性の音を放音すると、聴取者Uの左耳ELに届く音は、各周波数成分が減衰して図3(A)の(1)に示すような周波数特性となる。そのため、聴取者Uは、この周波数特性によりSLchのサウンドがLch用スピーカ21から放音されたと無意識に判断することができる。   When a sound having a flat frequency characteristic is emitted from the Lch speaker 21, the sound reaching the left ear EL of the listener U attenuates each frequency component and the frequency characteristic as shown in (1) of FIG. It becomes. Therefore, the listener U can unconsciously determine that the SLch sound is emitted from the Lch speaker 21 based on the frequency characteristics.

これに対して、Lchダイレクト補正部62には、Lch用スピーカ21から聴取者Uの左耳ELまでのモデル頭部伝達関数の逆関数に対応するフィルタ係数が設定されている。すなわち、図4に示すように、Lch用スピーカ21から聴取者Uの左耳ELまでのモデル頭部伝達関数及びRch用スピーカ22から聴取者Uの右耳ERまでのモデル頭部伝達関数をfd、並びにLch用スピーカ21から聴取者Uの右耳ERまでのモデル頭部伝達関数及びRch用スピーカ22から聴取者Uの左耳ELまでのモデル頭部伝達関数をfcとしたとき、Lchダイレクト補正部62に設定されるフィルタ係数は、fd/(fd−fc)となる。Lchダイレクト補正部62は、SLch動的加算部52から出力されたSLchのオーディオ信号に対して、図3(B)の(1)に示す周波数特性を付与する。これにより、Lchダイレクト補正部62は、Lch用スピーカ21から左耳ELに伝搬する特性を消すことができ、Lch用スピーカ21からSLchのサウンドを放音したことを聴取者Uが知覚しないようにすることができる。したがって、SLchのオーディオサウンドは、Lch用スピーカ21から放音されて聴取者Uの左耳ELに伝搬すると、前記のように各周波数成分は減衰するが、Lchダイレクト補正部62において減衰分だけ予め底上げされる。これにより、Lchダイレクト補正部62から出力されたオーディオ信号は、SLch動的加算部52で付与された聴取位置90の後方左の第1の点24Aと第2の点24Bとの間に定位するSLchの仮想音源24から聞こえる周波数特性と、Lch用スピーカ21から左耳ELに伝搬する特性を打ち消す周波数特性と、を有することになる。 On the other hand, the Lch direct correction unit 62 is set with a filter coefficient corresponding to the inverse function of the model head-related transfer function from the Lch speaker 21 to the left ear EL of the listener U. That is, as shown in FIG. 4, the model head related transfer function from the Lch speaker 21 to the listener's left ear EL and the model head related transfer function from the Rch speaker 22 to the listener's right ear ER are expressed as fd. Lch direct correction when the model head-related transfer function from the Lch speaker 21 to the listener's right ear ER and the model head-related transfer function from the Rch speaker 22 to the listener's U left ear EL are fc The filter coefficient set in the unit 62 is fd / (fd 2 −fc 2 ). The Lch direct correction unit 62 gives frequency characteristics shown in (1) of FIG. 3B to the SLch audio signal output from the SLch dynamic addition unit 52. As a result, the Lch direct correction unit 62 can eliminate the characteristic of propagation from the Lch speaker 21 to the left ear EL so that the listener U does not perceive that the SLch sound is emitted from the Lch speaker 21. can do. Accordingly, when the SLch audio sound is emitted from the Lch speaker 21 and propagates to the left ear EL of the listener U, each frequency component attenuates as described above, but the Lch direct correction unit 62 preliminarily reduces the amount of attenuation. Raised. As a result, the audio signal output from the Lch direct correction unit 62 is localized between the first point 24A and the second point 24B on the left rear of the listening position 90 given by the SLch dynamic addition unit 52. It has a frequency characteristic that can be heard from the SLch virtual sound source 24 and a frequency characteristic that cancels the characteristic that propagates from the Lch speaker 21 to the left ear EL.

Lchクロス補正部64は、図3(A)の(2)に示すLch用スピーカ21から放音されて聴取者Uの右耳ERに伝搬する(回り込む)オーディオサウンドが聞こえないように、この右耳ERに回り込むオーディオサウンドを打ち消すサウンドを生成するとともに、SLchの仮想音源24から聞こえる周波数特性のオーディオサウンドがRch用スピーカ22から放音させるためのものである。すなわち、Lchクロス補正部64は、Lch用スピーカ21から聴取者Uの左耳ELまでの頭部伝達関数の逆関数と、Lch用スピーカ21から聴取者Uの右耳ERまでの頭部伝達関数の逆関数と、を乗じたものに対応するフィルタ係数fc/(fd−fc)が設定されている。Lchクロス補正部64は、SLchのオーディオ信号に対して、Lchダイレクト補正部62において減衰分だけ予め底上げするのと同様の処理と、Lch用スピーカ21から聴取者Uの右耳ERへ回り込む音声信号の周波数特性を反転された周波数特性をモデル頭部伝達関数に基づいて算出し、その周波数特性をSLchのオーディオ信号に付与して、Lch用スピーカ21から聴取者Uの右耳ERに伝搬する特性を消す処理と、SLchのオーディオ信号が聴取者Uの右耳ERに聞こえるようにする処理と、を行い、SLch動的加算部52から出力されたSLchの加算オーディオ信号に対して、図3(B)の(2)のcrossに示す周波数特性を付与する。また、Lchクロス補正部64は、SLch動的加算部52から出力されたSLch加算オーディオ信号について、上記処理を行ってバッファ65で位相を反転・加算器73で加算してRch用スピーカ22から放音後にSLch加算オーディオ信号が聴取者Uの右耳ERに伝搬するタイミングと、Lchダイレクト補正部62等で処理されてLch用スピーカ21から放音後にSLch加算オーディオ信号が聴取者Uの右耳ERに伝搬するタイミングと、が同じになるように、SLch加算オーディオ信号の出力タイミングを調整する。 The Lch cross correction unit 64 prevents the audio sound that is emitted from the Lch speaker 21 shown in (2) of FIG. 3A and propagates (wraps around) the right ear ER of the listener U from being heard. This is for generating a sound that cancels the audio sound that wraps around the ear ER, and for emitting an audio sound having a frequency characteristic that can be heard from the SLch virtual sound source 24 from the Rch speaker 22. In other words, the Lch cross correction unit 64 performs the inverse function of the head-related transfer function from the Lch speaker 21 to the listener's U left ear EL and the head-related transfer function from the Lch speaker 21 to the listener's U right ear ER. Is set to a filter coefficient fc / (fd 2 −fc 2 ) corresponding to the product of the inverse function of. The Lch cross correction unit 64 performs the same process as the Lch direct correction unit 62 raises the level of the SLch audio signal in advance by an attenuation amount, and an audio signal that wraps around from the Lch speaker 21 to the right ear ER of the listener U The frequency characteristic obtained by inverting the frequency characteristic is calculated based on the model head-related transfer function, the frequency characteristic is added to the SLch audio signal, and is propagated from the Lch speaker 21 to the right ear ER of the listener U. 3 and the process of making the SLch audio signal audible to the right ear ER of the listener U. The SLch summed audio signal output from the SLch dynamic adder 52 is shown in FIG. A frequency characteristic indicated by cross in (2) of B) is given. The Lch cross correction unit 64 performs the above-described processing on the SLch addition audio signal output from the SLch dynamic addition unit 52, adds the phase by the inversion / adder 73 in the buffer 65, and releases it from the Rch speaker 22. The timing at which the SLch added audio signal propagates to the right ear ER of the listener U after the sound, and the SLch added audio signal that is processed by the Lch direct correction unit 62 and the like and emitted from the Lch speaker 21 are output to the right ear ER of the listener U. The output timing of the SLch added audio signal is adjusted so that the timing at which the signal is propagated to is the same.

同様に、Rch用スピーカ22からフラットな周波数特性の音声を放音すると、聴取者Uの右耳ERに届く音は、スピーカ中央対称の位置の場合、各周波数成分が減衰して図3(C)の(1)に示すような周波数特性となる。そのため、聴取者Uは、この周波数特性によりSRchの音声がRch用スピーカ22から放音されたと無意識に判断することができる。   Similarly, when sound having a flat frequency characteristic is emitted from the Rch speaker 22, the sound reaching the right ear ER of the listener U is attenuated at each frequency component in the center symmetrical position of the speaker. The frequency characteristics as shown in (1) of FIG. Therefore, the listener U can unconsciously determine that SRch sound is emitted from the Rch speaker 22 based on the frequency characteristics.

これに対して、Rchダイレクト補正部66には、Rch用スピーカ22から聴取者Uの右耳ERまでのモデル頭部伝達関数の逆関数に対応するフィルタ係数が設定されている。すなわち、図4に示すように、Rchダイレクト補正部66に設定されるフィルタ係数は、fd/(fd−fc)となる。Rchダイレクト補正部66は、SRch動的加算部54から出力されたSRchのオーディオ信号に対して、図3(D)の(1)に示す周波数特性を付与する。これにより、Rchダイレクト補正部66は、Rch用スピーカ22から右耳ERに伝搬する特性を消すことができ、Rch用スピーカ22からSRchの音声を放音したことを聴取者Uが知覚しないようにすることができる。したがって、SRchのオーディオサウンドは、Rch用スピーカ22から放音されて聴取者Uの右耳ERに伝搬すると、前記のように各周波数成分は減衰するが、Rchダイレクト補正部66において減衰分だけ予め底上げされているので、SRch動的加算部54で付与された聴取位置90の後方右の第3の点25Aと第4の点25Bとの間に定位するSRchの仮想音源25から聞こえる周波数特性となる。 On the other hand, the Rch direct correction unit 66 is set with a filter coefficient corresponding to the inverse function of the model head-related transfer function from the Rch speaker 22 to the right ear ER of the listener U. That is, as shown in FIG. 4, the filter coefficient set in the Rch direct correction unit 66 is fd / (fd 2 −fc 2 ). The Rch direct correction unit 66 gives the frequency characteristics shown in (1) of FIG. 3D to the SRch audio signal output from the SRch dynamic addition unit 54. As a result, the Rch direct correction unit 66 can eliminate the characteristic of propagation from the Rch speaker 22 to the right ear ER so that the listener U does not perceive that the SRch sound is emitted from the Rch speaker 22. can do. Therefore, when the SRch audio sound is emitted from the Rch speaker 22 and propagates to the right ear ER of the listener U, each frequency component is attenuated as described above. Since the bottom is raised, the frequency characteristic that can be heard from the SRch virtual sound source 25 located between the third point 25A and the fourth point 25B on the right rear side of the listening position 90 given by the SRch dynamic adding unit 54 Become.

Rchクロス補正部68は、図3(C)の(2)に示すRch用スピーカ22から放音されて聴取者Uの左耳ELに伝搬する(回り込む)オーディオサウンドが聞こえないように、この左耳ELに回り込むオーディオサウンドを打ち消すサウンドを生成するとともに、SRchの仮想音源25から聞こえる周波数特性のオーディオサウンドがLch用スピーカ21から放音させるためのものである。すなわち、Rchクロス補正部68は、Rch用スピーカ22から聴取者Uの右耳ERまでのモデル頭部伝達関数の逆関数と、スピーカ22から聴取者Uの左耳ELまでのモデル頭部伝達関数の逆関数と、を乗じたものに対応するフィルタ係数fc/(fd−fc)が設定されている。Rchクロス補正部68は、SRchのオーディオ信号に対して、Rchダイレクト補正部66において減衰分だけ予め底上げするのと同様の処理と、Rch用スピーカ22から聴取者Uの左耳ELへ回り込む音声信号の周波数特性を反転された周波数特性をモデル頭部伝達関数に基づいて算出し、その周波数特性をSRchのオーディオ信号に付与して、Rch用スピーカ22から左耳ELに伝搬する特性を消す処理と、SRchのオーディオ信号が聴取者Uの左耳ELに聞こえるようにする処理と、を行い、SRch動的加算部54から出力されたSRchの加算オーディオ信号に対して、図3(D)の(2)のcrossに示す周波数特性を付与する。また、Rchクロス補正部68は、SRch動的加算部54から出力されたSRch加算オーディオ信号について、上記処理を行ってバッファ69で位相を反転・加算器72で加算してLch用スピーカ21から放音後にSRch加算オーディオ信号が聴取者Uの左耳ELに伝搬するタイミングと、Rchダイレクト補正部66等で処理されてRch用スピーカ22から放音後にSRch加算オーディオ信号が左耳ELに伝搬するタイミングと、が同じになるように、SRch加算オーディオ信号の出力タイミングを調整する。 The Rch cross correction unit 68 prevents the audio sound that is emitted from the Rch speaker 22 shown in (2) of FIG. 3C and propagates (wraps around) the left ear EL of the listener U from being heard. This is for generating a sound that cancels out the audio sound that wraps around the ear EL, and for emitting an audio sound of frequency characteristics that can be heard from the SRch virtual sound source 25 from the Lch speaker 21. In other words, the Rch cross correction unit 68 performs the inverse function of the model head transfer function from the Rch speaker 22 to the right ear ER of the listener U and the model head transfer function from the speaker 22 to the left ear EL of the listener U. Is set to a filter coefficient fc / (fd 2 −fc 2 ) corresponding to the product of the inverse function of. The Rch cross correction unit 68 performs the same processing as the Rch direct correction unit 66 raising the level of the SRch audio signal in advance by the amount of attenuation, and the audio signal that circulates from the Rch speaker 22 to the left ear EL of the listener U A frequency characteristic obtained by inverting the frequency characteristic of the Rch speaker 22 is added to the SRch audio signal, and the characteristic of propagating from the Rch speaker 22 to the left ear EL is erased. 3, the SRch audio signal is heard by the left ear EL of the listener U, and the SRch summed audio signal output from the SRch dynamic adder 54 is 2) The frequency characteristic indicated by cross is given. The Rch cross correction unit 68 performs the above processing on the SRch addition audio signal output from the SRch dynamic addition unit 54, adds the phase by the inversion / adder 72 in the buffer 69, and releases it from the Lch speaker 21. The timing at which the SRch added audio signal propagates to the left ear EL of the listener U after the sound and the timing at which the SRch added audio signal propagates to the left ear EL after being output from the Rch speaker 22 after being processed by the Rch direct correction unit 66 and the like And the output timing of the SRch-added audio signal are adjusted so as to be the same.

したがって、Lch用スピーカ21から放音されたオーディオサウンドは聴取者Uの左耳ELのみに聞こえ、Rch用スピーカ22から放音されたオーディオサウンドは聴取者Uの右耳ERのみに聞こえることになり、聴取者UはSLchの音声が、第1の点24Aと第2の点24Bと間において所定の速度で周期的に移動する仮想音源24から放音され、SRchの音声が、第3の点25Aと第4の点25Bと間において所定の速度で周期的に移動する仮想音源25から放音されているような定位感を得ることができる。   Therefore, the audio sound emitted from the Lch speaker 21 is heard only by the listener U's left ear EL, and the audio sound emitted from the Rch speaker 22 is heard only by the listener U's right ear ER. The listener U releases the sound of the SLch from the virtual sound source 24 that periodically moves at a predetermined speed between the first point 24A and the second point 24B, and the sound of the SRch becomes the third point. It is possible to obtain a sense of localization as if sound is emitted from the virtual sound source 25 that periodically moves at a predetermined speed between 25A and the fourth point 25B.

加算器72は、Lchダイレクト補正部62から出力されたオーディオ信号と、Rchクロス補正部68から出力されてバッファ69で反転された(−1倍された)オーディオ信号と、を加算して加算器74へ出力する。   The adder 72 adds the audio signal output from the Lch direct correction unit 62 and the audio signal output from the Rch cross correction unit 68 and inverted (multiplied by −1) by the buffer 69. Output to 74.

加算器73は、Rchダイレクト補正部66から出力されたオーディオ信号と、Lchクロス補正部64から出力されてバッファ69で反転された(−1倍された)オーディオ信号と、を加算して加算器75へ出力する。   The adder 73 adds the audio signal output from the Rch direct correction unit 66 and the audio signal output from the Lch cross correction unit 64 and inverted (multiplied by −1) by the buffer 69. Output to 75.

加算器74は、DSPデコーダ11から出力されたLchのオーディオ信号及びCchのオーディオ信号と、加算器72から出力されたオーディオ信号と、を加算して、D/Aコンバータ13へ出力する。   The adder 74 adds the Lch audio signal and the Cch audio signal output from the DSP decoder 11 and the audio signal output from the adder 72 and outputs the result to the D / A converter 13.

加算器75は、DSPデコーダ11から出力されたRchのオーディオ信号及びCchのオーディオ信号と、加算器73から出力されたオーディオ信号と、を加算して、D/Aコンバータ13へ出力する。   The adder 75 adds the Rch audio signal and the Cch audio signal output from the DSP decoder 11 and the audio signal output from the adder 73 and outputs the result to the D / A converter 13.

ここで、加算器74,75には、2分割したCchのオーディオ信号が入力される。したがって、Lch用スピーカ21及びRch用スピーカ22は、Cchの音声を同じ音量で放音するので、音響装置1は、Lch用スピーカ21とRch用スピーカ22との中間にCchの仮想音源23が定位しているような定位感を聴取者Uに与えることができる。   Here, the C-channel audio signal divided into two is input to the adders 74 and 75. Therefore, since the Lch speaker 21 and the Rch speaker 22 emit Cch sound at the same volume, the acoustic device 1 has the Cch virtual sound source 23 located between the Lch speaker 21 and the Rch speaker 22. It is possible to give the listener U a feeling of localization.

D/Aコンバータ13は、信号処理部12の加算器74,75から出力されたLch、Rch、Cch、SLch、SRchの合計5チャンネルのディジタル音信号をそれぞれアナログ音信号に変換する。   The D / A converter 13 converts the digital sound signals of a total of five channels of Lch, Rch, Cch, SLch, and SRch output from the adders 74 and 75 of the signal processing unit 12 into analog sound signals, respectively.

電子ボリューム15は、操作部19の操作に応じてコントローラ17から出力された制御信号に基づいて、各チャンネルのアナログ音信号の信号量を調整する。   The electronic volume 15 adjusts the signal amount of the analog sound signal of each channel based on the control signal output from the controller 17 according to the operation of the operation unit 19.

パワーアンプ16は、電子ボリューム15で調整されたアナログ音信号を増幅して、Lch用スピーカ21及びRch用スピーカ22へ出力する。   The power amplifier 16 amplifies the analog sound signal adjusted by the electronic volume 15 and outputs it to the Lch speaker 21 and the Rch speaker 22.

Lch用スピーカ21、Rch用スピーカ22は、パワーアンプ16から出力されたアナログ音信号に応じた音を放音する。すなわち、Lch用スピーカ21はLch、Cch、及びSLchの音声を、Rch用スピーカ22は、Rch、Cch、及びSRchの音声を、それぞれ放音する。   The Lch speaker 21 and the Rch speaker 22 emit sound according to the analog sound signal output from the power amplifier 16. That is, the Lch speaker 21 emits Lch, Cch, and SLch sounds, and the Rch speaker 22 emits Rch, Cch, and SRch sounds.

コントローラ17は、操作部19で行われた操作に応じて各部を制御する。例えば、操作部19で音量の調整操作が行われると、コントローラ17はこの操作に応じた制御信号を電子ボリューム15に出力して、各スピーカ21〜27から放音する音の音量を変更する。コントローラ17としては、CPUやMPUが好適である。   The controller 17 controls each unit in accordance with the operation performed on the operation unit 19. For example, when a volume adjustment operation is performed at the operation unit 19, the controller 17 outputs a control signal corresponding to this operation to the electronic volume 15 to change the volume of sound emitted from each speaker 21 to 27. The controller 17 is preferably a CPU or MPU.

メモリ18は、コントローラ17で行うプログラムを記憶している。   The memory 18 stores a program executed by the controller 17.

操作部19は、音響装置1に対してユーザが各種の操作・設定などの入力を行うためのものである。   The operation unit 19 is used by the user to input various operations and settings to the audio device 1.

表示部20は、音響装置1からユーザに対する伝達事項を表示するためのものである。   The display unit 20 is for displaying items transmitted from the audio device 1 to the user.

以上のように、本発明の実施形態に係る音響装置では、複数の仮想音源をユーザの周囲に設けるとともに、各仮想音源が定位する位置を所定の周期で移動しているように聴取者に感知させることができるので、聴取者に対して仮想音源の定位感をすぐに知覚させることができ、聴取者にサラウンドサウンドによる包囲感を付与することができる。これにより、ユーザは、サラウンドサウンドによる包囲感を楽しみながら楽音を聴取することができる。   As described above, in the audio device according to the embodiment of the present invention, a plurality of virtual sound sources are provided around the user, and the position where each virtual sound source is localized is detected by the listener so as to move at a predetermined cycle. Therefore, the listener can immediately perceive the sense of localization of the virtual sound source, and the listener can be given a sense of siege by surround sound. As a result, the user can listen to the musical sound while enjoying the siege by the surround sound.

また、上記の説明では、SLch及びSRchの定位位置を2点とし、この2点間を時定数τで周期的に移動する場合について説明したが、本発明はこの実施形態に限るものではなく他の実施形態であっても良い。例えば、SLch及びSRchの定位点を、SLch及びSRchが定位しても聴取者に違和感を与えない所定の領域内に複数(3点以上)設けて、仮想音源の定位位置が連続的または離散的に、一定周期で変化するように設定することもできる。この場合も、聴取者に短時間で容易に仮想音源の定位位置を知覚させることができる。   In the above description, the localization positions of the SLch and SRch are assumed to be two points, and the two points are periodically moved with a time constant τ. However, the present invention is not limited to this embodiment. It may be an embodiment. For example, a plurality of (three or more) localization points of SLch and SRch are provided in a predetermined area that does not give the listener a sense of incongruity even if the SLch and SRch are localized, and the localization position of the virtual sound source is continuous or discrete. In addition, it can be set to change at a constant cycle. Also in this case, the listener can easily perceive the localization position of the virtual sound source in a short time.

また、上記の説明では、5chのサラウンドサウンドのうち、リア側のチャンネルについてのみ仮想音源の定位位置が移動させる場合について説明したが、例えば、特開平11−252698号公報に開示された音場処理装置のように、フロント側のチャンネルについても仮想音源とすることができる。したがって、リア側だけでなくフロント側の仮想音源についても本発明を適用して、その定位位置を移動させることで、各チャンネルの仮想音源の定位位置を聴取者に容易に把握させることができる。   Further, in the above description, the case where the localization position of the virtual sound source is moved only for the rear channel of the 5ch surround sound has been described. For example, the sound field processing disclosed in Japanese Patent Laid-Open No. 11-252698 is disclosed. Like the device, the front side channel can also be a virtual sound source. Therefore, by applying the present invention not only to the rear side but also to the front side virtual sound source and moving its localization position, the listener can easily grasp the localization position of the virtual sound source of each channel.

本発明の実施形態に係る音響装置の構成を示すブロック図である。It is a block diagram which shows the structure of the audio equipment concerning embodiment of this invention. SLchの仮想音源及びSRchの仮想音源の定位位置を示す図である。It is a figure which shows the localization position of the virtual sound source of SLch, and the virtual sound source of SRch. クロストークキャンセル補正部における補正処理を説明するための周波数特性のグラフである。It is a graph of the frequency characteristic for demonstrating the correction process in a crosstalk cancellation correction | amendment part. クロストークキャンセル処理を説明するための概念図、及びクロストークキャンセル補正部の詳細を示すブロック図である。It is the conceptual diagram for demonstrating a crosstalk cancellation process, and the block diagram which shows the detail of a crosstalk cancellation correction | amendment part.

符号の説明Explanation of symbols

1−音響装置 11−DSPデコーダ 12−信号処理部 13−D/Aコンバータ 15−電子ボリューム 16−パワーアンプ 17−コントローラ 18−メモリ 19−操作部 20−表示部 21−Lch用スピーカ 22−Rch用スピーカ 23,24,25−仮想音源 42−SLch第1定位付加部 44−SLch第2定位付加部 46−SRch第1定位付加部 48−SRch第2定位付加部 50−入力信号検出部 52−SLch動的加算部 54−SRch動的加算部 60−クロストークキャンセル補正部 62−Lchダイレクト補正部 64−Lchクロス補正部 66−Rchダイレクト補正部 68−Rchクロス補正部 72〜75−加算器     1-acoustic device 11-DSP decoder 12-signal processing unit 13-D / A converter 15-electronic volume 16-power amplifier 17-controller 18-memory 19-operation unit 20-display unit 21-Lch speaker 22-Rch Speakers 23, 24, 25-virtual sound source 42-SLch first localization addition unit 44-SLch second localization addition unit 46-SRch first localization addition unit 48-SRch second localization addition unit 50-input signal detection unit 52-SLch Dynamic adder 54-SRch dynamic adder 60-Crosstalk cancellation corrector 62-Lch direct corrector 64-Lch cross corrector 66-Rch direct corrector 68-Rch cross corrector 72-75-Adder

Claims (5)

聴取者の近傍に配置した2つのスピーカが接続された音響装置であって、
オーディオ信号の定位位置が一定領域内を所定の周期で移動しているように聴取者の耳に聞こえる周波数特性を、頭部伝達関数に基づいて算出して、前記オーディオ信号に付与して出力するフィルタ処理手段と、
前記フィルタ処理手段が出力したオーディオ信号に、前記2つのスピーカの一方から前記聴取者の一方の耳へ到来する音声信号の周波数特性をキャンセルする周波数特性を頭部伝達関数に基づいて算出して、その周波数特性を前記オーディオ信号に付与して出力するダイレクト補正手段と、
前記フィルタ処理手段が出力したオーディオ信号に、前記2つのスピーカの一方から前記聴取者の他方の耳へ回り込む音声信号の周波数特性を反転された周波数特性を頭部伝達関数に基づいて算出して、その周波数特性を前記オーディオ信号に付与して出力するクロス補正手段と、
前記ダイレクト補正手段が出力したオーディオ信号を増幅して前記2つのスピーカの一方へ供給し、前記クロス補正手段が出力したオーディオ信号を増幅して前記2つのスピーカの他方へ供給する増幅手段と、
を備えたことを特徴とする音響装置。
An acoustic device to which two speakers arranged in the vicinity of a listener are connected,
Based on the head-related transfer function, a frequency characteristic that can be heard by the listener's ear is calculated so that the localization position of the audio signal is moving within a predetermined region in a predetermined cycle, and is added to the audio signal and output. Filtering means;
Based on the head-related transfer function, a frequency characteristic for canceling a frequency characteristic of an audio signal arriving at one of the listener's ears from one of the two speakers is calculated based on the head signal. Direct correction means for outputting the frequency characteristics to the audio signal; and
Based on the head-related transfer function, a frequency characteristic obtained by inverting the frequency characteristic of the audio signal that circulates from one of the two speakers to the other ear of the listener is output to the audio signal output by the filter processing unit. A cross correction means for outputting the frequency characteristics to the audio signal;
Amplifying means for amplifying the audio signal output by the direct correction means and supplying the amplified audio signal to one of the two speakers; amplifying the audio signal output by the cross correction means for supplying to the other of the two speakers;
An acoustic device comprising:
聴取者のフロント側に配置したLチャンネルスピーカ及びRチャンネルスピーカへ、マルチチャンネルサラウンドサウンドのオーディオ信号を増幅して供給する増幅手段と、
前記マルチチャンネルサラウンドサウンドのサラウンドチャンネルのオーディオ信号が聴取者のリア側の一定領域内を所定の周期で移動していると、聴取者が感知するように、サラウンドチャンネルのオーディオ信号に対してフィルタ処理を行うフィルタ処理手段と、
前記フィルタ処理を行ったサラウンドチャンネルのオーディオ信号にクロストークキャンセル処理を行い、前記増幅手段にオーディオ信号を出力するクロストークキャンセル補正手段と、
を備えたことを特徴とする音響装置。
Amplifying means for amplifying and supplying an audio signal of multi-channel surround sound to an L channel speaker and an R channel speaker arranged on the front side of the listener;
The surround channel audio signal is filtered so that the listener senses that the surround channel audio signal of the multi-channel surround sound is moving in a predetermined period within a predetermined area on the rear side of the listener. Filtering means for performing
A crosstalk cancellation correction unit that performs a crosstalk cancellation process on the audio signal of the surround channel that has been subjected to the filtering process, and outputs an audio signal to the amplification unit;
An acoustic device comprising:
前記フィルタ処理手段は、
前記オーディオ信号が第1の点に定位するようにフィルタ処理を行い出力する第1定位手段と、
前記オーディオ信号が第2の点に定位するようにフィルタ処理を行い出力する第2定位手段と、
時定数τに基づいて、前記第1定位手段及び前記第2定位手段が出力したオーディオ信号の加算比率を周期的に変化させて、両オーディオ信号を加算して前記クロストークキャンセル補正手段へ出力する動的加算手段と、
を備えたことを特徴とする請求項1または2に記載の音響装置。
The filter processing means includes
First localization means for performing filtering and outputting so that the audio signal is localized at a first point;
Second localization means for performing filtering and outputting so that the audio signal is localized at a second point;
Based on the time constant τ, the addition ratio of the audio signals output from the first localization means and the second localization means is periodically changed, and both audio signals are added and output to the crosstalk cancellation correction means. Dynamic addition means;
The acoustic device according to claim 1, further comprising:
前記動的加算手段は、さらに、前記マルチチャンネルサラウンドサウンドの各チャンネルのオーディオ信号についてレベル及びバランスを検出し、これらの検出結果及び前記時定数τに基づいて、前記第1定位手段及び前記第2定位手段が出力したオーディオ信号の加算比率を周期的に変化させることを特徴とする請求項3に記載の音響装置。   The dynamic adding means further detects the level and balance of the audio signal of each channel of the multi-channel surround sound, and based on the detection result and the time constant τ, the first localization means and the second localization means. 4. The acoustic apparatus according to claim 3, wherein the addition ratio of the audio signal output from the localization means is periodically changed. 前記フィルタ処理手段は、
前記オーディオ信号が一定領域内の複数の異なる点に定位するようにフィルタ処理を行う定位手段と、
各チャンネルのオーディオ信号のレベル及びバランスを検出して、これらの検出結果及び時定数τに基づいて、特定チャンネルの仮想音源の定位位置を周期的に切り替える定位位置切替手段と、
を備えたことを特徴とする請求項1または2に記載の音響装置。
The filter processing means includes
Localization means for performing a filtering process so that the audio signal is localized at a plurality of different points within a fixed region;
Localization position switching means for detecting the level and balance of the audio signal of each channel and periodically switching the localization position of the virtual sound source of the specific channel based on the detection result and the time constant τ;
The acoustic device according to claim 1, further comprising:
JP2008055165A 2008-03-05 2008-03-05 Acoustic apparatus Pending JP2009212944A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008055165A JP2009212944A (en) 2008-03-05 2008-03-05 Acoustic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008055165A JP2009212944A (en) 2008-03-05 2008-03-05 Acoustic apparatus

Publications (1)

Publication Number Publication Date
JP2009212944A true JP2009212944A (en) 2009-09-17

Family

ID=41185646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008055165A Pending JP2009212944A (en) 2008-03-05 2008-03-05 Acoustic apparatus

Country Status (1)

Country Link
JP (1) JP2009212944A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011033860A1 (en) 2009-09-15 2011-03-24 オリンパスメディカルシステムズ株式会社 Treatment instrument for endoscope
WO2013183392A1 (en) * 2012-06-06 2013-12-12 ソニー株式会社 Audio signal processing device, audio signal processing method, and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1042398A (en) * 1996-07-25 1998-02-13 Sanyo Electric Co Ltd Surround reproducing method and device
JP2000228800A (en) * 1999-01-13 2000-08-15 Deutsche Thomson Brandt Gmbh Method and device for reproducing multi-channel audio signal
JP2006005868A (en) * 2004-06-21 2006-01-05 Denso Corp Vehicle notification sound output device and program
JP2006135611A (en) * 2004-11-05 2006-05-25 Matsushita Electric Ind Co Ltd Virtual sound image control device
JP2007214815A (en) * 2006-02-08 2007-08-23 Nagaoka Univ Of Technology Out-of-head sound localization device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1042398A (en) * 1996-07-25 1998-02-13 Sanyo Electric Co Ltd Surround reproducing method and device
JP2000228800A (en) * 1999-01-13 2000-08-15 Deutsche Thomson Brandt Gmbh Method and device for reproducing multi-channel audio signal
JP2006005868A (en) * 2004-06-21 2006-01-05 Denso Corp Vehicle notification sound output device and program
JP2006135611A (en) * 2004-11-05 2006-05-25 Matsushita Electric Ind Co Ltd Virtual sound image control device
JP2007214815A (en) * 2006-02-08 2007-08-23 Nagaoka Univ Of Technology Out-of-head sound localization device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011033860A1 (en) 2009-09-15 2011-03-24 オリンパスメディカルシステムズ株式会社 Treatment instrument for endoscope
WO2013183392A1 (en) * 2012-06-06 2013-12-12 ソニー株式会社 Audio signal processing device, audio signal processing method, and computer program
CN104335605A (en) * 2012-06-06 2015-02-04 索尼公司 Audio signal processing device, audio signal processing method, and computer program
US20150117648A1 (en) * 2012-06-06 2015-04-30 Sony Corporation Audio signal processing device, audio signal processing method, and computer program
JPWO2013183392A1 (en) * 2012-06-06 2016-01-28 ソニー株式会社 Audio signal processing apparatus, audio signal processing method, and computer program
US9706326B2 (en) 2012-06-06 2017-07-11 Sony Corporation Audio signal processing device, audio signal processing method, and computer program
CN104335605B (en) * 2012-06-06 2017-10-03 索尼公司 Audio signal processor, acoustic signal processing method and computer program

Similar Documents

Publication Publication Date Title
EP2061279B1 (en) Virtual sound source localization apparatus
CN101064974B (en) Sound field control device
US9674609B2 (en) Speaker device and audio signal processing method
US8577065B2 (en) Systems and methods for creating immersion surround sound and virtual speakers effects
JP4893789B2 (en) Sound field control device
CN1956606B (en) Method and apparatus to generate spatial stereo sound
US7978860B2 (en) Playback apparatus and playback method
EP2484127B1 (en) Method, computer program and apparatus for processing audio signals
JP4867367B2 (en) Stereo sound reproduction device
JP4466519B2 (en) AV amplifier device
JP2006101461A (en) Stereophonic acoustic reproducing apparatus
JP5505395B2 (en) Sound processor
JP5194614B2 (en) Sound field generator
JP4791613B2 (en) Audio adjustment device
JP2009212944A (en) Acoustic apparatus
JP2016134769A (en) Audio signal processing device
JP2016134767A (en) Audio signal processor
CN110313188A (en) The outer location processing method of the outer positioning treatment apparatus of head, head and the outer localization process program of head
JP2009105565A (en) Virtual sound image localization processing apparatus and virtual sound image localization processing method
JP2011004261A (en) Av amplifier apparatus
JP4906293B2 (en) Sound field control device
JP2007081927A (en) Audio apparatus
JP2008154083A (en) Sound field reproducing device
JP2008258675A (en) Sound image localization processing device or the like
JP2007081710A (en) Signal processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121221

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20121221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130625