JP2010232862A - Audio processing apparatus, audio processing method, and program - Google Patents
Audio processing apparatus, audio processing method, and program Download PDFInfo
- Publication number
- JP2010232862A JP2010232862A JP2009076984A JP2009076984A JP2010232862A JP 2010232862 A JP2010232862 A JP 2010232862A JP 2009076984 A JP2009076984 A JP 2009076984A JP 2009076984 A JP2009076984 A JP 2009076984A JP 2010232862 A JP2010232862 A JP 2010232862A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- microphone
- microphones
- processing apparatus
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Circuit For Audible Band Transducer (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Abstract
【課題】複数の環境において、マイクから入力される音信号の雑音を好適に減じる音声処理装置、音声処理方法、及び、プログラムを提供すること。
【解決手段】音声処理装置100は、音源と複数のマイクとの相対位置の指標を検出する位置パターン検出部102と、前記マイクの各々から入力される音信号に対する音声処理を、前記相対位置の指標に基づいて決定する処理決定部103と、前記音信号に対し、決定された前記音声処理を実行する信号処理部104と、を有する。
【選択図】図1An audio processing apparatus, an audio processing method, and a program for suitably reducing noise of a sound signal input from a microphone in a plurality of environments.
An audio processing apparatus includes: a position pattern detecting unit that detects an index of a relative position between a sound source and a plurality of microphones; and an audio process for a sound signal input from each of the microphones. A processing determining unit 103 that determines based on the index, and a signal processing unit 104 that executes the determined audio processing on the sound signal.
[Selection] Figure 1
Description
本発明は、音声処理装置に係わり、特に音源とマイクロホンの位置をNパターンに分類し、それぞれの位置パターンに対応する処理を行うことで、SNRの高い目的音を得られる音声処理装置に関する。 The present invention relates to a sound processing apparatus, and more particularly to a sound processing apparatus that can obtain a target sound having a high SNR by classifying the positions of a sound source and a microphone into N patterns and performing processing corresponding to each position pattern.
従来から、マイクロホンアレイと呼ばれる複数のマイクロホンを用いて音声を収集し、これらに信号処理を施すことにより、目的音源方向の推定や、雑音を抑圧し高いSNRで目的音源からの信号抽出を行う技術が知られている。 Conventionally, a technique for estimating a target sound source direction and extracting a signal from a target sound source with high SNR by collecting sound using a plurality of microphones called a microphone array and performing signal processing on the collected sound. It has been known.
例えば非特許文献1では、目的音をマイクロホンアレイによって受信し、各マイクが受信した信号の各々に対し、各マイクロホンへの目的音の到達時間差を補正した後、それらの信号を足し合わせる、いわゆる遅延和をとることによって、目的音を強調した信号を得る方法が示されている。非特許文献1に開示の発明は、どのマイクにも目的音と雑音が混入した信号が入力されることを前提としている。 For example, in Non-Patent Document 1, a target sound is received by a microphone array, the arrival time difference of the target sound to each microphone is corrected for each signal received by each microphone, and these signals are added together. A method of obtaining a signal in which the target sound is emphasized by taking the sum is shown. The invention disclosed in Non-Patent Document 1 is based on the premise that a signal mixed with target sound and noise is input to any microphone.
また、複数マイクロホンを利用する方法として、2本のマイクロホンを用いて、1本を雑音収集用マイクロホン、他方を雑音が混入した目的音を収集するマイクロホンとし、目的音を収集するマイクロホンの信号から雑音収集用雑音マイクロホンの出力を減算することによって雑音を低減し、目的音をより鮮明に抽出する方法が知られている。 Further, as a method of using a plurality of microphones, two microphones are used, one is a noise collecting microphone, the other is a microphone that collects a target sound mixed with noise, and noise from the microphone signal collecting the target sound is detected. There is known a method for reducing noise by subtracting the output of a collecting noise microphone and extracting a target sound more clearly.
その一例として、特開2004−226656号公報(特許文献1)では、2本のマイクロホンを用い、口唇とあらかじめ選択された基準となるマイクロホンとの距離を、基準マイクロホンともう一方のマイクロホンの信号レベルの差から算出し、距離によって基準マイクロホンの信号から、もう一方のマイクロホンの信号を減算する際の減算量を調整する話者距離検出装置等の技術が開示されている。 As an example, in Japanese Patent Application Laid-Open No. 2004-226656 (Patent Document 1), two microphones are used, and the distance between the lip and a preselected reference microphone is set to the signal level of the reference microphone and the other microphone. A technique such as a speaker distance detection device is disclosed that calculates from the difference between the two and adjusts the subtraction amount when subtracting the signal of the other microphone from the signal of the reference microphone according to the distance.
特許文献1に開示の発明は、一方のマイクには目的音と雑音が混在した信号が入るが、もう一方のマイクには雑音のみ、あるいは目的音が混在したとしても比較的少ないことを前提にしている。 The invention disclosed in Patent Document 1 is based on the premise that one microphone contains a signal in which target sound and noise are mixed, but the other microphone has only noise or a relatively small amount of target sound even if mixed. ing.
しかしながら、複数のマイクを用いて生成した音信号を処理する際には、何れのマイクにも目的音と雑音とが混在する環境と、一のマイクに目的音と雑音が入り他のマイクに雑音が主として入る環境とで、同一の処理を行うと、目的音を好適に処理することができないことがある。上記非特許文献1及び特許文献1に開示の発明では、このことは考慮されていない。 However, when processing sound signals generated using multiple microphones, the environment in which the target sound and noise are mixed in all microphones, the target sound and noise are input to one microphone, and the noise is input to the other microphones. If the same processing is performed in an environment where the main sound enters, the target sound may not be appropriately processed. In the inventions disclosed in Non-Patent Document 1 and Patent Document 1, this is not taken into consideration.
本発明は、上記の点に鑑みて、これらの問題を解消するために発明されたものであり、複数の環境において、マイクから入力される音信号の雑音を好適に減じることを目的としている。 The present invention has been invented in order to solve these problems in view of the above points, and has an object to suitably reduce noise of a sound signal input from a microphone in a plurality of environments.
上述した課題を解決し、目的を達成するために、本発明の一態様は、音源と複数のマイクとの相対位置の指標を検出する位置パターン検出部と、前記複数のマイクの各々から入力される音信号に対する音声処理を、前記相対位置の指標に基づいて決定する処理決定部と、前記音信号に対し、決定された前記音声処理を実行する信号処理部と、を有することを特徴とする。 In order to solve the above-described problem and achieve the object, one aspect of the present invention is input from a position pattern detection unit that detects an index of a relative position between a sound source and a plurality of microphones, and each of the plurality of microphones. A sound signal processing unit that determines sound processing for the sound signal based on the relative position index; and a signal processing unit that executes the sound processing determined for the sound signal. .
本発明によれば、複数の環境において、マイクから入力される音信号の雑音を好適に減じることが可能になる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to reduce suitably the noise of the sound signal input from a microphone in a some environment.
(第1の実施形態)
図1は、第1の実施形態に係わる音声処理装置を示すブロック図である。第1の実施形態に係わる音声処理装置100は、入力される音信号を、予め保持する音源の位置パターンに照合し、位置パターン毎に対応する音声処理を実行する。音声処理装置100は、音入力部101、位置パターン検出部102、処理決定部103、信号処理部104、及び、パターンデータベース(以下、「パターンDB」という。)109を有する。
(First embodiment)
FIG. 1 is a block diagram showing a speech processing apparatus according to the first embodiment. The
音入力部101は、複数のマイクからの入力音をデジタル化された音信号に変換し、音声の始終端を検出する。位置パターン検出部102は、音信号から、音源とマイクとの位置パターンの指標を検出する。処理決定部103は、位置パターンの指標を予め保持される位置パターンに照合することにより音信号に対して実行する処理を決定する。信号処理部104は、処理決定部103の決定に従って処理を行う。
The
パターンDB109は、複数のマイクと音源との位置パターンに係る情報を保持する。位置パターンは、複数のマイクと音源との相対的な位置(相対位置)を表す。パターンDB109には、位置パターン毎に、複数のマイクから入力される音信号のパターンの指標が対応づけられて格納されている。パターンDB109に格納されるパターンは、処理決定部103により呼び出され、位置パターン検出部102により検出された指標と照合される。
The pattern DB 109 holds information related to position patterns of a plurality of microphones and sound sources. The position pattern represents a relative position (relative position) between the plurality of microphones and the sound source. The
図2は、第1の実施形態に係る音声処理装置100における処理を示すフローチャートである。ここでは、音源とマイクとの位置パターンを、2本のマイクロホンを使用して取得する例について説明する。2本のマイクを、それぞれ、マイク1及びマイク2とする。
FIG. 2 is a flowchart showing processing in the
ステップS101では、音入力部101が、AD変換器を用いて、マイクロホンに入力される音をアナログ信号からデジタル信号に変換する。
In step S101, the
ステップS102では、雑音処理を行う音声の始終端を検知するために、例えば、ゼロ交差回数等を使った音声区間検出を行う。この音声区間検出はマイク1及びマイク2のマイク出力を使って行う。
In step S102, voice section detection using, for example, the number of zero crossings is performed in order to detect the start and end of the voice to be subjected to noise processing. This voice section detection is performed using the microphone outputs of the microphone 1 and the
より詳細には、マイク1が取得した音信号とマイク2が取得した音信号とに対し、ゼロ交差回数を計算し、どちらかのマイクで音声区間が検出されたと判断されたらその検出点からの音を音声として扱う。
More specifically, the number of zero crossings is calculated with respect to the sound signal acquired by the microphone 1 and the sound signal acquired by the
尚、ここでそれぞれマイク1、及び、マイク2が検出した始端情報を、それぞれ、S1、及び、S2として保持する。音声始端が最も遅く検出された出力マイクにおいて音声終端確定後、図2の処理が終了される。なお、区間検出方法はこれに限らず種々の区間検出方式を適用することが可能である。また例えば、複数マイク特有の区間検出方法を適用してもよい。
Here, the start end information detected by the microphone 1 and the
ステップS103では、位置パターン検出部102が、音入力部101が検出した音声信号を用いて音源とマイクの位置パターンの指標を検出する。指標は、例えば、マイクロホン間の音声到達時間差、及び、信号レベル比を用いる。
In step S103, the position
より詳細には、例えば、マイク1を基準とする場合に、マイク2への音声到達時間差が大きくなるほどマイク1に音源が近づいている。またマイク1側の信号レベルがマイク2と比較して大きいほどマイク1に音源が近づいている。
More specifically, for example, when the microphone 1 is used as a reference, the sound source is closer to the microphone 1 as the difference in the voice arrival time to the
この2つの指標を算出する際には、目的とする音声の初期音声区間を使用する。初期音声とは音声が検出されてから一定区間の音声である。マイクロホン間の音声到達時間差は相互相関を用いることによって算出する。最も早く音声始端が検出されたマイクの始端検出時を時刻0とし、マイク1に入力される音声信号をx1、x1の相関算出区間を時刻tsから時刻teとし(S1<ts<te)、その区間中の波形をパワーで正規化したものをx1’とする。また、マイク2に入力される音声信号をx2とし、音声到達時間差を求めるための区間[0−T]の時刻Tを、最も遅く音声始端が検出されたマイクの始端検出時から少なくともtsからtdの区間以上取れるように設定する。例えば、S1<S2の場合、次式(1)により、Tを設定する。
When calculating these two indexes, the initial speech section of the target speech is used. The initial voice is a voice in a certain section after the voice is detected. The difference in voice arrival time between microphones is calculated by using cross-correlation. The time when the start of the microphone whose ear start is detected earliest is detected as time 0, the sound signal input to the microphone 1 is set as x1, and the correlation calculation section of x1 is set as time te from time ts (S1 <ts <te). Let x1 'be the waveform normalized in power in the interval. Further, the audio signal input to the
式(1)において、出音声到達時間差tdは、次式(2)から(4)を用い、式(5)で表すことができる。
この到達時間差tdが音源と各マイクとの位置パターン判定指標の一つとなる。マイクが2つの場合はマイク1からマイク2に対しての到達時間差tdを求めれば正負の符号を逆にすることによってマイク2からマイク1に対しての到達時間差となる。
マイク1,マイク2間の信号レベル比ddは先ほど求めたtdを使い下式で求めることができる。
The signal level ratio dd between the microphone 1 and the
式(6)の信号レベル比ddが音源と各マイクとの位置パターン判定指標の一つとなる。なお、位置パターン判定指標は前述のもののみに限らず、様々な基準を適用することが可能である。例えば、先に算出した相関の最大値などもこれに含まれる。最大相関値がある基準よりも高ければ音源と2つのマイクが等距離にあり、最大相関値がある基準よりも低ければどちらか一方のマイクには音源が近く、一方のマイクに対しては音源が遠いという位置パターンを導き出すことができる。最大相関値rmaxは次式(7)により算出される。
ステップS104では、処理決定部103が、位置パターン検出部102で算出した位置パターンを判定するための指標を使い、下記の(1)から(3)の3つの位置パターンの何れに属するかを照合する。図3ないし図5は、3つの位置パターンを示す図である。
In step S104, the
(1)マイク1に音源が接近している(図3)。
(2)マイク2に音源が接近している(図4)。
(3)どちらのマイクにも音源は接近していない(図5)。
(1) A sound source is approaching the microphone 1 (FIG. 3).
(2) A sound source is approaching the microphone 2 (FIG. 4).
(3) The sound source is not close to either microphone (FIG. 5).
到達時間差判定閾値tthre、信号レベル差判定閾値ddthre1,ddthre2をそれぞれ定数(ただし、tthre>0,ddthre1>ddthre2>0)とすると、td>0の場合に、次式(8)及び式(9)が成り立つとき、位置パターンは、(1)に分類される。
また、td<=0の場合に、次式(10)及び式(11)が成り立つとき、位置パターンは、(2)に分類される。
(1)及び(2)の何れにも分類されなければ、位置パターンは(3)に分類される。
Further, when td <= 0, when the following expressions (10) and (11) hold, the position pattern is classified into (2).
If it is not classified into either (1) or (2), the position pattern is classified into (3).
ステップS105では、信号処理部104が、分類された位置パターンに応じて予め定められた処理を行う。図6及び図7は、信号処理部104における、信号処理の切り替え時の動作を示す図である。図6は、位置パターン(2)と分類された場合の、音声処理装置の例を示す図であり、図7は、位置パターン(1)と分類された場合の、音声処理装置の例を示す図である。 In step S105, the signal processing unit 104 performs a predetermined process according to the classified position pattern. 6 and 7 are diagrams illustrating an operation when the signal processing unit 104 switches the signal processing. FIG. 6 is a diagram illustrating an example of the voice processing device when classified as the position pattern (2), and FIG. 7 illustrates an example of the voice processing device when classified as the position pattern (1). FIG.
以下、信号処理の切り替えについて説明する。 Hereinafter, switching of signal processing will be described.
位置パターンが(1)に分類された場合、マイク1に入力される音声を目的音声とし、マイク2に入力される音を雑音として処理する。具体的には、音声処理装置100の出力音声oは、αを定数(0≦α)とすると、先ほど算出した遅延時間tdを用いて、次式(12)で表すことができる。
また、このとき信号を周波数領域に変換してスペクトルサブトラクションを行っても良い。または、エコーキャンセラ等でよく用いられる適応フィルタを用いてx2を参照信号としてx1から雑音成分を除去する方法も可能である。 At this time, spectrum subtraction may be performed by converting the signal into the frequency domain. Alternatively, a method of removing a noise component from x1 using x2 as a reference signal using an adaptive filter often used in an echo canceller or the like is also possible.
位置パターンが(2)に分類された場合、マイク2に入力される音声を目的音声とし、マイク1に入力される音を雑音として処理する。具体的な処理は位置パターン(1)の場合の処理のマイク1とマイク2を入れ替えたときと同じである。このとき出力音声oは、次式(13)で表される。
このようにある特定のマイクに音源が近づいているというような位置パターンとして分類された場合の処理は他にも考えることができる。例えば、αを前記最大相関値の関数にし、減算量を調整しても良い。このときa、bを定数とする一次関数により次式(14)によりαの値を制御することができる。
式(14)のようにしてαを表現することによって最大相関値が高いときには減算量を小さく、低い時には減算量を大きくすることができる。 By expressing α as in Expression (14), the subtraction amount can be reduced when the maximum correlation value is high, and the subtraction amount can be increased when the maximum correlation value is low.
位置パターンが(3)に分類された場合、マイク1、マイク2に入力される音声を両方用いて遅延和アレー処理を行う。遅延和アレーを用いた場合、出力音声oは、次式(15)で表される。
尚、このアレー処理適応部では上記方式に限定されず、例えばGriffiths−Jim型のアレー処理を適用することによって、2つのマイクロホンで一定の角度に対して雑音の死角を形成し、その範囲の音声に対してSNRの高い目的音声oを抽出することが可能となる。
図2に戻り、ステップS106では、音入力部101で終端が検出され、音声処理終了を終了する。
Note that this array processing adaptation unit is not limited to the above-mentioned method. For example, by applying Griffiths-Jim type array processing, a dead angle of noise is formed with respect to a certain angle by two microphones, and the sound in the range is used. It is possible to extract the target speech o having a high SNR.
Returning to FIG. 2, in step S <b> 106, the
以上、2つのマイクロホンを例に、本発明の実施の形態を説明したが、本発明を実施するに当って、マイクロホンが2本であることは必須ではなく、本発明を3つ以上のマイクロホンに拡張することも可能である。マイク3つの場合、マイクをマイク1、マイク2、マイク3とすると、以下の7つの位置パターンを用意する。
As described above, the embodiment of the present invention has been described by taking two microphones as an example. However, in implementing the present invention, it is not essential that there are two microphones, and the present invention is divided into three or more microphones. It is also possible to expand. In the case of three microphones, if the microphones are microphone 1,
(1’)マイク1に接近している。
(2’)マイク2に接近している。
(3’)マイク3に接近している。
(4’)マイク1、2に接近している。
(5’)マイク2、3に接近している。
(6’)マイク1、3に接近している。
(7’)どのマイクにも接近していない。
(1 ′) The microphone 1 is approaching.
(2 ′) Approaching the
(3 ′) Approaching the microphone 3.
(4 ′) Close to
(5 ′) Close to
(6 ′) Close to microphones 1 and 3.
(7 ') No microphone is approaching.
入力される音信号に対し、先述の到達時間差、信号レベル差を用いてどの位置パターンに分類されるかを決定する。より詳細には、マイク1からマイク2への到達時間差をtd12とし、式(2)ないし式(5)により算出する。他のマイク間の到達時間差も同様に、td13、td21、td23、td31、td32とし、これらを算出する。またマイク1のマイク2に対する信号レベル差をdd12とし、式(6)により算出する。他のマイク間の信号レベル差も同様に、dd13、dd21、dd21、dd23、dd31、dd32とし、これらを算出する。
The position pattern to be classified is determined by using the arrival time difference and the signal level difference described above for the input sound signal. More specifically, the arrival time difference from the microphone 1 to the
このとき音源から最も近いマイクn1は他2つのマイクとの到達時間差が正の値となる。2番目に音源に近いマイクn2は残る一つのマイクに対して到達時間差が正となり、マイクn1に対しては負となる。最も音源から遠いマイクn3は他2つのマイクとの到達時間差が負の値となる。そこで、この特性により、先ず、何れのマイクが、マイクn1、マイクn2、マイクn3となるかを決定する。 At this time, the arrival time difference between the microphone n1 closest to the sound source and the other two microphones is a positive value. The microphone n2, which is the second closest to the sound source, has a positive arrival time difference with respect to the remaining microphone and is negative with respect to the microphone n1. The microphone n3 farthest from the sound source has a negative arrival time difference from the other two microphones. Therefore, based on this characteristic, first, which microphone is to be the microphone n1, the microphone n2, or the microphone n3 is determined.
マイクn1とマイクn2との到達時間差がtdn1n2、その到達時間差の閾値がtdthre1、マイクn1とマイクn2との信号レベル差がddn1n2、その信号レベル差の閾値がddthre1であり、次式(16)及び式(17)が満たされる場合に、マイク1がマイクn1であるとき(1’)、マイク2がマイクn1であるとき(2’)、マイク3がマイクn1であるとき(3’)の位置パターンに分類する。
次に、マイクn1とマイクn2との到達時間差がtdn1n2、その到達時間差の閾値がtdthre1、マイクn2とマイクn3との到達時間差がtdn2n3、その到達時間差の閾値がtdthre2、マイクn1とマイクn2との信号レベル差がddn1n2、その信号レベル差の閾値がddthre1、マイクn2とマイクn3との信号レベル差がddn2n3、その信号レベル差の閾値がddthre2であり、次式(18)ないし式(21)を満たす場合に、マイク3がマイクn3であるとき(4’)、マイク1がマイクn3であるとき(5’)、マイク2がマイクn3であるとき(6’)の位置パターンに分類する。
また、(1’)から(6’)のどの位置パターンにも分類されなかった場合は、全てのマイクに対する音源の距離が遠いとみなし(7’)の位置パターンに分類する。 If the position pattern is not classified into any of the position patterns (1 ') to (6'), it is regarded that the distance of the sound source with respect to all the microphones is long, and the position pattern is classified into the position pattern (7 ').
このように分類された後、各パターンによって処理を切り替える。より詳細には(1’),(2’),(3’)の場合は、式(22)による処理を行い、音源に近いマイクの目的音から雑音を減算する。
但し、α1、α2は定数であり、α1≧0、α2≧0である。
After the classification, the process is switched according to each pattern. More specifically, in the case of (1 ′), (2 ′), and (3 ′), the processing according to Expression (22) is performed, and noise is subtracted from the target sound of the microphone close to the sound source.
However, α1 and α2 are constants, and α1 ≧ 0 and α2 ≧ 0.
また、(4’)、(5’)、(6’)の場合は、式(23)による処理を行う。これにより、音源に近い2つのマイクは遅延和アレーで音声強調され、音源から最も遠いマイクの出力は雑音の減算に使用される。
また、(7’)の場合は、式(24)により処理を行う。これにより、全てのマイクを使って遅延和アレーで音声強調される。
このように3つのマイクロホンにも容易に拡張可能である。
In the case of (7 ′), the processing is performed according to the equation (24). As a result, voice enhancement is performed with a delay-and-sum array using all microphones.
Thus, it can be easily expanded to three microphones.
また3つ以上のマイクを使い、3次元空間で音源位置を推定してもよい。音源位置が推定できた場合,各マイクから音源までの距離を算出することができる。この処理によって得られたマイク−音源間の距離をそれぞれld1,ld2,ld3とする。 Further, the sound source position may be estimated in a three-dimensional space using three or more microphones. When the sound source position can be estimated, the distance from each microphone to the sound source can be calculated. The distances between the microphone and the sound source obtained by this processing are denoted by ld 1 , ld 2 , and ld 3 , respectively.
このとき,距離閾値ldthreを定数として、次式(25)を満たす場合に、(1’)に分類される。
同様に、(2’)〜(7’)の位置パターンへの分類も実現することができる。
At this time, if the following formula (25) is satisfied with the distance threshold ld_thre as a constant, the distance is classified as (1 ′).
Similarly, classification into position patterns (2 ′) to (7 ′) can also be realized.
(第2の実施形態)
図8は、第2の実施形態に係わる音声処理装置を示すブロック図である。第2の実施形態に係わる音声処理装置100aは、音信号に対し、位置センサにより取得される音源の位置毎に対応する処理を選択して行う。音声処理装置100aは、音入力部101、位置パターン検出部102a、処理決定部103a、信号処理部104、及び、パターンDB109aを有する。
(Second Embodiment)
FIG. 8 is a block diagram showing a speech processing apparatus according to the second embodiment. The
音入力部101は、入力音から、音声の始終端を検出する。位置パターン検出部102aは、位置センサからの信号により、音源とマイクとの位置パターンの指標を検出する。処理決定部103aは、位置パターンの指標を、予め保持する位置パターンに照合することによって実行する処理を決定する。信号処理部104は、処理決定部の決定に従って処理を行う。
The
パターンDB109aは、音源とマイクとの位置バターンを保持する。パターンDB109aには、音源とマイクとの相対的な位置の位置パターン毎に、位置センサからの入力される信号の指標が対応づけられている。パターンDB109aに格納される位置パターンは、位置パターン検出部102aから読み出され、位置センサからの入力と照合される。 The pattern DB 109a holds a position pattern between the sound source and the microphone. In the pattern DB 109a, an index of a signal input from the position sensor is associated with each position pattern of a relative position between the sound source and the microphone. The position pattern stored in the pattern DB 109a is read from the position pattern detection unit 102a and collated with the input from the position sensor.
図9は、第2の実施形態に係わる音声処理装置の動作を示すフローチャートである。2つのマイクロホン(マイク1、マイク2)を使用し、目的音声を処理する例を用いて説明する。なお、マイクロホンが2つであることは必須ではなく、マイクロホンが2つ以上あれば実施可能である。また目的音が音声であることも必須要素ではない。本実施形態の動作は位置センサ、位置パターン検出部102a、及び、処理決定部103aの動作を除き第1の実施形態と同様であり、第1の実施形態と同じ動作の部分は説明を割愛する。 FIG. 9 is a flowchart showing the operation of the speech processing apparatus according to the second embodiment. A description will be given using an example of processing target speech using two microphones (microphone 1 and microphone 2). Note that it is not essential that there are two microphones, and this is possible if there are two or more microphones. It is not an essential element that the target sound is a voice. The operation of this embodiment is the same as that of the first embodiment except for the operations of the position sensor, the position pattern detection unit 102a, and the processing determination unit 103a, and the description of the same operation part as that of the first embodiment is omitted. .
ステップS203では、各マイク近くに取り付けられた距離センサからの出力により、そのセンサでの測定結果を位置パターン判定指標とする。具体的には、距離センサを各マイクから音源に当る対象物体までの距離を測定できる赤外線センサなどとし、各マイクから音源までの距離を測定する。マイクを2つ使用し、それぞれマイク1、マイク2から音源までの距離をld1、ld2とする。
In step S203, based on the output from the distance sensor attached near each microphone, the measurement result of that sensor is used as a position pattern determination index. Specifically, the distance sensor is an infrared sensor or the like that can measure the distance from each microphone to the target object that hits the sound source, and the distance from each microphone to the sound source is measured. Two microphones are used, and the distances from the microphone 1 and the
ステップS204では、処理決定部103aが、位置パターン検出部102で算出した位置パターン判定指標を使い、3つの位置パターンのどれに属するか分類する。3つのパターンを以下に示す。
(1A)マイク1に音源が接近している。
(2A)マイク2に音源が接近している。
(3A)どちらのマイクにも音源は接近していない。
In step S204, the process determination unit 103a uses the position pattern determination index calculated by the position
(1A) A sound source is approaching the microphone 1.
(2A) A sound source is approaching the
(3A) No sound source is approaching either microphone.
このとき,距離閾値ldthreを定数とすると、次式(26)が成り立つ場合に、(1A)に分類し、次式(27)が成り立つ場合に、(2A)に分類する。
上記の何れでもない場合には、(3A)の位置パターンに分類する。位置パターン分類後の、ステップS205及びステップS206の処理は、図2のステップS105及びステップS106と同じあるので、ここでは説明を省略する。 If none of the above, the position pattern is classified into (3A). Since the processing of step S205 and step S206 after the position pattern classification is the same as step S105 and step S106 of FIG. 2, description thereof is omitted here.
(第3の実施形態)
図10は、第3の実施形態に係わる音声処理装置を示すブロック図である。第3の実施形態に係わる音声処理装置100bは、位置センサからの入力と、音信号と、に基づいて、音源の位置パターンを検出し、位置パターン毎に対応する音声処理を実行する。
(Third embodiment)
FIG. 10 is a block diagram showing a speech processing apparatus according to the third embodiment. The
音声処理装置100bは、音入力部101、位置パターン検出部102b、処理決定部103b、信号処理部104、及び、パターンDB109bを有する。
音入力部101は、マイクからの入力音をデジタル化された音信号に変換し、音声の始終端を検出する。位置パターン検出部102bは、位置センサからの入力と音声とから音源とマイクとの位置パターンの指標を検出する。処理決定部103bは、位置パターンの指標を、予め保持する位置パターンに照合することによって実行する処理を決定する。信号処理部104は、処理決定部の決定に従って処理を行う。
The
The
パターンDB109bは、マイクと音源との位置パターンを保持する。パターンDB109bには、マイクと音源との相対的な位置の位置パターン毎に、位置センサから入力される信号の指標と音信号の指標との組み合わせが対応づけられている。パターンDB109bに格納されるパターンは、位置パターン検出部102bから呼び出され、音入力部101が取得した音信号及び位置センサからの入力と照合される。
The pattern DB 109b holds a position pattern between the microphone and the sound source. In the pattern DB 109b, a combination of a signal index and a sound signal index input from the position sensor is associated with each position pattern of the relative positions of the microphone and the sound source. The pattern stored in the pattern DB 109b is called from the position pattern detection unit 102b and collated with the sound signal acquired by the
図11は、第3の実施形態に係わる音声処理装置の動作を示すフローチャートである。ここでは、2つのマイクロホン(マイク1,マイク2)を使用し目的音声を処理する例を用いて説明する。なお、マイクロホンが2つであることは必須ではなく,マイクロホンが2つ以上あればよい。また目的音が音声であることも必須要素ではない。本実施形態の動作は位置パターン検出部102b、及び、処理決定部103bの動作が、第2の実施形態と異なる他は、第2の実施形態と同様であるので、同動作の部分はここでは、説明を割愛する。
FIG. 11 is a flowchart showing the operation of the speech processing apparatus according to the third embodiment. Here, a description will be given using an example in which target microphones are processed using two microphones (microphone 1 and microphone 2). Note that it is not essential that there are two microphones, and there may be two or more microphones. It is not an essential element that the target sound is a voice. The operation of this embodiment is the same as that of the second embodiment except that the operations of the position pattern detection unit 102b and the
音声処理装置100bは、例えば、位置センサとして距離センサを用いるとよい。ステップS303では、位置パターン検出部102bが、距離センサによる測定結果と音声情報とを位置パターン判定指標として取得する。
The
より詳細には、位置センサとして赤外線センサなどを使い、本装置から音源までの距離を測定する。また音信号を取得するマイクを2つ使用し、センサを使って取得した音声処理装置100bから音源までの距離をldとする。また第1の実施形態と同様に,音声到達時間差td、信号レベル比ddもそれぞれ求めておく。
More specifically, an infrared sensor or the like is used as a position sensor, and the distance from the device to the sound source is measured. Also, two microphones that acquire sound signals are used, and the distance from the
ステップS304では、処理決定部103bが、位置パターン検出部で算出した位置パターン判定指標を使い,3つの位置パターンのどれに属するか分類する。3つのパターンを以下に示す。
(1B)マイク1に音源が接近している。
(2B)マイク2に音源が接近している。
(3B)どちらのマイクにも音源は接近していない。
In step S304, the
(1B) A sound source is approaching the microphone 1.
(2B) A sound source is approaching the
(3B) The sound source is not approaching either microphone.
到達時間差判定閾値tthre、信号レベル差判定閾値ddthre1、ddthre2、距離判定閾値ldthreをそれぞれ定数(ただし、tthre>0,ddthre1>ddthre2>0,ldthre>0)とする。ここで、td>0の場合に、次式(28)が全て成り立つとき、位置パターンを(1B)に分類する。
また、td<=0の場合に、次式(29)が全て成り立つとき、位置パターンを(2B)に分類する。
また、(1B)、(2B)の何れでもない位置パターンを(3)に分類する。この3つの位置パターン毎に、第1の実施形態の(1),(2),(3)と同様の処理を行う。
Further, when td <= 0, when the following expression (29) holds, the position pattern is classified as (2B).
Further, a position pattern that is neither (1B) nor (2B) is classified as (3). Processing similar to (1), (2), and (3) of the first embodiment is performed for each of these three position patterns.
また,角度センサからの出力を位置パターン判定指標として使用することもできる。図12は、角度センサを携帯電話に設けた例を説明する図である。図12の例では、携帯電話は、操作時は横向き,通話時は縦向きに使用される。このような機器において,機器本体に取り付けられた角度センサを使い角度を検出する。検出する角度θの例を、図12に示す。角度θは、例えば、2つのマイクを結ぶ線分と地面とが水平である位置を0度とする。また第1の実施形態と同様に、音声到達時間差td,信号レベル比ddもそれぞれ求めておく。 Also, the output from the angle sensor can be used as a position pattern determination index. FIG. 12 is a diagram illustrating an example in which an angle sensor is provided in a mobile phone. In the example of FIG. 12, the mobile phone is used in the horizontal direction during operation and in the vertical direction during a call. In such a device, an angle is detected using an angle sensor attached to the device body. An example of the detected angle θ is shown in FIG. For the angle θ, for example, the position where the line segment connecting the two microphones and the ground are horizontal is 0 degrees. Similarly to the first embodiment, the voice arrival time difference td and the signal level ratio dd are also obtained.
図12の例では、(1B),(2B),(3B)への位置パターンの分類は、到達時間差判定閾値tthre,信号レベル差判定閾値ddthre1,ddthre2,角度判定閾値θthre,をそれぞれ定数(ただし,tthre>0,ddthre1>ddthre2>0,θthre≧0)とすると次式(30)及び次式(31)により行われる。 In the example of FIG. 12, the position pattern classification into (1B), (2B), and (3B) includes arrival time difference determination threshold t thre , signal level difference determination thresholds dd thre1 , dd thre2 , and angle determination threshold θ thre . If constants (where t thre > 0, dd thre1 > dd thre2 > 0, θ thre ≧ 0), respectively, the following equations (30) and (31) are performed.
td>0の場合に、次式(30)が成り立つとき、位置パターンは、(1B)に分類される。
td<=0の場合に、次式(31)が成り立つとき、位置パターンは、(2B)に分類される。
位置パターンが(1B),(2B)の何れでもない場合には、(3B)に分類される。
When td <= 0, when the following equation (31) holds, the position pattern is classified as (2B).
If the position pattern is neither (1B) nor (2B), it is classified as (3B).
(コンピュータ等による実現 最小構成)
次に、本実施の形態にかかる音声処理装置のハードウェア構成について図13を用いて説明する。図13は、本実施の形態にかかる音声処理装置のハードウェア構成を示す説明図である。
(Minimum configuration realized by computer etc.)
Next, the hardware configuration of the speech processing apparatus according to this embodiment will be described with reference to FIG. FIG. 13 is an explanatory diagram showing a hardware configuration of the speech processing apparatus according to the present embodiment.
本実施の形態にかかる音声処理装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
The audio processing apparatus according to the present embodiment is connected to a control device such as a CPU (Central Processing Unit) 51, a storage device such as a ROM (Read Only Memory) 52 and a RAM (Random Access Memory) 53, and a network. A communication I /
本実施の形態にかかる音声処理装置で実行されるプログラムは、ROM52等に予め組み込まれて提供される。
A program executed by the speech processing apparatus according to the present embodiment is provided by being incorporated in advance in the
本実施の形態にかかる音声処理装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 A program executed by the audio processing apparatus according to the present embodiment is a file in an installable format or an executable format, and is a CD-ROM (Compact Disk Read Only Memory), a flexible disk (FD), a CD-R (Compact). You may comprise so that it may record and provide on computer-readable recording media, such as a Disk Recordable (DVD) and DVD (Digital Versatile Disk).
さらに、本実施の形態にかかる音声処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態にかかる音声処理装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。 Furthermore, the program executed by the audio processing apparatus according to the present embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. The program executed by the speech processing apparatus according to the present embodiment may be provided or distributed via a network such as the Internet.
本実施の形態にかかる音声処理装置で実行されるプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU51が上記ROM52からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。
The program executed by the speech processing apparatus according to the present embodiment has a module configuration including the above-described units. As actual hardware, the
なお、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
以上のように、本発明の実施の形態にかかる音声処理装置は、雑音除去に有用であり、特に、マイクロホンアレイから入力される音信号の処理に適している。 As described above, the sound processing apparatus according to the embodiment of the present invention is useful for noise removal, and is particularly suitable for processing a sound signal input from a microphone array.
1、2、3 マイク
100、100a、100b 音声処理装置
101 音入力部
102、102a、102b 位置パターン検出部
103、103a、103b 処理決定部
104 信号処理部
1, 2, 3
Claims (8)
前記複数のマイクの各々から入力される音信号に対する音声処理を、前記相対位置の指標に基づいて決定する処理決定部と、
前記音信号に対し、決定された前記音声処理を実行する信号処理部と、
を有することを特徴とする音声処理装置。 A position pattern detection unit for detecting an index of relative position between the sound source and the plurality of microphones;
A process determining unit that determines a sound process for a sound signal input from each of the plurality of microphones based on an index of the relative position;
A signal processing unit that executes the determined audio processing on the sound signal;
A speech processing apparatus comprising:
音源と複数のマイクとの相対位置の指標を検出する位置パターン検出部、
前記複数のマイクの各々から入力される音信号に対する音声処理を、前記相対位置の指標に基づいて決定する処理決定部、
前記音信号に対し、決定された前記音声処理を実行する信号処理部、
として機能させるためのプログラム。 Computer
A position pattern detection unit for detecting an index of relative position between the sound source and the plurality of microphones;
A process determining unit that determines a sound process for a sound signal input from each of the plurality of microphones based on an index of the relative position;
A signal processing unit that executes the determined audio processing on the sound signal;
Program to function as.
処理決定部が、前記複数のマイクの各々から入力される音信号に対する音声処理を、前記相対位置の指標に基づいて決定する処理決定ステップと、
信号処理部が、前記音信号に対し、決定された前記音声処理を実行する信号処理ステップと、
を有することを特徴とする音声処理方法。 A position pattern detection unit that detects a relative position index between the sound source and the plurality of microphones;
A process determining step in which a process determining unit determines a sound process for a sound signal input from each of the plurality of microphones based on an index of the relative position;
A signal processing step in which the signal processing unit executes the determined sound processing on the sound signal;
A voice processing method characterized by comprising:
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009076984A JP2010232862A (en) | 2009-03-26 | 2009-03-26 | Audio processing apparatus, audio processing method, and program |
| PCT/JP2009/068239 WO2010109711A1 (en) | 2009-03-26 | 2009-10-23 | Audio processing device, audio processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009076984A JP2010232862A (en) | 2009-03-26 | 2009-03-26 | Audio processing apparatus, audio processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010232862A true JP2010232862A (en) | 2010-10-14 |
Family
ID=42780414
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009076984A Pending JP2010232862A (en) | 2009-03-26 | 2009-03-26 | Audio processing apparatus, audio processing method, and program |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2010232862A (en) |
| WO (1) | WO2010109711A1 (en) |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103000184A (en) * | 2011-09-15 | 2013-03-27 | Jvc建伍株式会社 | Noise reduction apparatus, audio input apparatus, wireless communication apparatus, and noise reduction method |
| JP2013078117A (en) * | 2011-09-15 | 2013-04-25 | Jvc Kenwood Corp | Noise reduction device, audio input device, radio communication device, and noise reduction method |
| JP2013078118A (en) * | 2011-09-15 | 2013-04-25 | Jvc Kenwood Corp | Noise reduction device, audio input device, radio communication device, and noise reduction method |
| CN103260110A (en) * | 2012-02-16 | 2013-08-21 | Jvc建伍株式会社 | Noise reduction apparatus, audio input apparatus, wireless communication apparatus, and noise reduction method |
| JP2013168855A (en) * | 2012-02-16 | 2013-08-29 | Jvc Kenwood Corp | Noise reduction device, audio input device, radio communication device, noise reduction method and noise reduction program |
| JP2013172257A (en) * | 2012-02-20 | 2013-09-02 | Jvc Kenwood Corp | Voice input device, communication device, state notification method |
| JP2013223134A (en) * | 2012-04-17 | 2013-10-28 | Kyocera Corp | Mobile communication terminal |
| JP2015520551A (en) * | 2012-04-27 | 2015-07-16 | ソニーモバイルコミュニケーションズ, エービー | Noise suppression based on sound correlation in microphone arrays |
| JP2020191530A (en) * | 2019-05-21 | 2020-11-26 | 沖電気工業株式会社 | Sound pickup device, sound collection program, sound collection method, and sound collection system |
| JP2020195069A (en) * | 2019-05-28 | 2020-12-03 | 沖電気工業株式会社 | Sound pickup device, sound collection program, sound collection method, and sound collection system |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5060631B1 (en) * | 2011-03-31 | 2012-10-31 | 株式会社東芝 | Signal processing apparatus and signal processing method |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4867579B2 (en) * | 2005-11-02 | 2012-02-01 | ヤマハ株式会社 | Remote conference equipment |
-
2009
- 2009-03-26 JP JP2009076984A patent/JP2010232862A/en active Pending
- 2009-10-23 WO PCT/JP2009/068239 patent/WO2010109711A1/en not_active Ceased
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9031259B2 (en) | 2011-09-15 | 2015-05-12 | JVC Kenwood Corporation | Noise reduction apparatus, audio input apparatus, wireless communication apparatus, and noise reduction method |
| JP2013078117A (en) * | 2011-09-15 | 2013-04-25 | Jvc Kenwood Corp | Noise reduction device, audio input device, radio communication device, and noise reduction method |
| JP2013078118A (en) * | 2011-09-15 | 2013-04-25 | Jvc Kenwood Corp | Noise reduction device, audio input device, radio communication device, and noise reduction method |
| CN103000184B (en) * | 2011-09-15 | 2017-05-03 | Jvc建伍株式会社 | Noise reduction apparatus, audio input apparatus, wireless communication apparatus, and noise reduction method |
| CN103000184A (en) * | 2011-09-15 | 2013-03-27 | Jvc建伍株式会社 | Noise reduction apparatus, audio input apparatus, wireless communication apparatus, and noise reduction method |
| JP2013168855A (en) * | 2012-02-16 | 2013-08-29 | Jvc Kenwood Corp | Noise reduction device, audio input device, radio communication device, noise reduction method and noise reduction program |
| JP2013168857A (en) * | 2012-02-16 | 2013-08-29 | Jvc Kenwood Corp | Noise reduction device, audio input device, radio communication device, and noise reduction method |
| CN103260110A (en) * | 2012-02-16 | 2013-08-21 | Jvc建伍株式会社 | Noise reduction apparatus, audio input apparatus, wireless communication apparatus, and noise reduction method |
| CN103260110B (en) * | 2012-02-16 | 2018-03-16 | Jvc建伍株式会社 | Noise reduction apparatus, acoustic input dephonoprojectoscope, radio communication device and noise reduction method |
| JP2013172257A (en) * | 2012-02-20 | 2013-09-02 | Jvc Kenwood Corp | Voice input device, communication device, state notification method |
| JP2013223134A (en) * | 2012-04-17 | 2013-10-28 | Kyocera Corp | Mobile communication terminal |
| JP2015520551A (en) * | 2012-04-27 | 2015-07-16 | ソニーモバイルコミュニケーションズ, エービー | Noise suppression based on sound correlation in microphone arrays |
| JP2020191530A (en) * | 2019-05-21 | 2020-11-26 | 沖電気工業株式会社 | Sound pickup device, sound collection program, sound collection method, and sound collection system |
| JP7207159B2 (en) | 2019-05-21 | 2023-01-18 | 沖電気工業株式会社 | Sound collection device, sound collection program, sound collection method, and sound collection system |
| JP2020195069A (en) * | 2019-05-28 | 2020-12-03 | 沖電気工業株式会社 | Sound pickup device, sound collection program, sound collection method, and sound collection system |
| JP7207170B2 (en) | 2019-05-28 | 2023-01-18 | 沖電気工業株式会社 | Sound collection device, sound collection program, sound collection method, and sound collection system |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2010109711A1 (en) | 2010-09-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2010232862A (en) | Audio processing apparatus, audio processing method, and program | |
| KR101456866B1 (en) | Method and apparatus for extracting a target sound source signal from a mixed sound | |
| US9269343B2 (en) | Method of controlling an update algorithm of an adaptive feedback estimation system and a decorrelation unit | |
| TWI720314B (en) | Correlation-based near-field detector | |
| KR101444100B1 (en) | Noise cancelling method and apparatus from the mixed sound | |
| JP6553111B2 (en) | Speech recognition apparatus, speech recognition method and speech recognition program | |
| JP5819324B2 (en) | Speech segment detection based on multiple speech segment detectors | |
| KR101210313B1 (en) | System and method for utilizing inter?microphone level differences for speech enhancement | |
| KR101340520B1 (en) | Apparatus and method for removing noise | |
| KR20130085421A (en) | Systems, methods, and apparatus for voice activity detection | |
| JP4660578B2 (en) | Signal correction device | |
| JP4816711B2 (en) | Call voice processing apparatus and call voice processing method | |
| KR20110090940A (en) | Audio Source Proximity Estimation Using Sensor Arrays for Noise Reduction | |
| JP4964204B2 (en) | Multiple signal section estimation device, multiple signal section estimation method, program thereof, and recording medium | |
| KR20090037845A (en) | Method and apparatus for extracting target sound source signal from mixed signal | |
| JP2012037603A (en) | Noise estimating device, noise estimating method and noise estimating program | |
| CN106303837A (en) | The wind of dual microphone is made an uproar and is detected and suppressing method, system | |
| CN110364175B (en) | Voice enhancement method and system and communication equipment | |
| JP2016042613A (en) | Target speech section detector, target speech section detection method, target speech section detection program, audio signal processing device and server | |
| JP6540730B2 (en) | Sound collection device, program and method, determination device, program and method | |
| JP2004325127A (en) | Sound source detection method, sound source separation method, and apparatus for implementing the same | |
| CN101816190A (en) | Sound emission and collection device | |
| JP5772562B2 (en) | Objective sound extraction apparatus and objective sound extraction program | |
| JP2016158072A (en) | Sound collecting apparatus, sound processing method, and sound processing program | |
| JP6361360B2 (en) | Reverberation judgment device and program |