JP2020012928A - Noise resistant voice recognition device, noise resistant voice recognition method, and computer program - Google Patents
Noise resistant voice recognition device, noise resistant voice recognition method, and computer program Download PDFInfo
- Publication number
- JP2020012928A JP2020012928A JP2018133977A JP2018133977A JP2020012928A JP 2020012928 A JP2020012928 A JP 2020012928A JP 2018133977 A JP2018133977 A JP 2018133977A JP 2018133977 A JP2018133977 A JP 2018133977A JP 2020012928 A JP2020012928 A JP 2020012928A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- signal
- speech recognition
- feature
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
- Image Analysis (AREA)
Abstract
【課題】単一チャネルの音声信号しか利用可能でなくても音声認識精度の高い耐雑音音声認識装置、耐雑音音声認識方法、及びコンピュータプログラムを提供する。【解決手段】音声認識装置180は、目的信号である音声信号に雑音信号が重畳した信号である音響信号112を入力とし、所定の音声強調手法により音声信号を強調した強調音声信号203を出力する音声強調回路202と、強調音声信号203と、音響信号112とを入力として受けてそれぞれ特徴量を抽出する拡大特徴抽出部200と、これらの特徴量とそのための音響モデル206を用いて音声信号の発話内容をテキスト化する音声認識部204とを含む。【選択図】図3A noise-tolerant speech recognition apparatus, a noise-tolerant speech recognition method, and a computer program are provided that achieve high speech recognition accuracy even when only a single-channel speech signal is available. A speech recognition device (180) receives as input an acoustic signal (112), which is a signal obtained by superimposing a noise signal on a speech signal (a target signal), and outputs an enhanced speech signal (203) in which the speech signal is emphasized by a predetermined speech enhancement technique. A speech enhancement circuit 202, an enlarged feature extraction unit 200 which receives as inputs an enhanced speech signal 203 and an acoustic signal 112 and extracts feature quantities, respectively, and an acoustic model 206 for the feature quantities and the speech signal. and a speech recognition unit 204 that converts the content of the speech into text. [Selection drawing] Fig. 3
Description
この発明は音声認識に関し、特に単一のマイクにより集音された音声に対しても高精度の音声認識を可能にする耐雑音音声認識装置及び方法、並びにコンピュータプログラムに関する。 The present invention relates to speech recognition, and more particularly to a noise-tolerant speech recognition apparatus and method capable of performing speech recognition with high precision even for speech collected by a single microphone, and a computer program.
近年、コンピュータの計算能力の高度化及びコンピュータサイエンスの発展に伴い、音声認識アプリケーションの利用範囲が大きく拡大している。従前から音声認識が用いられていた分野とは別に、いわゆる家電製品にも音声認識が取り入れられ、さらにスマートスピーカ等、音声認識を用いて従来にはなかった機能を提供する製品も利用者が急激に増大している。これに伴い、音声認識が利用されるシーンも多様になっている。 2. Description of the Related Art In recent years, with the advancement of computer computing power and the development of computer science, the range of use of speech recognition applications has greatly expanded. Apart from the fields in which speech recognition has been used in the past, speech recognition has also been introduced into so-called home appliances, and users, such as smart speakers, have rapidly increased the use of speech recognition in products that provide functions that were not previously available. Has increased. Along with this, scenes in which voice recognition is used have also become diverse.
一方、音声認識にとって本質的に重要なのはその精度である。音声認識が利用されるシーンが多様になると、雑音が多く、またその種類も多様になり、音声認識の精度を常に高く保つのは困難になる。そこで、雑音に対しても精度を高く保つ音声認識(耐雑音音声認識)が重要性を増している。 On the other hand, what is essential for speech recognition is its accuracy. When the scenes in which the speech recognition is used are diverse, there are many noises and various types, and it is difficult to always keep the accuracy of the speech recognition high. Therefore, speech recognition (noise-tolerant speech recognition) that maintains high accuracy even for noise has become increasingly important.
耐雑音音声認識には、従来は大きく分けて2種類の手法が用いられてきた。すなわち以下の2つである。 Conventionally, two types of techniques have been used for noise-resistant speech recognition. That is, there are the following two.
・音声強調(雑音除去)
・雑音付加学習
音声強調とは、音声認識の対象となる音声信号から雑音を除去することによって音声認識の精度を高める技術である。典型的には、マイクロホンからの音声信号に対して音声強調を行ってから音声認識の処理を行う。
・ Speech enhancement (noise removal)
-Noise-added learning Speech enhancement is a technology for improving the accuracy of speech recognition by removing noise from a speech signal to be subjected to speech recognition. Typically, voice recognition processing is performed after voice enhancement is performed on a voice signal from a microphone.
従来の音声強調技術として、後掲の非特許文献1に記載されたスペクトラル・サブトラクション法、非特許文献2に記載されたMMSE-STSA推定法(minimum mean square error short-time spectral amplitude estimator)、非特許文献3に記載されたベクトル・テイラー級数展開(Vector Taylor series)を用いた手法、及び非特許文献4に記載されたデノイジング・オートエンコーダ(denoising autoencoder)がある。
As conventional speech enhancement techniques, a spectral subtraction method described in Non-Patent Document 1, a MMSE-STSA estimation method (minimum mean square error short-time spectral amplitude estimator) described in Non-Patent
これら手法は、いずれも単一のマイクロホンから得られた音響信号について音声認識の前処理として音声強調を行う手法である。 Each of these methods is a method of emphasizing a sound signal obtained from a single microphone as preprocessing for voice recognition.
図1に、従来の音声認識装置100の概略構成を示す。図1を参照して、この音声認識装置100は、図示しないマイクロホンが出力した、波形110により表される、雑音重畳音声である音声信号112を受けて上記したいずれかの手法により音声強調を行って強調音声信号116を出力するための音声強調部114と、この強調音声信号116から所定の特徴量を抽出するための特徴抽出部118と、この特徴量に対する音声認識を行って波形110により表される音声に対応するテキスト122を出力するための音声認識部120とを含む。音声認識部120としては、例えば特許文献1に開示されたものを使用できる。
FIG. 1 shows a schematic configuration of a conventional
音声認識装置100はさらに、音声認識部120が音声認識を行う際に用いる音響モデル124、発音辞書126及び言語モデル128とを含む。音響モデル124は、特徴抽出部118から入力された特徴量に基づいて、対応する音素を推定するためのものである。発音辞書126は、音響モデル124により推定された音素列に対応する単語を得るために用いられる。言語モデル128は、発音辞書126を用いて推定された単語列により構成される認識結果の発話文の候補の各々についてその確率を算出する際に使用される。
The
図2には、音響モデル124の概略構成を示す。図2から分かるように、この音響モデル124はいわゆる深層ニューラル・ネットワークからなり、特徴量を受ける入力層150及びこの特徴量から推定された音素を特定する情報を出力する出力層162と、入力層150及び出力層162の間に順番に設けられた複数の隠れ層152、隠れ層154、隠れ層156、隠れ層158、及び隠れ層160とを含む。音響モデル124の構成及び学習方法はよく知られているのでここではその詳細は繰返さない。音響モデル124の学習には雑音を含まないクリーン音声が用いられる。なお、推定された音素を特定する情報としては、例えば音素の集合の各要素についての確率ベクトルという形が考えられる。以下、本明細書では、記載を簡潔にするために、音素を特定する情報を出力することを単に「音素を出力する」という。
FIG. 2 shows a schematic configuration of the
一方、雑音付加学習は、雑音を含む音声信号を学習データとして、深層ニューラル・ネットワークによる音響モデルを学習することにより、雑音を含む音声に対する音声認識精度を高めようとする手法である。この場合は、音声信号に対する前処理は行わないが、音声認識の対象はやはり単一の音声信号である。 On the other hand, the noise-added learning is a method for improving the speech recognition accuracy for speech containing noise by learning an acoustic model using a deep neural network using speech signals containing noise as learning data. In this case, no preprocessing is performed on the voice signal, but the target of voice recognition is still a single voice signal.
近年では、単一チャネルのマイクロホンから得た音声信号に対する音声強調ではなく、複数チャネルのマイクロホン(マイクロホンアレイ)から得た多チャネル音声強調が音声認識の前処理とし幅広く利用されている。その好例がスマートスピーカである。スマートスピーカは、様々な企業により開発及び販売され、特に米国等で急速に普及している。 In recent years, multichannel speech enhancement obtained from microphones (microphone arrays) of multiple channels has been widely used as preprocessing for speech recognition, instead of speech enhancement for audio signals obtained from microphones of a single channel. A good example is a smart speaker. Smart speakers have been developed and sold by various companies, and are rapidly spreading especially in the United States and the like.
マイクロホンアレイを用いることにより、音源の空間情報も用いて雑音除去ができるため、高精度かつ低歪で音声強調が行える。 By using the microphone array, noise can be removed using the spatial information of the sound source, so that voice enhancement can be performed with high accuracy and low distortion.
しかし、多チャネルの音声信号を用いる場合、そのためのマイクロホンアレイ及び多チャネルマイクアンプという特殊なデバイスが必要となる。また音声信号に対する処理量及び転送量が増大する。こうした問題のため、例えばいわゆるスマートホンのようにマイクロホンが1つしかなく、処理量にも限界があるデバイスには適用できないという問題がある。 However, when using multi-channel audio signals, special devices such as a microphone array and a multi-channel microphone amplifier are required. Further, the processing amount and the transfer amount for the audio signal increase. Due to such a problem, there is a problem that it cannot be applied to a device having only one microphone such as a so-called smartphone and having a limited processing amount.
このため、スマートホンでは前記した音声強調処理のいずれかが適用されるが、この場合には大幅な音声歪の増大が見られ、音声認識精度が著しく劣化してしまうという問題がある。 For this reason, any of the above-described voice emphasizing processes is applied to a smartphone, but in this case, a significant increase in voice distortion is observed, and there is a problem that voice recognition accuracy is significantly deteriorated.
それ故に本発明の目的は、単一チャネルの音声信号しか利用可能でなくても音声認識精度を高くできる音響モデル及び音声認識装置、並びにそのためのコンピュータプログラムを提供することである。 Therefore, an object of the present invention is to provide an acoustic model and a speech recognition device capable of improving speech recognition accuracy even when only a single-channel speech signal is available, and a computer program therefor.
本発明の第1の局面に係る耐雑音音声認識装置は、目的信号である音声信号に雑音信号が重畳した音響信号を入力とし、音声信号が強調された強調音声信号を出力する音声強調回路と、強調音声信号と、音響信号とを受け、音声信号の発話内容をテキスト化する音声認識部とを含む。 A noise-tolerant speech recognition device according to a first aspect of the present invention includes a speech enhancement circuit that receives an audio signal in which a noise signal is superimposed on a speech signal as a target signal, and outputs an enhanced speech signal in which the speech signal is enhanced. And a voice recognition unit that receives the emphasized voice signal and the acoustic signal and converts the uttered content of the voice signal into text.
好ましくは、音声強調回路は、音響信号に対して第1の種類の音声強調処理を行って第1の強調音声信号を出力する第1の音声強調部と、音響信号に対して第1の種類と異なる第2の種類の音声強調処理を行って第2の強調音声信号を出力する第2の音声強調部とを含み、音声認識部は、第1及び第2の強調音声信号と、音響信号とを受け、音声信号の発話内容をテキスト化する。 Preferably, the audio enhancement circuit performs a first type of audio enhancement processing on the audio signal and outputs a first enhanced audio signal, and a first audio enhancement unit for the audio signal. A second voice enhancement unit that performs a second type of voice enhancement process different from the above and outputs a second enhanced voice signal. The speech recognition unit includes a first and a second enhanced voice signal, and a sound signal. Then, the speech content of the voice signal is converted to text.
より好ましくは、音声認識部は、音響信号から第1の特徴量を抽出する第1の特徴抽出手段と、強調音声信号から第2の特徴量を抽出する第2の特徴抽出手段と、第2の特徴量の各々について、第1の特徴量と、第2の特徴量とに応じて取捨選択する特徴選択手段と、特徴選択手段により選択された第2の特徴量を用いて音声信号の発話内容をテキスト化する音声認識手段とを含む。 More preferably, the speech recognition unit includes a first feature extraction unit that extracts a first feature amount from the audio signal, a second feature extraction unit that extracts a second feature amount from the enhanced speech signal, Feature selecting means for selecting each of the feature quantities according to the first feature quantity and the second feature quantity, and utterance of an audio signal using the second feature quantity selected by the feature selecting means. Voice recognition means for converting the contents into text.
さらに好ましくは、耐雑音音声認識装置は、音声認識手段が音声認識に用いる音響モデルを記憶する音響モデル記憶手段をさらに含み、当該音響モデルは複数の隠れ層を持つ深層ニューラル・ネットワークであり、音響モデルは、第1の特徴量を入力として受ける第1のサブネットワークと、第2の特徴量を入力として受ける第2のサブネットワークと、第1のサブネットワークの出力と第2のサブネットワークの出力とを受け、第1の特徴量及び第2の特徴量から推定される音素を出力する第3のサブネットワークとを含む。 More preferably, the noise-tolerant speech recognition apparatus further includes acoustic model storage means for storing an acoustic model used for speech recognition by the speech recognition means, wherein the acoustic model is a deep neural network having a plurality of hidden layers, The model includes a first sub-network receiving a first feature as an input, a second sub-network receiving a second feature as an input, an output of the first sub-network, and an output of the second sub-network. And a third sub-network for outputting phonemes estimated from the first feature amount and the second feature amount.
本発明の第2の局面に係る耐雑音音声認識方法は、コンピュータが、目的信号である音声信号に雑音信号が重畳した単一チャネルの音響信号を入力として、音声信号が強調された強調音声信号を出力するステップと、コンピュータが、強調音声信号と、音響信号とを受け、音声信号の発話内容をテキスト化する音声認識ステップとを含む。 A noise-tolerant speech recognition method according to a second aspect of the present invention is characterized in that a computer receives, as an input, a single-channel acoustic signal in which a noise signal is superimposed on a speech signal as a target signal, and an enhanced speech signal in which the speech signal is emphasized. And a voice recognition step in which the computer receives the emphasized voice signal and the acoustic signal and converts the uttered content of the voice signal into text.
本発明の第3の局面に係るコンピュータプログラムは、コンピュータを、上記したいずれかの耐雑音音声認識装置として機能させる。 A computer program according to a third aspect of the present invention causes a computer to function as any of the noise-tolerant speech recognition devices described above.
本発明の解決した課題、本発明の構成及びその有利な効果は、添付の図面を参照しながら実施の形態の詳細な説明を読むことにより一層明らかとなる。 The problem solved by the present invention, the configuration of the present invention, and its advantageous effects will become more apparent by reading the detailed description of the embodiments with reference to the accompanying drawings.
以下の説明及び図面では、同一の部品には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。 In the following description and drawings, the same components are denoted by the same reference numerals. Therefore, detailed description thereof will not be repeated.
[第1の実施の形態」
図3は、本発明の第1の実施の形態に係る音声認識装置180の概略構成を示すブロック図である。図3を参照して、音声認識装置180は、波形110により表される音声についてマイクロホンが出力する、雑音重畳音声である音声信号112に対し、既存の音声強調処理を行って強調音声信号203を出力する音声強調部202と、音声信号112及び強調音声信号203の双方を入力として、拡大された音声の特徴量210及び212を抽出する拡大特徴抽出部200と、拡大特徴抽出部200が出力する特徴量210及び212を入力として受けて音声認識を行って認識後のテキスト208を出力する音声認識部204とを含む。音声認識部204としては、図1に示す音声認識部120と同様のものを用いることができる。ただし、使用する特徴量については後述するように従来のものとは異なっている。
[First Embodiment]
FIG. 3 is a block diagram illustrating a schematic configuration of the
音声認識装置180はさらに、音声認識部204が音声認識の際に用いる、図2に示す従来のものとは異なる構成の音響モデル206と、図1に示すものとそれぞれ同じ発音辞書126及び言語モデル128とを含む。これら音響モデル206、発音辞書126及び言語モデル128はいずれも後述するハードディスク等の記憶装置に記憶される。
The
拡大特徴抽出部200は、雑音重畳音声である音声信号112の入力を受けて特徴量210を出力する、図1に示すものと同様の特徴抽出部118と、音声強調部202から出力される強調音声信号203から特徴量212を抽出する、特徴抽出部118と同様の機能を持つ特徴抽出部220とを含む。本実施の形態では、特徴抽出部118と特徴抽出部220とは同じ構成を持ち、特徴量210と特徴量212とは同じ意味を持つ特徴量である。しかし、一般的には両者の入力が異なるために特徴量210及び212の値は互いに異なる。
The enlarged
図4を参照して、図3に示す音響モデル206は、雑音が重畳された音声から得られた特徴量210と、強調音声信号203から得られた特徴量212との双方を入力とする入力層240と、推定された音素を出力する出力層256と、これら入力層240及び出力層256の間に順番に設けられた複数の隠れ層242〜254とを含む。本実施の形態では、隠れ層の数は7層である。
Referring to FIG. 4, an
図4に示す入力層240は、いずれもベクトルである特徴量210及び212の要素数の和だけの数の入力を受ける。これら特徴量210及び212を出力する特徴抽出部118及び220は、本実施の形態では図1に示す従来の特徴抽出部118と同じ構成である。したがって、音響モデル206が受ける特徴量の数は図1に示す従来のものと比較して2倍になる。そのうち半数は雑音重畳音声から得られた特徴量であり、残りの半数は強調音声から得られた特徴量である。
The
音声認識部204の動作は、図1に示す音響モデル124に代えて音響モデル206を用いること、及び処理対象となる音響特徴量が強調音声からのものに加えて雑音重畳音声の特徴量も含むことを除き、図1に示す音声認識装置100と同じである。したがってここではその詳細な説明は繰返さない。
The operation of the
このような構成の音響モデル206を採用することにより、図14を参照して後述するように、本実施の形態に係る音声認識装置180では、図1に示す従来のものと比較してより高い精度の音声認識を行うことができた。
By employing the
なお、音響モデル206の学習は、予め雑音重畳音声と、その音声が表すテキストからなる学習データを準備することにより、通常の深層ニューラル・ネットワークと同様の誤差逆伝搬法により行うことができる。これは以下に述べる各実施の形態における学習でも同様である。
The learning of the
[第2の実施の形態]
図5に、本発明の第2の実施の形態に係る音響モデル280の構成を示す。第2の実施の形態に係る音声認識装置は、図3に示す音響モデル206に代えて図5に示す音響モデル280を用いる点を除き第1の実施の形態に係る音声認識装置180と同じである。
[Second embodiment]
FIG. 5 shows a configuration of an
音響モデル280は、雑音重畳音声の特徴量210を受ける雑音重畳音声のためのサブネットワーク300と、強調音声の特徴量212を受ける強調音声のためのサブネットワーク302と、雑音重畳音声のためのサブネットワーク300の出力及び強調音声のためのサブネットワーク302の出力を受ける出力側サブネットワーク304と、出力側サブネットワーク304の出力を受けて音素を出力する出力層306とを含む。
The
雑音重畳音声のためのサブネットワーク300は、雑音重畳音声の特徴量210を受けるように接続された入力層320と、入力層320と出力側サブネットワーク304の入力との間に順番に接続された複数個(本実施の形態では3個)の隠れ層322、324及び326とを含む。
The
強調音声のためのサブネットワーク302は、強調音声の特徴量212を受けるように接続された入力層330と、入力層330と出力側サブネットワーク304の入力との間に順番に接続された複数個(本実施の形態では3個)の隠れ層332、334及び336とを含む。
The
出力側サブネットワーク304は、雑音重畳音声のためのサブネットワーク300及び強調音声のためのサブネットワーク302の出力を受けるように接続された隠れ層350と、この隠れ層350と出力層306との間に順に接続された隠れ層352、354及び356とを含む。
The
図5に示す音響モデル280が第1の実施の形態の音響モデル206と異なるのは、音響モデル206では入力層240が雑音重畳音声の特徴量210と強調音声の特徴量212の双方を受け、それ以後の隠れ層242〜254の全てに双方からの情報が伝搬されていくのに対し、音響モデル280では、雑音重畳音声のためのサブネットワーク300を構成する入力層320及び隠れ層322〜326には雑音重畳音声の特徴量210からの情報のみが伝搬し、強調音声のためのサブネットワーク302の入力層330及び隠れ層332〜336には強調音声の特徴量212からの情報のみが伝搬することである。両者の情報は、隠れ層350で初めて統合され、以後、隠れ層352〜356及び出力層306に伝搬する。
The
音響モデル280を採用した音声認識装置の構成は第1の実施の形態の音声認識装置180と同様である。
The configuration of the speech recognition device employing the
この第2の実施の形態に係る音響モデル280を用いた音声認識装置でも、図14に示すように従来技術より高い精度を達成できた。
The speech recognition device using the
[第3の実施の形態]
図6に、本発明の第3の実施の形態に係る音声認識装置380のブロック図を示す。この音声認識装置380は、波形110により表される音声についてマイクロホンが出力する音声信号112に対し、それぞれ既存の第1〜第4の音声強調処理を行ってそれぞれ強調音声信号203、393、395及び397を出力する音声強調部202、392、394及び396と、音声信号112及び強調音声信号203、393、395及び397を入力として、拡大された音声の特徴量210、212、430、432及び434を抽出する拡大特徴抽出部390と、拡大特徴抽出部390が出力する特徴量210、212、430、432及び434を入力として受けて音声認識を行って認識後のテキスト400を出力する音声認識部402とを含む。
[Third Embodiment]
FIG. 6 shows a block diagram of a
音声認識装置380はさらに、音声認識部402が音声認識の際に用いる音響モデル398と、図1に示すものとそれぞれ同じ発音辞書126及び言語モデル128とを含む。
The
拡大特徴抽出部390は、雑音が重畳された音声信号112を受けて特徴量210を抽出するための特徴抽出部118と、音声強調部202から強調音声信号203を受けて第1の強調音声の特徴量212を抽出するための特徴抽出部220と、音声強調部392から強調音声信号393を受けて第2の強調音声の特徴量430を出力する特徴抽出部410と、音声強調部394から強調音声信号395を受けて第3の強調音声の特徴量432を出力する特徴抽出部412と、音声強調部396から強調音声信号397を受けて第4の強調音声の特徴量434を出力する特徴抽出部414とを含む。
The enlarged
音声強調部202は非特許文献1に開示された手法により音声強調を行う。音声強調部392は非特許文献2に開示された手法により音声強調を行う。音声強調部394は非特許文献3に開示された手法により音声強調を行う。音声強調部396は非特許文献4に開示された手法により音声強調を行う。
The
図7に音響モデル398を形成する深層ニューラル・ネットワークの構成をブロック図形式で示す。図7を参照して、この音響モデル398は、図4に示す第1の実施の形態に係る音響モデル206を、4つの強調音声から抽出された特徴量を用いるよう拡張したものである。
FIG. 7 is a block diagram showing the configuration of the deep neural network forming the
音響モデル398は、雑音重畳音声の特徴量210、第1の強調音声の特徴量212、第2の強調音声の特徴量430、第3の強調音声の特徴量432及び第4の強調音声の特徴量434を受ける入力層450と、音響モデル398が推定した音素を出力する出力層454と、入力層450と出力層454との間に接続された複数の隠れ層からなる中間層452とを含む。
The
中間層452は、入力層450の出力に接続された入力を持つ隠れ層470と、それぞれの入力が前の層の出力に接続された隠れ層472、474、476、478、480及び482とを含む。隠れ層482の出力は出力層454の入力に接続されている。
The
この第3の実施の形態に係る音声認識装置380は、第2の実施の形態に係る音声認識装置180を4つの音声強調を使用するように拡張したものである。その動作も第1の実施の形態のものと基本的には同一である。
The
この第3の実施の形態でも、従来技術と比較して音声認識の精度を高くすることができた。 Also in the third embodiment, the accuracy of speech recognition can be increased as compared with the related art.
[第4の実施の形態]
第3の実施の形態では、雑音重畳音声の特徴量210及び第1〜第4の強調音声の特徴量212、430、432及び434がいずれも入力層450に入力されており、中間層452を構成する全ての隠れ層にこの情報が伝搬されている。しかし本発明はそのような実施の形態には限定されない。
[Fourth Embodiment]
In the third embodiment, the
この第4の実施の形態に係る音声認識装置は基本的に図6に示す音声認識装置380の構成と同様である。異なる点は、音声認識装置380が使用していた音響モデル398に代えて図8に示すような構成の音響モデル500を用いている点である。
The speech recognition device according to the fourth embodiment has basically the same configuration as the
図8を参照して、この音響モデル500は、雑音重畳音声である音声信号112の特徴量210を受ける第1のサブネットワーク540と、第1の強調音声の特徴量212を受ける第2のサブネットワーク542と、第2の強調音声の特徴量430を受ける第3のサブネットワーク544と、第3の強調音声の特徴量432を受ける第4のサブネットワーク546と、第4の強調音声の特徴量434を受ける第5のサブネットワーク548と、第1のサブネットワーク540、第2のサブネットワーク542、第3のサブネットワーク544、第4のサブネットワーク546及び第5のサブネットワーク548の出力を受けるように接続された中間サブネットワーク550と、中間サブネットワーク550の出力に接続された入力を持ち、音響モデル500の出力である音素の推定結果を出力する出力層552とを含む。
Referring to FIG. 8, this
第1のサブネットワーク540は、雑音重畳音声の特徴量210を受ける入力を持つ入力層570と、入力層570と中間サブネットワーク550の入力との間に順番に接続された隠れ層572、隠れ層574及び隠れ層576とを含む。
The
第2のサブネットワーク542は、第1の強調音声の特徴量212を受ける入力を持つ入力層580と、入力層580と中間サブネットワーク550の入力との間に順番に接続された隠れ層582、隠れ層584及び隠れ層586とを含む。
The
第3のサブネットワーク544は、第2の強調音声の特徴量430を受ける入力を持つ入力層590と、入力層590と中間サブネットワーク550の入力との間に順に接続された隠れ層592、隠れ層594及び隠れ層596とを含む。
The
第4のサブネットワーク546は、第3の強調音声の特徴量432を受ける入力を持つ入力層600と、入力層600と中間サブネットワーク550の入力との間に順に接続された隠れ層602、隠れ層604及び隠れ層606とを含む。
The
第5のサブネットワーク548は、第4の強調音声の特徴量434を受ける入力を持つ入力層610と、入力層610と中間サブネットワーク550の入力との間に順に接続された隠れ層612、隠れ層614及び隠れ層616とを含む。
The
中間サブネットワーク550は、第1〜第5のサブネットワーク540、542、544、546及び548の出力を受けるように接続された隠れ層620と、隠れ層620から出力層552までの間に順に接続された隠れ層622、隠れ層624及び隠れ層626とを含む。
The
この実施の形態に係る音声認識装置の構成も図6に示すものと同様で、図6の音響モデル398に代えて図8に示す音響モデル500を用いる点のみが異なる。
The configuration of the speech recognition apparatus according to this embodiment is the same as that shown in FIG. 6, except that an
第3の実施の形態では、全ての隠れ層が、雑音重畳音声の特徴量210、第1〜第4の強調音声の特徴量212、430、432及び434を伝搬している。しかし本実施の形態では、雑音重畳音声の特徴量210は第1のサブネットワーク540の内部を伝搬した後隠れ層620に入力される。同様に、第1〜第4の強調音声の特徴量212、430、432及び434はそれぞれ第2〜第5のサブネットワーク542、544、546及び548のみの中を伝搬した後、隠れ層620に入力される。隠れ層620から始まる中間サブネットワーク550の内部では、全ての特徴量が統合されて順に隠れ層を伝搬し最終的に出力層552から音素の推定結果が出力される。
In the third embodiment, all the hidden layers propagate the
この第4の実施の形態に係る音響モデル500を用いた音声認識装置でも、従来の音声認識装置より高い精度で音声認識を行うことができた。
The speech recognition device using the
[第5の実施の形態]
図9に、第5の実施の形態に係る音声認識装置で使用される音響モデル650の概略構成を示す。図9から分かるように、この音響モデル650も深層ニューラル・ネットワークからなる。
[Fifth Embodiment]
FIG. 9 shows a schematic configuration of an
図9に示す音響モデル650は、図4に示す音響モデル206において、雑音重畳音声の特徴量210と第1の強調音声の特徴量212の双方を受ける入力層240の前に、第1の強調音声の特徴量212を受け、区間[0,1]の重みを乗じて入力層240に入力するゲート層682を設けたものである。以後、図4に示すものと同様、隠れ層242から出力層256まで、これら特徴量からの情報はいずれも共通して伝搬される。
The
ゲート層682も一種の隠れ層ということができるが、その機能は通常の隠れ層と異なる。すなわち、図13を参照して、ゲート層682を一般的にゲート層1100として表現すると、ゲート層1100は入力ベクトルxtの各要素に対してゲート重みgt=σ(Wxt+b)を要素ごとに乗じて出力ベクトルytを出力するゲート機能を持つ。ここでベクトルxtをM次元とすると、WはM×M次元の重み行列、bはM次元のバイアスベクトル、σ(・)は区間[0,1]の値域である任意の活性化関数、を表す。ゲート重みの各要素は前述したとおり区間[0,1]内の値である。これら重み行列W及びバイアスベクトルbの各要素はいずれも学習の対象である。学習時には、上記した区間の制約に従うことを除き、重み行列W及びバイアスベクトルbの各要素の学習は通常の深層ニューラル・ネットワークと同じ手法を用いて学習できる。以後の説明でも、ゲート層と呼ばれる層はいずれも図13のゲート層1100と同じ機能を持ち、いずれのパラメータも上記した区間[0、1]という制約の下、他のパラメータと同様に学習できる。
The
なおこのゲート層は、入力ベクトルの各要素に対して別々にゲート処理を行うことに注意する必要がある。したがって、強調音声の特徴量ごとに、音声認識時に利用するか否かをゲート処理できる。 It should be noted that this gate layer separately performs gate processing on each element of the input vector. Therefore, it is possible to perform a gating process for each feature amount of the emphasized speech as to whether or not to use the feature during speech recognition.
この結果、各特徴量からなる入力ベクトルの要素ごとに、その要素に対する重みに応じて取捨選択がされる。この取捨選択は重み行列Wとバイアスベクトルbと、各入力ベクトルに含まれる各要素の値とにより行われることになる。すなわち、入力される特徴量の値に応じて各要素が取捨選択され、音声認識に使用される。 As a result, for each element of the input vector composed of each feature amount, selection is made according to the weight for that element. This selection is performed based on the weight matrix W, the bias vector b, and the value of each element included in each input vector. That is, each element is selected according to the value of the input feature amount and used for speech recognition.
この第5の実施の形態に係る音響モデル650を用いた音声認識装置でも、従来技術と比較して高い精度を達成できた。
The speech recognition device using the
[第6の実施の形態]
図10に、本発明の第6の実施の形態に係る音声認識装置で使用される音響モデル750の概略構成を示す。この実施の形態に係る音声認識装置自体の構成は図3に示すものと同様である。ただし、図3の音響モデル206に代えて音響モデル750を用いる点が異なる。
[Sixth Embodiment]
FIG. 10 shows a schematic configuration of an
音響モデル750は、全体として1つの深層ニューラル・ネットワークを構成する。音響モデル750は、雑音重畳音声の特徴量210の入力を受ける第1のサブネットワーク770と、第1の強調音声の特徴量212の入力を受ける第2のサブネットワーク772と、第1のサブネットワーク770の出力と第2のサブネットワーク772の出力とを受けるように接続された、深層ニューラル・ネットワークの一部である第3のサブネットワーク774と、第3のサブネットワーク774の出力を受けて音響モデル750により推定された音素を特定する出力層776とを含む。
The
第1のサブネットワーク770は、雑音重畳音声の特徴量210を受ける入力層800と、入力層800から第3のサブネットワーク774の入力までの間に順に接続された隠れ層802、隠れ層804及び隠れ層806とを含む。
The
第2のサブネットワーク772は、第1の強調音声の特徴量212を受ける入力層810と、入力層810の後に順に接続された隠れ層812、隠れ層814及び隠れ層816と、隠れ層816の出力を受けるように接続され、第5の実施の形態のゲート層682と同様の機能を持つゲート層818とを含む。
The
第3のサブネットワーク774は、第1のサブネットワーク770の出力及び第2のサブネットワーク772の出力を受ける隠れ層830と、隠れ層830以後、出力層776までの間に順に接続された隠れ層832、隠れ層834及び隠れ層836とを含む。
The
この音響モデル750は、図9に示すものと異なり、雑音重畳音声の特徴量210及び第1の強調音声の特徴量212は、音響モデル750の前半では第1のサブネットワーク770と第2のサブネットワーク772とに分離されてそれぞれの内部で伝搬される。第1のサブネットワーク770の出力はそのまま第3のサブネットワーク774に入力されるが、第2のサブネットワーク772では、最後の隠れ層816の出力に対してゲート層818でのゲート処理が実行された後、その結果が隠れ層830に入力される。
The
こうした構成により、第1の強調音声の特徴量212を利用した方が有利なときには第1の強調音声の特徴量212が有効に利用され、第1の強調音声の特徴量212を利用すると不利になるときには第2のサブネットワーク772の出力は小さな値となり、結果として音声認識には利用されない。
With such a configuration, when it is advantageous to use the
この第6の実施の形態に係る音響モデル750を用いても、従来技術と比較して高い精度で音声認識できた。
Even with the use of the
[第7の実施の形態]
図11は第7の実施の形態に係る音声認識装置で使用される音響モデル850の概略構成を示す。図11からも分かるようにこの音響モデル850も深層ニューラル・ネットワークからなる。この第7の実親形態に係る音声認識装置は、図6に示す音声認識装置380と同様である。ただし、図7の音響モデル398に代えて音響モデル850を使用する点が異なる。
[Seventh Embodiment]
FIG. 11 shows a schematic configuration of an
図11を参照して、この音響モデル850は、図7に示す音響モデル398の構成要素に加えて、入力層450の前に、第1の強調音声の特徴量212を受けて区間[0,1]の重みを乗じて入力層450に入力するゲート層892と、第2の強調音声の特徴量430を受けて区間[0,1]の重みを乗じて入力層450に入力するゲート層902と、第3の強調音声の特徴量432を受けて区間[0,1]の重みを乗じて入力層450に入力するゲート層912と、第4の強調音声の特徴量434を受けて区間[0,1]の重みを乗じて入力層450に入力するゲート層922とを含む。その他の点ではこの音響モデル850は、図7に示す音響モデル398と同一である。
Referring to FIG. 11, this
この音響モデル850では、第1〜第4の強調音声の特徴量212、430、432及び434のいずれに対してもゲート層892、902、912及び922の機能により、音声認識時に有利となるような特徴量については有効に利用し、そうでない特徴量については利用しないようにできる。その結果、この音響モデル850を用いた音声認識でも精度を高くできる。
In the
実際、後述するようにこの実施の形態の音響モデル850を用いた音声認識装置では、従来の技術よりも高い精度で音声認識を行うことができた。
In fact, as described later, the speech recognition apparatus using the
[第8の実施の形態]
図12に、本発明の第8の実施の形態に係る音声認識装置で使用される音響モデル950の概略構成を示す。音響モデル950もまた他の実施の形態に係る音響モデルと同様、深層ニューラル・ネットワークからなる。
[Eighth Embodiment]
FIG. 12 shows a schematic configuration of an
音響モデル950は、雑音重畳音声の特徴量210を受ける第1の入力サブネットワーク960と、第1の強調音声の特徴量212を受ける第2の入力サブネットワーク962と、第2の強調音声の特徴量430を受ける第3の入力サブネットワーク964と、第3の強調音声の特徴量432を受ける第4の入力サブネットワーク966と、第4の強調音声の特徴量434を受ける第5の入力サブネットワーク968と、第1〜第5の入力サブネットワーク960、962、964、966及び968の出力を受ける中間サブネットワーク970と、中間サブネットワーク970の出力を受けて音響モデル950が推定する音素を出力する出力層972とを含む。
The
第1の入力サブネットワーク960は、雑音重畳音声の特徴量210を受ける入力層980と、入力層980から中間サブネットワーク970までの間に順に接続された隠れ層982、隠れ層984及び隠れ層986とを含む。
The
第2の入力サブネットワーク962は、第1の強調音声の特徴量212を受ける入力層990と、入力層990の後に順に接続される隠れ層992、隠れ層994及び隠れ層996と、隠れ層996の出力と中間サブネットワーク970の入力との間に挿入されたゲート層998とを含む。
The
第3の入力サブネットワーク964は、第2の強調音声の特徴量430を受ける入力層1000と、入力層1000の後に順に接続された隠れ層1002、隠れ層1004及び隠れ層1006と、隠れ層1006の出力と中間サブネットワーク970の入力との間に挿入されたゲート層1008とを含む。
The
第4の入力サブネットワーク966は、第3の強調音声の特徴量432を受ける入力層1010と、入力層1010の後に順に接続された隠れ層1012、隠れ層1014及び隠れ層1016と、隠れ層1016の出力と中間サブネットワーク970の入力との間に挿入されたゲート層1018とを含む。
The
第5の入力サブネットワーク968は、第4の強調音声の特徴量434を受ける入力層1020と、入力層1020の後に順に接続された隠れ層1022、隠れ層1024及び隠れ層1026と、隠れ層1026の出力と中間サブネットワーク970の入力との間に挿入されたゲート層1028とを含む。
The
中間サブネットワーク970は、第1の入力サブネットワーク960並びに第2〜第5の入力サブネットワーク962、964、966及び968の出力を受ける隠れ層1030と、隠れ層1030と出力層972との間に順に接続された隠れ層1032、隠れ層1034及び隠れ層1036とを含む。
The
この音響モデル950を用いた音声認識装置の動作も、音響モデルとして音響モデル950を使用することを除き、図6に示す音声認識装置380と同様である。
The operation of the speech recognition device using the
この実施の形態では、第1〜第4の音声強調により得られた特徴量の各要素の各々について、区間[0、1]の値をとる係数で重み付けをして音素を推定できる。音声強調ごとに、かつその特徴量ごとに、音声認識に有利な特徴については有効に利用し、不利な特徴については使用しないようにできる。その結果、音声認識の精度を高くできる。 In this embodiment, it is possible to estimate a phoneme by weighting each element of the feature amount obtained by the first to fourth speech enhancements with a coefficient that takes a value in the section [0, 1]. For each voice emphasis and for each feature amount, it is possible to effectively use features that are advantageous for speech recognition and not to use disadvantageous features. As a result, the accuracy of voice recognition can be increased.
後述のように、この実施の形態では、従来技術での精度はもちろん、上記した第1〜第7の実施の形態のいずれよりも高い精度を実現することができた。 As will be described later, in this embodiment, it is possible to realize higher accuracy than any of the above-described first to seventh embodiments, as well as the accuracy in the prior art.
[実験結果]
図14に、上記各実施の形態について行った実験結果(単語誤り率)を表形式で示す。この実験では、非特許文献5に記載されたCHiME3(タブレットを用いた屋外で収録した音声)を認識対象として使用した。この実験で使用した音声強調処理は以下のとおりである。
[Experimental result]
FIG. 14 shows, in the form of a table, the results of experiments (word error rates) performed on the above embodiments. In this experiment, CHiME3 (voice recorded outdoors using a tablet) described in Non-Patent Document 5 was used as a recognition target. The speech emphasis processing used in this experiment is as follows.
・音声強調1:非特許文献1に開示された技術
・音声強調2:非特許文献2に開示された技術
・音声強調3:非特許文献3に開示された技術
・音声強調4:非特許文献4に開示された技術
第1、第2、第5及び第6の実施の形態に関する実験では、例えば図3に示す音声強調部202として上記音声強調1〜4をそれぞれ採用して各実施の形態の音響モデルを使用して音声認識精度を測定し、第3、第5、第7及び第8の実施の形態に関する実験では、図6に示す音声強調部202、392、394及び396として上記音声強調1〜4をそれぞれ採用し、各実施の形態の音響モデルを使用して音声認識精度を測定した。
・ Speech enhancement 1: Technology disclosed in Non-Patent Document 1 ・ Speech enhancement 2: Technology disclosed in
なお、図14には示していないが、従来の音声認識装置で音声強調なしで同じデータに対する音声認識を行った場合の単語誤り率は22.64%であった。 Although not shown in FIG. 14, the word error rate when speech recognition was performed on the same data without speech enhancement using a conventional speech recognition device was 22.64%.
図14から明らかなように、本発明の第1〜第8の実施の形態によれば、従来技術の音声強調を用いた場合よりも単語誤り率が低かった。すなわち音声認識の精度は高かった。従来の音声認識で音声強調なしの場合と比較しても、大部分の場合で精度はより高かった。特に第2の実施の形態ではいずれの音声強調を使用しても高い精度を実現できた。また第4の実施の形態及び第8の実施の形態では精度は非常に高く、特に第8の実施の形態では他の実施の形態と比較しても一段と高い精度を実現できた。 As is clear from FIG. 14, according to the first to eighth embodiments of the present invention, the word error rate was lower than in the case where the conventional speech enhancement was used. That is, the accuracy of voice recognition was high. In most cases, the accuracy was higher than in conventional speech recognition without speech enhancement. In particular, in the second embodiment, high accuracy was realized by using any of the voice enhancements. In the fourth embodiment and the eighth embodiment, the accuracy is very high. In the eighth embodiment, in particular, higher accuracy can be realized as compared with the other embodiments.
[コンピュータによる実現]
上記した各実施の形態に係る音声認識装置の各機能部は、それぞれコンピュータハードウェアと、そのハードウェア上でCPU(中央演算処理装置)及びGPU(Graphics Processing Unit)により実行されるプログラムとにより実現できる。図15に上記各音声認識装置を実現するコンピュータハードウェアを示す。GPUは通常は画像処理を行うために使用されるが、このようにGPUを画像処理ではなく通常の演算処理に使用する技術をGPGPU(General-purpose computing on graphics processing units)と呼ぶ。GPUは同種の複数の演算を同時並列的に実行できる。一方、ニューラル・ネットワークの場合、特に学習時には演算が大量に必要になるが、それらは同時に超並列的に実行可能である。したがって、音声認識装置とそこに用いられる音響モデルを構成するニューラル・ネットワークの訓練と推論にはGPUを備えたコンピュータが適している。なお、学習が終わった音響モデルを用いて音声認識を行う場合、十分高速なCPUを搭載したコンピュータであれば、必ずしもGPUを搭載していなくてもよい。
[Realization by computer]
Each functional unit of the speech recognition device according to each of the embodiments described above is realized by computer hardware and a program executed by a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit) on the hardware. it can. FIG. 15 shows computer hardware for realizing each of the above speech recognition devices. The GPU is usually used for performing image processing, and such a technique of using the GPU for normal arithmetic processing instead of image processing is called GPGPU (General-purpose computing on graphics processing units). The GPU can execute a plurality of operations of the same type simultaneously and in parallel. On the other hand, in the case of a neural network, a large amount of computation is required, especially at the time of learning. Therefore, a computer equipped with a GPU is suitable for training and inference of a speech recognizer and a neural network constituting an acoustic model used in the speech recognizer. When speech recognition is performed using an acoustic model for which learning has been completed, a computer having a sufficiently high-speed CPU need not necessarily be equipped with a GPU.
図15を参照して、このコンピュータシステム1130は、メモリポート1152及びDVD(Digital Versatile Disk)ドライブ1150を有するコンピュータ1140と、キーボード1146と、マウス1148と、モニタ1142とを含む。
Referring to FIG. 15, the
コンピュータ1140はさらに、CPU1156及びGPU1158と、これら並びにメモリポート1152及びDVDドライブ1150に接続されたバス1166と、ブートプログラム等を記憶する読出専用メモリであるROM1160と、バス1166に接続され、プログラム命令、システムプログラム及び作業データ等を記憶するコンピュータ読出可能な記憶媒体であるランダムアクセスメモリ(RAM)1162と、コンピュータ読出可能な不揮発性記憶媒体であるハードディスク1154を含む。コンピュータ1140はさらに、いずれもバス1166に接続され、ネットワーク1168への接続を提供するネットワークインターフェイス(I/F)1144と、外部との音声信号の入出力を行うための音声I/F1170とを含む。
The
コンピュータシステム1130を上記した実施の形態に係る各音声認識装置の各機能部及び音響モデルの記憶装置として機能させるためのプログラムは、DVDドライブ1150又はメモリポート1152に装着される、いずれもコンピュータ読出可能な記憶媒体であるDVD1172又はリムーバブルメモリ1164に記憶され、さらにハードディスク1154に転送される。又は、プログラムはネットワーク1168を通じてコンピュータ1140に送信されハードディスク1154に記憶されてもよい。プログラムは実行の際にRAM1162にロードされる。DVD1172から、リムーバブルメモリ1164から、又はネットワーク1168を介して、直接にRAM1162にプログラムをロードしてもよい。また、上記処理に必要なデータは、ハードディスク1154、RAM1162、CPU1156又はGPU1158内のレジスタ等の所定のアドレスに記憶され、CPU1156又はGPU1158により処理され、プログラムにより指定されるアドレスに格納される。最終的に訓練が終了した音響モデルのパラメータは、音響モデルの訓練及び推論アルゴリズムを実現するプログラムとともに例えばハードディスク1154に格納されたり、DVDドライブ1150及びメモリポート1152をそれぞれ介してDVD1172又はリムーバブルメモリ1164に格納されたりする。又は、ネットワークI/F1144を介して接続された他のコンピュータ又は記憶装置に送信される。
A program for causing the
このプログラムは、コンピュータ1140を、上記実施の形態に係る各装置及びシステムとして機能させるための複数の命令からなる命令列を含む。上記各装置及びシステムにおける数値演算処理は、CPU1156及びGPU1158を用いて行う。CPU1156のみを用いてもよいがGPU1158を用いる方が高速である。コンピュータ1140にこの動作を行わせるのに必要な基本的機能のいくつかはコンピュータ1140上で動作するオペレーティングシステム若しくはサードパーティのプログラム又はコンピュータ1140にインストールされる、ダイナミックリンク可能な各種プログラミングツールキット又はプログラムライブラリにより提供される。したがって、このプログラム自体はこの実施の形態の音声認識装置を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又はプログラミングツールキット又はプログラムライブラリ内の適切なプログラムを実行時に動的に呼出すことにより、上記したシステム、装置又は方法としての機能を実現する命令のみを含んでいればよい。もちろん、静的リンクにより必要な機能を全て組込んだプログラムをコンピュータにロードすることによって上記した音声認識装置を実現してもよい。
This program includes an instruction sequence including a plurality of instructions for causing the
[変形例]
上記第3、第4、第7及び第8の実施の形態では、4種類の音声強調処理を用いている。しかし本発明はそのような実施の形態には限定されない。2種類、3種類、又は5種類以上の音声強調処理を用いるようにしてもよい。
[Modification]
In the third, fourth, seventh, and eighth embodiments, four types of voice enhancement processing are used. However, the present invention is not limited to such an embodiment. Two, three, or five or more types of voice enhancement processing may be used.
また上記実施の形態では、音響モデルを構成する深層ニューラル・ネットワークの隠れ層は全部で7層であり、第3、第4、第7及び第8の実施の形態では、深層ニューラル・ネットワークの前半に3層、後半に4層の隠れ層を用いている。しかし本発明はそのような実施の形態に限定されるわけではない。隠れ層の層数が6層以下でも、8層以上でもよい。また第3、第4、第7及び第8の実施の形態にしたがって音響モデルを構築する際には、前半と後半の隠れ層の数をそれぞれ3層及び4層とする必要は全くない。ただし、上記実験では、前半に3層、後半に4層としたときに最もよい結果が得られたことは事実である。 Further, in the above embodiment, the hidden layer of the deep neural network constituting the acoustic model is seven layers in total, and in the third, fourth, seventh and eighth embodiments, the former half of the deep neural network is used. Three hidden layers and four hidden layers in the latter half. However, the present invention is not limited to such an embodiment. The number of hidden layers may be six or less, or eight or more. When constructing an acoustic model according to the third, fourth, seventh and eighth embodiments, the number of hidden layers in the first half and the second half does not need to be three and four, respectively. However, in the above experiment, it is true that the best results were obtained when three layers were used in the first half and four layers were used in the second half.
なお、上記実施の形態では単一チャネルの音声信号に対して本発明を適用した。しかし本発明はそうした実施の形態には限定されず、複数チャネルの音声信号に対しても適用は可能である。 In the above embodiment, the present invention is applied to a single-channel audio signal. However, the present invention is not limited to such an embodiment, and is applicable to audio signals of a plurality of channels.
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。 The embodiment disclosed this time is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is shown by each claim of the claims, in consideration of the description of the detailed description of the invention, and all changes within the meaning and range equivalent to the language described therein are described. Including.
100、180、380 音声認識装置
110 波形
112 音声信号
114、202、392、394、396 音声強調部
116、203、393、395、397 強調音声信号
118、220、410、412、414 特徴抽出部
120、204、402 音声認識部
122、208、400 テキスト
124、206、280、398、500、650、750、850、950 音響モデル
126 発音辞書
128 言語モデル
200、390 拡大特徴抽出部
210 雑音重畳音声の特徴量
212 第1の強調音声の特徴量
300 雑音重畳音声のためのサブネットワーク
302 強調音声のためのサブネットワーク
304 出力側サブネットワーク
430 第2の強調音声の特徴量
432 第3の強調音声の特徴量
434 第4の強調音声の特徴量
452 中間層
530、1130 コンピュータシステム
540、770 第1のサブネットワーク
542、772 第2のサブネットワーク
544、774 第3のサブネットワーク
546 第4のサブネットワーク
548 第5のサブネットワーク
550、970 中間サブネットワーク
682、818、892、902、912、922、998、1008、1018、1028、1100 ゲート層
960 第1の入力サブネットワーク
962 第2の入力サブネットワーク
964 第3の入力サブネットワーク
966 第4の入力サブネットワーク
968 第5の入力サブネットワーク
100, 180, 380
Claims (6)
前記強調音声信号と、前記音響信号とを受け、前記音声信号の発話内容をテキスト化する音声認識部とを含む、耐雑音音声認識装置。 An audio enhancement circuit that receives an audio signal in which a noise signal is superimposed on an audio signal that is a target signal and outputs an enhanced audio signal in which the audio signal is enhanced,
A noise-tolerant speech recognition device, comprising: a speech recognition unit that receives the emphasized speech signal and the acoustic signal and converts the uttered content of the speech signal into text.
前記音響信号に対して第1の種類の音声強調処理を行って第1の強調音声信号を出力する第1の音声強調部と、
前記音響信号に対して前記第1の種類と異なる第2の種類の音声強調処理を行って第2の強調音声信号を出力する第2の音声強調部とを含み、
前記音声認識部は、前記第1及び第2の強調音声信号と、前記音響信号とを受け、前記音声信号の発話内容をテキスト化する、請求項1に記載の耐雑音音声認識装置。 The voice emphasis circuit,
A first voice enhancement unit that performs a first type of voice enhancement process on the audio signal and outputs a first enhanced voice signal;
A second voice enhancement unit that performs a second type of voice enhancement process different from the first type on the audio signal and outputs a second enhanced audio signal,
The noise-tolerant speech recognition device according to claim 1, wherein the speech recognition unit receives the first and second emphasized speech signals and the acoustic signal, and converts the utterance content of the speech signal into text.
前記音響信号から第1の特徴量を抽出する第1の特徴抽出手段と、
前記強調音声信号から第2の特徴量を抽出する第2の特徴抽出手段と、
前記第2の特徴量の各々について、前記第1の特徴量と、前記第2の特徴量とに応じて取捨選択する特徴選択手段と、
前記特徴選択手段により選択された前記第2の特徴量を用いて前記音声信号の発話内容をテキスト化する音声認識手段とを含む、請求項1に記載の耐雑音音声認識装置。 The voice recognition unit,
First feature extraction means for extracting a first feature amount from the audio signal;
Second feature extraction means for extracting a second feature amount from the emphasized audio signal;
Feature selecting means for selecting each of the second feature values according to the first feature value and the second feature value;
2. The noise-tolerant speech recognition apparatus according to claim 1, further comprising: speech recognition means for converting the utterance content of the speech signal into text using the second feature amount selected by the feature selection means.
当該音響モデルは複数の隠れ層を持つ深層ニューラル・ネットワークであり、
前記音響モデルは、
前記第1の特徴量を入力として受ける第1のサブネットワークと、
前記第2の特徴量を入力として受ける第2のサブネットワークと、
前記第1のサブネットワークの出力と前記第2のサブネットワークの出力とを受け、前記第1の特徴量及び第2の特徴量から推定される音素を出力する第3のサブネットワークとを含む、請求項3に記載の耐雑音音声認識装置。 The speech recognition unit further includes an acoustic model storage unit that stores an acoustic model used for speech recognition,
The acoustic model is a deep neural network with multiple hidden layers,
The acoustic model is
A first sub-network receiving as input the first feature value;
A second sub-network receiving as input the second feature value;
A third sub-network that receives an output of the first sub-network and an output of the second sub-network, and outputs a phoneme estimated from the first feature and the second feature. The noise-tolerant speech recognition device according to claim 3.
コンピュータが、前記強調音声信号と、前記音響信号とを受け、前記音声信号の発話内容をテキスト化する音声認識ステップとを含む、耐雑音音声認識方法。 Computer, as an input a single-channel sound signal in which a noise signal is superimposed on a sound signal as a target signal, and outputting an emphasized sound signal in which the sound signal is emphasized,
A noise-tolerant speech recognition method, comprising: a computer receiving the emphasized speech signal and the acoustic signal, and a speech recognition step of converting a speech content of the speech signal into text.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018133977A JP7231181B2 (en) | 2018-07-17 | 2018-07-17 | NOISE-RESISTANT SPEECH RECOGNITION APPARATUS AND METHOD, AND COMPUTER PROGRAM |
| PCT/JP2019/024279 WO2020017226A1 (en) | 2018-07-17 | 2019-06-19 | Noise-tolerant voice recognition device and method, and computer program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018133977A JP7231181B2 (en) | 2018-07-17 | 2018-07-17 | NOISE-RESISTANT SPEECH RECOGNITION APPARATUS AND METHOD, AND COMPUTER PROGRAM |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020012928A true JP2020012928A (en) | 2020-01-23 |
| JP7231181B2 JP7231181B2 (en) | 2023-03-01 |
Family
ID=69164003
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018133977A Active JP7231181B2 (en) | 2018-07-17 | 2018-07-17 | NOISE-RESISTANT SPEECH RECOGNITION APPARATUS AND METHOD, AND COMPUTER PROGRAM |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7231181B2 (en) |
| WO (1) | WO2020017226A1 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023525173A (en) * | 2020-05-13 | 2023-06-15 | エヌビディア コーポレーション | Conversational AI platform with rendered graphical output |
| JP2024031314A (en) * | 2022-08-26 | 2024-03-07 | 本田技研工業株式会社 | Speech recognition device, speech recognition method, and program |
| US12451125B2 (en) | 2021-05-31 | 2025-10-21 | Kabushiki Kaisha Toshiba | Speech recognition apparatus and method |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111508475B (en) * | 2020-04-16 | 2022-08-09 | 五邑大学 | Robot awakening voice keyword recognition method and device and storage medium |
| CN114842853B (en) * | 2022-03-29 | 2025-09-23 | 厦门快商通科技股份有限公司 | Voiceprint recognition method, device and equipment based on pulse sequence enhanced speech |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001092491A (en) * | 1999-09-01 | 2001-04-06 | Trw Inc | System and method for reducing noise by using single microphone |
| JP2015102806A (en) * | 2013-11-27 | 2015-06-04 | 国立研究開発法人情報通信研究機構 | Statistical acoustic model adaptation method, acoustic model learning method suited for statistical acoustic model adaptation, storage medium storing parameters for constructing deep neural network, and computer program for statistical acoustic model adaptation |
| JP2016143043A (en) * | 2015-02-05 | 2016-08-08 | 日本電信電話株式会社 | Speech model learning method, noise suppression method, speech model learning device, noise suppression device, speech model learning program, and noise suppression program |
| JP2016180839A (en) * | 2015-03-24 | 2016-10-13 | 日本放送協会 | Noise-suppressed speech recognition device and program therefor |
| WO2017135148A1 (en) * | 2016-02-02 | 2017-08-10 | 日本電信電話株式会社 | Acoustic model learning method, voice recognition method, acoustic model learning device, voice recognition device, acoustic model learning program, and voice recognition program |
| US20170256254A1 (en) * | 2016-03-04 | 2017-09-07 | Microsoft Technology Licensing, Llc | Modular deep learning model |
-
2018
- 2018-07-17 JP JP2018133977A patent/JP7231181B2/en active Active
-
2019
- 2019-06-19 WO PCT/JP2019/024279 patent/WO2020017226A1/en not_active Ceased
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001092491A (en) * | 1999-09-01 | 2001-04-06 | Trw Inc | System and method for reducing noise by using single microphone |
| JP2015102806A (en) * | 2013-11-27 | 2015-06-04 | 国立研究開発法人情報通信研究機構 | Statistical acoustic model adaptation method, acoustic model learning method suited for statistical acoustic model adaptation, storage medium storing parameters for constructing deep neural network, and computer program for statistical acoustic model adaptation |
| JP2016143043A (en) * | 2015-02-05 | 2016-08-08 | 日本電信電話株式会社 | Speech model learning method, noise suppression method, speech model learning device, noise suppression device, speech model learning program, and noise suppression program |
| JP2016180839A (en) * | 2015-03-24 | 2016-10-13 | 日本放送協会 | Noise-suppressed speech recognition device and program therefor |
| WO2017135148A1 (en) * | 2016-02-02 | 2017-08-10 | 日本電信電話株式会社 | Acoustic model learning method, voice recognition method, acoustic model learning device, voice recognition device, acoustic model learning program, and voice recognition program |
| US20170256254A1 (en) * | 2016-03-04 | 2017-09-07 | Microsoft Technology Licensing, Llc | Modular deep learning model |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023525173A (en) * | 2020-05-13 | 2023-06-15 | エヌビディア コーポレーション | Conversational AI platform with rendered graphical output |
| JP7805785B2 (en) | 2020-05-13 | 2026-01-26 | エヌビディア コーポレーション | Conversational AI platform that utilizes rendered graphical output |
| US12451125B2 (en) | 2021-05-31 | 2025-10-21 | Kabushiki Kaisha Toshiba | Speech recognition apparatus and method |
| JP2024031314A (en) * | 2022-08-26 | 2024-03-07 | 本田技研工業株式会社 | Speech recognition device, speech recognition method, and program |
| JP7754428B2 (en) | 2022-08-26 | 2025-10-15 | 本田技研工業株式会社 | Speech recognition device, speech recognition method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7231181B2 (en) | 2023-03-01 |
| WO2020017226A1 (en) | 2020-01-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Yuliani et al. | Speech enhancement using deep learning methods: A review | |
| CN101385386B (en) | Reverberation removal device, reverberation removal method | |
| WO2020017226A1 (en) | Noise-tolerant voice recognition device and method, and computer program | |
| Erdogan et al. | Deep recurrent networks for separation and recognition of single-channel speech in nonstationary background audio | |
| CN113436643A (en) | Method, device, equipment and storage medium for training and applying speech enhancement model | |
| CN111161752A (en) | Echo cancellation method and device | |
| Ravanelli et al. | Realistic multi-microphone data simulation for distant speech recognition | |
| JP7315087B2 (en) | SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD, AND SIGNAL PROCESSING PROGRAM | |
| Wang et al. | Recurrent deep stacking networks for supervised speech separation | |
| CN113674733B (en) | Method and apparatus for speaking time estimation | |
| JP6348427B2 (en) | Noise removal apparatus and noise removal program | |
| JP6594839B2 (en) | Speaker number estimation device, speaker number estimation method, and program | |
| JP6543820B2 (en) | Voice conversion method and voice conversion apparatus | |
| JP7713113B2 (en) | Generalized automatic speech recognition for integrated acoustic echo cancellation, speech enhancement, and voice separation. | |
| Barker et al. | The CHiME challenges: Robust speech recognition in everyday environments | |
| US20230306980A1 (en) | Method and System for Audio Signal Enhancement with Reduced Latency | |
| EP3392882A1 (en) | Method for processing an input audio signal and corresponding electronic device, non-transitory computer readable program product and computer readable storage medium | |
| Saito et al. | Voice conversion using input-to-output highway networks | |
| JP4462617B2 (en) | Sound source separation device, sound source separation program, and sound source separation method | |
| KR20200028852A (en) | Method, apparatus for blind signal seperating and electronic device | |
| Wang et al. | Enhanced Spectral Features for Distortion-Independent Acoustic Modeling. | |
| Kim et al. | Efficient implementation of the room simulator for training deep neural network acoustic models | |
| JP2019090930A (en) | Sound source enhancement device, sound source enhancement learning device, sound source enhancement method and program | |
| JP7264282B2 (en) | Speech enhancement device, learning device, method thereof, and program | |
| US20240304205A1 (en) | System and Method for Audio Processing using Time-Invariant Speaker Embeddings |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210716 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220928 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230117 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230209 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7231181 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |