JP2011248025A - チャネル統合方法、チャネル統合装置、プログラム - Google Patents
チャネル統合方法、チャネル統合装置、プログラム Download PDFInfo
- Publication number
- JP2011248025A JP2011248025A JP2010119853A JP2010119853A JP2011248025A JP 2011248025 A JP2011248025 A JP 2011248025A JP 2010119853 A JP2010119853 A JP 2010119853A JP 2010119853 A JP2010119853 A JP 2010119853A JP 2011248025 A JP2011248025 A JP 2011248025A
- Authority
- JP
- Japan
- Prior art keywords
- channel
- audio
- digital signal
- signal
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】チャネルごとに音声信号を入力とし、音声ディジタル信号を出力する音声入力部12と、チャネルごとに音声ディジタル信号を入力とし、パワー値を出力するパワー計算部21と、チャネルごとに音声ディジタル信号、パワー値を入力とし、パワー値が最大となるチャネルの音声ディジタル信号を出力音声ディジタル信号として出力するチャネル選択部22と、出力音声ディジタル信号、音響モデル、言語モデルを入力とし、認識結果テキストを出力する音声認識部23と、出力音声ディジタル信号を入力とし、保存音声信号ファイル情報を出力する音声信号保存部25と、保存音声信号ファイル情報と認識結果テキストとを対応付けて保存する音声/テキスト保存部26とを備える。
【選択図】図2
Description
Claims (12)
- 複数のチャネルから音声認識に適した1のチャネルを選択して、音声認識を行うチャネル統合方法であって、
チャネルごとの音声信号を入力とし、当該音声信号をアナログ−ディジタル変換により、チャネルごとに音声ディジタル信号に変換して出力する音声入力ステップと、
前記チャネルごとの音声ディジタル信号を入力とし、当該音声ディジタル信号のパワー値をチャネルごとに計算して出力するパワー計算ステップと、
前記チャネルごとの音声ディジタル信号と、前記チャネルごとのパワー値とを入力とし、当該パワー値が最大となるチャネルの音声ディジタル信号を選択して、出力音声ディジタル信号として出力するチャネル選択ステップと、
前記出力音声ディジタル信号と、音響モデルと、言語モデルとを入力とし、音声認識処理を行って認識結果テキストを生成し、当該認識結果テキストを時間情報と対応付けて出力する音声認識ステップと、
前記出力音声ディジタル信号を入力とし、当該出力音声ディジタル信号を保存して保存音声信号ファイル情報を生成し、当該保存音声信号ファイル情報を時間情報と対応付けて出力する音声信号保存ステップと、
前記保存音声信号ファイル情報と、前記認識結果テキストと、前記時間情報とを入力とし、前記時間情報を用いて、前記保存音声信号ファイル情報と前記認識結果テキストとを対応付けて保存する音声/テキスト保存ステップと、
を備えることを特徴とするチャネル統合方法。 - 複数のチャネルから音声認識に適した1のチャネルを選択して、音声認識を行うチャネル統合方法であって、
チャネルごとの音声信号を入力とし、当該音声信号をアナログ−ディジタル変換により、チャネルごとに音声ディジタル信号に変換して出力する音声入力ステップと、
前記チャネルごとの音声ディジタル信号を入力とし、当該音声ディジタル信号のパワー値をチャネルごとに計算して出力するパワー計算ステップと、
前記チャネルごとのパワー値を入力とし、当該パワー値の正規化パワー値をチャネルごとに計算して出力するパワー正規化ステップと、
前記チャネルごとの音声ディジタル信号と、前記チャネルごとの正規化パワー値とを入力とし、当該正規化パワー値が最大となるチャネルの音声ディジタル信号を選択して、出力音声ディジタル信号として出力するチャネル選択ステップと、
前記出力音声ディジタル信号と、音響モデルと、言語モデルとを入力とし、音声認識処理を行って認識結果テキストを生成し、当該認識結果テキストを時間情報と対応付けて出力する音声認識ステップと、
前記出力音声ディジタル信号を入力とし、当該出力音声ディジタル信号を保存して保存音声信号ファイル情報を生成し、当該保存音声信号ファイル情報を時間情報と対応付けて出力する音声信号保存ステップと、
前記保存音声信号ファイル情報と、前記認識結果テキストと、前記時間情報とを入力とし、前記時間情報を用いて、前記保存音声信号ファイル情報と前記認識結果テキストとを対応付けて保存する音声/テキスト保存ステップと、
を備えることを特徴とするチャネル統合方法。 - 複数のチャネルから音声認識に適した1のチャネルを選択して、音声認識を行うチャネル統合方法であって、
チャネルごとの音声信号を入力とし、当該音声信号をアナログ−ディジタル変換により、チャネルごとに音声ディジタル信号に変換して出力する音声入力ステップと、
前記チャネルごとの音声ディジタル信号と、モノフォンと、モノフォンから構築した音声モデルと、ポーズモデルとを入力とし、チャネルごとにモノフォンの尤度を計算してモノフォン最尤スコアを取得し、チャネルごとに音声モデルとポーズモデルの尤度を計算して音声/ポーズモデル最尤スコアを取得し、チャネルごとに前記モノフォン最尤スコアと前記音声/ポーズモデル最尤スコアの差分を尤度差として出力する尤度差計算ステップと、
前記チャネルごとの音声ディジタル信号と、前記チャネルごとの尤度差とを入力とし、当該尤度差が最大となるチャネルの音声ディジタル信号を選択して、出力音声ディジタル信号として出力するチャネル選択ステップと、
前記出力音声ディジタル信号と、音響モデルと、言語モデルとを入力とし、音声認識処理を行って認識結果テキストを生成し、当該認識結果テキストを時間情報と対応付けて出力する音声認識ステップと、
前記出力音声ディジタル信号を入力とし、当該出力音声ディジタル信号を保存して保存音声信号ファイル情報を生成し、当該保存音声信号ファイル情報を時間情報と対応付けて出力する音声信号保存ステップと、
前記保存音声信号ファイル情報と、前記認識結果テキストと、前記時間情報とを入力とし、前記時間情報を用いて、前記保存音声信号ファイル情報と前記認識結果テキストとを対応付けて保存する音声/テキスト保存ステップと、
を備えることを特徴とするチャネル統合方法。 - 複数のチャネルから音声認識に適した1のチャネルを選択して、音声認識を行うチャネル統合方法であって、
チャネルごとの音声信号を入力とし、当該音声信号をアナログ−ディジタル変換により、チャネルごとに音声ディジタル信号に変換して出力する音声入力ステップと、
前記チャネルごとの音声ディジタル信号と、モノフォンと、モノフォンから構築した音声モデルと、ポーズモデルとを入力とし、チャネルごとにモノフォンの尤度を計算してモノフォン最尤スコアを取得し、チャネルごとに音声モデルとポーズモデルの尤度を計算して音声/ポーズモデル最尤スコアを取得し、チャネルごとに前記モノフォン最尤スコアと前記音声/ポーズモデル最尤スコアの差分を尤度差として出力する尤度差計算ステップと、
前記チャネルごとの音声ディジタル信号と、前記チャネルごとの尤度差とを入力とし、当該チャネルごとの尤度差からチャネルごとに重み係数を計算して、当該重み係数により前記チャネルごとの音声ディジタル信号に重みづけし、当該重みづけされた全てのチャネルの音声ディジタル信号を合成して出力音声ディジタル信号として出力するチャネル統合ステップと、
前記出力音声ディジタル信号と、音響モデルと、言語モデルとを入力とし、音声認識処理を行って認識結果テキストを生成し、当該認識結果テキストを時間情報と対応付けて出力する音声認識ステップと、
前記出力音声ディジタル信号を入力とし、当該出力音声ディジタル信号を保存して保存音声信号ファイル情報を生成し、当該保存音声信号ファイル情報を時間情報と対応付けて出力する音声信号保存ステップと、
前記保存音声信号ファイル情報と、前記認識結果テキストと、前記時間情報とを入力とし、前記時間情報を用いて、前記保存音声信号ファイル情報と前記認識結果テキストとを対応付けて保存する音声/テキスト保存ステップと、
を備えることを特徴とするチャネル統合方法。 - 請求項1から3の何れかに記載のチャネル統合方法であって、
前記チャネル選択ステップが、任意のチャネルの連続選択時間長に応じてチャネルごとに重み係数を計算し、当該重み係数により重みづけされたパワー値、もしくは重みづけされた尤度差を用いて当該重みづけされたパワー値、もしくは重みづけされた尤度差が最大となるチャネルの音声ディジタル信号を選択して、出力音声ディジタル信号として出力する重みづけサブステップを、
さらに備えることを特徴とするチャネル統合方法。 - 請求項1から3の何れかに記載のチャネル統合方法であって、
何れのチャネルも選択されない時間区間(以下、無音区間という)が発生した場合に、
前記チャネル選択ステップが、前記無音区間の直前に選択されたチャネルの当該無音区間における音声ディジタル信号と、前記無音区間の直後に選択されたチャネルの当該無音区間における音声ディジタル信号とを用いて前記無音区間を補てんして、前記無音区間における出力音声ディジタル信号として出力するマージン処理サブステップをさらに備え、
前記マージン処理サブステップは、前記無音区間の直後に選択されたチャネルの音声ディジタル信号の補てん時間長が、前記無音区間の直前に選択されたチャネルの音声ディジタル信号の補てん時間長よりも長くなるように前記無音区間を補てんすること
を特徴とするチャネル統合方法。 - 請求項1から3の何れかに記載のチャネル統合方法であって、
前記音声信号保存部が、すべてのチャネルの予め定められた時間長の音声ディジタル信号を保存しておき、音声ディジタル信号に欠損が生じた場合に、前記保存した音声ディジタル信号を用いて前記欠損を補てんすること
を特徴とするチャネル統合方法。 - 複数のチャネルから音声認識に適した1のチャネルを選択して、音声認識を行うチャネル統合装置であって、
チャネルごとの音声信号を入力とし、当該音声信号をアナログ−ディジタル変換により、チャネルごとに音声ディジタル信号に変換して出力する音声入力部と、
前記チャネルごとの音声ディジタル信号を入力とし、当該音声ディジタル信号のパワー値をチャネルごとに計算して出力するパワー計算部と、
前記チャネルごとの音声ディジタル信号と、前記チャネルごとのパワー値とを入力とし、当該パワー値が最大となるチャネルの音声ディジタル信号を選択して、出力音声ディジタル信号として出力するチャネル選択部と、
前記出力音声ディジタル信号と、音響モデルと、言語モデルとを入力とし、音声認識処理を行って認識結果テキストを生成し、当該認識結果テキストを時間情報と対応付けて出力する音声認識部と、
前記出力音声ディジタル信号を入力とし、当該出力音声ディジタル信号を保存して保存音声信号ファイル情報を生成し、当該保存音声信号ファイル情報を時間情報と対応付けて出力する音声信号保存部と、
前記保存音声信号ファイル情報と、前記認識結果テキストと、前記時間情報とを入力とし、前記時間情報を用いて、前記保存音声信号ファイル情報と前記認識結果テキストとを対応付けて保存する音声/テキスト保存部と、
を備えることを特徴とするチャネル統合装置。 - 複数のチャネルから音声認識に適した1のチャネルを選択して、音声認識を行うチャネル統合装置であって、
チャネルごとの音声信号を入力とし、当該音声信号をアナログ−ディジタル変換により、チャネルごとに音声ディジタル信号に変換して出力する音声入力部と、
前記チャネルごとの音声ディジタル信号を入力とし、当該音声ディジタル信号のパワー値をチャネルごとに計算して出力するパワー計算部と、
前記チャネルごとのパワー値を入力とし、当該パワー値の正規化パワー値をチャネルごとに計算して出力するパワー正規化部と、
前記チャネルごとの音声ディジタル信号と、前記チャネルごとの正規化パワー値とを入力とし、当該正規化パワー値が最大となるチャネルの音声ディジタル信号を選択して、出力音声ディジタル信号として出力するチャネル選択部と、
前記出力音声ディジタル信号と、音響モデルと、言語モデルとを入力とし、音声認識処理を行って認識結果テキストを生成し、当該認識結果テキストを時間情報と対応付けて出力する音声認識部と、
前記出力音声ディジタル信号を入力とし、当該出力音声ディジタル信号を保存して保存音声信号ファイル情報を生成し、当該保存音声信号ファイル情報を時間情報と対応付けて出力する音声信号保存部と、
前記保存音声信号ファイル情報と、前記認識結果テキストと、前記時間情報とを入力とし、前記時間情報を用いて、前記保存音声信号ファイル情報と前記認識結果テキストとを対応付けて保存する音声/テキスト保存部と、
を備えることを特徴とするチャネル統合装置。 - 複数のチャネルから音声認識に適した1のチャネルを選択して、音声認識を行うチャネル統合装置であって、
チャネルごとの音声信号を入力とし、当該音声信号をアナログ−ディジタル変換により、チャネルごとに音声ディジタル信号に変換して出力する音声入力部と、
前記チャネルごとの音声ディジタル信号と、モノフォンと、モノフォンから構築した音声モデルと、ポーズモデルとを入力とし、チャネルごとにモノフォンの尤度を計算してモノフォン最尤スコアを取得し、チャネルごとに音声モデルとポーズモデルの尤度を計算して音声/ポーズモデル最尤スコアを取得し、チャネルごとに前記モノフォン最尤スコアと前記音声/ポーズモデル最尤スコアの差分を尤度差として出力する尤度差計算部と、
前記チャネルごとの音声ディジタル信号と、前記チャネルごとの尤度差とを入力とし、当該尤度差が最大となるチャネルの音声ディジタル信号を選択して、出力音声ディジタル信号として出力するチャネル選択部と、
前記出力音声ディジタル信号と、音響モデルと、言語モデルとを入力とし、音声認識処理を行って認識結果テキストを生成し、当該認識結果テキストを時間情報と対応付けて出力する音声認識部と、
前記出力音声ディジタル信号を入力とし、当該出力音声ディジタル信号を保存して保存音声信号ファイル情報を生成し、当該保存音声信号ファイル情報を時間情報と対応付けて出力する音声信号保存部と、
前記保存音声信号ファイル情報と、前記認識結果テキストと、前記時間情報とを入力とし、前記時間情報を用いて、前記保存音声信号ファイル情報と前記認識結果テキストとを対応付けて保存する音声/テキスト保存部と、
を備えることを特徴とするチャネル統合装置。 - 複数のチャネルから音声認識に適した1のチャネルを選択して、音声認識を行うチャネル統合装置であって、
チャネルごとの音声信号を入力とし、当該音声信号をアナログ−ディジタル変換により、チャネルごとに音声ディジタル信号に変換して出力する音声入力部と、
前記チャネルごとの音声ディジタル信号と、モノフォンと、モノフォンから構築した音声モデルと、ポーズモデルとを入力とし、チャネルごとにモノフォンの尤度を計算してモノフォン最尤スコアを取得し、チャネルごとに音声モデルとポーズモデルの尤度を計算して音声/ポーズモデル最尤スコアを取得し、チャネルごとに前記モノフォン最尤スコアと前記音声/ポーズモデル最尤スコアの差分を尤度差として出力する尤度差計算部と、
前記チャネルごとの音声ディジタル信号と、前記チャネルごとの尤度差とを入力とし、当該チャネルごとの尤度差からチャネルごとに重み係数を計算して、当該重み係数により前記チャネルごとの音声ディジタル信号に重みづけし、当該重みづけされた全てのチャネルの音声ディジタル信号を合成して出力音声ディジタル信号として出力するチャネル統合部と、
前記出力音声ディジタル信号と、音響モデルと、言語モデルとを入力とし、音声認識処理を行って認識結果テキストを生成し、当該認識結果テキストを時間情報と対応付けて出力する音声認識部と、
前記出力音声ディジタル信号を入力とし、当該出力音声ディジタル信号を保存して保存音声信号ファイル情報を生成し、当該保存音声信号ファイル情報を時間情報と対応付けて出力する音声信号保存部と、
前記保存音声信号ファイル情報と、前記認識結果テキストと、前記時間情報とを入力とし、前記時間情報を用いて、前記保存音声信号ファイル情報と前記認識結果テキストとを対応付けて保存する音声/テキスト保存部と、
を備えることを特徴とするチャネル統合装置。 - 請求項1から7の何れかに記載されるチャネル統合方法を実行すべき指令をコンピュータに対してするプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010119853A JP5411807B2 (ja) | 2010-05-25 | 2010-05-25 | チャネル統合方法、チャネル統合装置、プログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010119853A JP5411807B2 (ja) | 2010-05-25 | 2010-05-25 | チャネル統合方法、チャネル統合装置、プログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2011248025A true JP2011248025A (ja) | 2011-12-08 |
| JP5411807B2 JP5411807B2 (ja) | 2014-02-12 |
Family
ID=45413387
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010119853A Active JP5411807B2 (ja) | 2010-05-25 | 2010-05-25 | チャネル統合方法、チャネル統合装置、プログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5411807B2 (ja) |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018532151A (ja) * | 2015-09-11 | 2018-11-01 | アマゾン テクノロジーズ インコーポレイテッド | 音声対応デバイス間の調停 |
| JP2018537700A (ja) * | 2015-09-21 | 2018-12-20 | アマゾン テクノロジーズ インコーポレイテッド | 応答を提供するための装置選択 |
| WO2019146398A1 (ja) * | 2018-01-23 | 2019-08-01 | ソニー株式会社 | ニューラルネットワーク処理装置および方法、並びにプログラム |
| JP2020109498A (ja) * | 2018-12-06 | 2020-07-16 | シナプティクス インコーポレイテッド | システム、及び、方法 |
| JP2021081654A (ja) * | 2019-11-21 | 2021-05-27 | パナソニックIpマネジメント株式会社 | 音響クロストーク抑圧装置および音響クロストーク抑圧方法 |
| JP2021081655A (ja) * | 2019-11-21 | 2021-05-27 | パナソニックIpマネジメント株式会社 | 音響クロストーク抑圧装置および音響クロストーク抑圧方法 |
| JP2022120020A (ja) * | 2021-06-08 | 2022-08-17 | 阿波▲羅▼智▲聯▼(北京)科技有限公司 | マルチサウンドゾーン音声ウェイクアップ・認識方法及び装置、電子機器、記憶媒体、コンピュータプログラム |
| US11875820B1 (en) | 2017-08-15 | 2024-01-16 | Amazon Technologies, Inc. | Context driven device arbitration |
| US11937054B2 (en) | 2020-01-10 | 2024-03-19 | Synaptics Incorporated | Multiple-source tracking and voice activity detections for planar microphone arrays |
| US12057138B2 (en) | 2022-01-10 | 2024-08-06 | Synaptics Incorporated | Cascade audio spotting system |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04212600A (ja) * | 1990-12-05 | 1992-08-04 | Oki Electric Ind Co Ltd | 音声入力装置 |
| JP2002159086A (ja) * | 2000-11-21 | 2002-05-31 | Tokai Rika Co Ltd | マイクロフォン装置 |
| JP2005055667A (ja) * | 2003-08-04 | 2005-03-03 | Sony Corp | 音声処理装置 |
| JP2005077678A (ja) * | 2003-08-29 | 2005-03-24 | Casio Comput Co Ltd | テキスト音声同期装置およびテキスト音声同期処理プログラム |
| JP2005142856A (ja) * | 2003-11-06 | 2005-06-02 | Oki Electric Ind Co Ltd | 受信装置および方法 |
| JP2009063700A (ja) * | 2007-09-05 | 2009-03-26 | Nippon Telegr & Teleph Corp <Ntt> | 音声信号区間推定装置、方法、プログラムおよびこれを記録した記録媒体 |
| WO2009097417A1 (en) * | 2008-01-29 | 2009-08-06 | Qualcomm Incorporated | Improving sound quality by intelligently selecting between signals from a plurality of microphones |
| US20100111324A1 (en) * | 2008-10-31 | 2010-05-06 | Temic Automotive Of North America, Inc. | Systems and Methods for Selectively Switching Between Multiple Microphones |
-
2010
- 2010-05-25 JP JP2010119853A patent/JP5411807B2/ja active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04212600A (ja) * | 1990-12-05 | 1992-08-04 | Oki Electric Ind Co Ltd | 音声入力装置 |
| JP2002159086A (ja) * | 2000-11-21 | 2002-05-31 | Tokai Rika Co Ltd | マイクロフォン装置 |
| JP2005055667A (ja) * | 2003-08-04 | 2005-03-03 | Sony Corp | 音声処理装置 |
| JP2005077678A (ja) * | 2003-08-29 | 2005-03-24 | Casio Comput Co Ltd | テキスト音声同期装置およびテキスト音声同期処理プログラム |
| JP2005142856A (ja) * | 2003-11-06 | 2005-06-02 | Oki Electric Ind Co Ltd | 受信装置および方法 |
| JP2009063700A (ja) * | 2007-09-05 | 2009-03-26 | Nippon Telegr & Teleph Corp <Ntt> | 音声信号区間推定装置、方法、プログラムおよびこれを記録した記録媒体 |
| WO2009097417A1 (en) * | 2008-01-29 | 2009-08-06 | Qualcomm Incorporated | Improving sound quality by intelligently selecting between signals from a plurality of microphones |
| JP2011511571A (ja) * | 2008-01-29 | 2011-04-07 | クゥアルコム・インコーポレイテッド | 複数のマイクからの信号間で知的に選択することによって音質を改善すること |
| US20100111324A1 (en) * | 2008-10-31 | 2010-05-06 | Temic Automotive Of North America, Inc. | Systems and Methods for Selectively Switching Between Multiple Microphones |
Cited By (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018532151A (ja) * | 2015-09-11 | 2018-11-01 | アマゾン テクノロジーズ インコーポレイテッド | 音声対応デバイス間の調停 |
| JP2018537700A (ja) * | 2015-09-21 | 2018-12-20 | アマゾン テクノロジーズ インコーポレイテッド | 応答を提供するための装置選択 |
| US11922095B2 (en) | 2015-09-21 | 2024-03-05 | Amazon Technologies, Inc. | Device selection for providing a response |
| US11875820B1 (en) | 2017-08-15 | 2024-01-16 | Amazon Technologies, Inc. | Context driven device arbitration |
| JP7200950B2 (ja) | 2018-01-23 | 2023-01-10 | ソニーグループ株式会社 | ニューラルネットワーク処理装置および方法、並びにプログラム |
| WO2019146398A1 (ja) * | 2018-01-23 | 2019-08-01 | ソニー株式会社 | ニューラルネットワーク処理装置および方法、並びにプログラム |
| JPWO2019146398A1 (ja) * | 2018-01-23 | 2021-01-28 | ソニー株式会社 | ニューラルネットワーク処理装置および方法、並びにプログラム |
| JP2020109498A (ja) * | 2018-12-06 | 2020-07-16 | シナプティクス インコーポレイテッド | システム、及び、方法 |
| JP7407580B2 (ja) | 2018-12-06 | 2024-01-04 | シナプティクス インコーポレイテッド | システム、及び、方法 |
| JP2021081654A (ja) * | 2019-11-21 | 2021-05-27 | パナソニックIpマネジメント株式会社 | 音響クロストーク抑圧装置および音響クロストーク抑圧方法 |
| CN114730565A (zh) * | 2019-11-21 | 2022-07-08 | 松下知识产权经营株式会社 | 声响串扰抑制装置和声响串扰抑制方法 |
| WO2021100671A1 (ja) * | 2019-11-21 | 2021-05-27 | パナソニックIpマネジメント株式会社 | 音響クロストーク抑圧装置および音響クロストーク抑圧方法 |
| WO2021100670A1 (ja) * | 2019-11-21 | 2021-05-27 | パナソニックIpマネジメント株式会社 | 音響クロストーク抑圧装置および音響クロストーク抑圧方法 |
| JP7437650B2 (ja) | 2019-11-21 | 2024-02-26 | パナソニックIpマネジメント株式会社 | 音響クロストーク抑圧装置および音響クロストーク抑圧方法 |
| JP2021081655A (ja) * | 2019-11-21 | 2021-05-27 | パナソニックIpマネジメント株式会社 | 音響クロストーク抑圧装置および音響クロストーク抑圧方法 |
| JP7486145B2 (ja) | 2019-11-21 | 2024-05-17 | パナソニックIpマネジメント株式会社 | 音響クロストーク抑圧装置および音響クロストーク抑圧方法 |
| US12119013B2 (en) | 2019-11-21 | 2024-10-15 | Panasonic Intellectual Property Management Co., Ltd. | Acoustic crosstalk suppression device and acoustic crosstalk suppression method |
| US12198686B2 (en) | 2019-11-21 | 2025-01-14 | Panasonic Intellectual Property Management Co., Ltd. | Sound crosstalk suppression device and sound crosstalk suppression method |
| US11937054B2 (en) | 2020-01-10 | 2024-03-19 | Synaptics Incorporated | Multiple-source tracking and voice activity detections for planar microphone arrays |
| JP2022120020A (ja) * | 2021-06-08 | 2022-08-17 | 阿波▲羅▼智▲聯▼(北京)科技有限公司 | マルチサウンドゾーン音声ウェイクアップ・認識方法及び装置、電子機器、記憶媒体、コンピュータプログラム |
| US12057138B2 (en) | 2022-01-10 | 2024-08-06 | Synaptics Incorporated | Cascade audio spotting system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5411807B2 (ja) | 2014-02-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5411807B2 (ja) | チャネル統合方法、チャネル統合装置、プログラム | |
| US20230230572A1 (en) | End-to-end speech conversion | |
| US11710478B2 (en) | Pre-wakeword speech processing | |
| US10332520B2 (en) | Enhanced speech generation | |
| US11823655B2 (en) | Synthetic speech processing | |
| JP2023041843A (ja) | 音声区間検出装置、音声区間検出方法及びプログラム | |
| US11735156B1 (en) | Synthetic speech processing | |
| CN111145763A (zh) | 一种基于gru的音频中的人声识别方法及系统 | |
| US11528571B1 (en) | Microphone occlusion detection | |
| US20060095260A1 (en) | Method and apparatus for vocal-cord signal recognition | |
| US20110077944A1 (en) | Speech recognition module and applications thereof | |
| US11769491B1 (en) | Performing utterance detection using convolution | |
| US20180082703A1 (en) | Suitability score based on attribute scores | |
| JP7222265B2 (ja) | 音声区間検出装置、音声区間検出方法及びプログラム | |
| US11978431B1 (en) | Synthetic speech processing by representing text by phonemes exhibiting predicted volume and pitch using neural networks | |
| US11792570B1 (en) | Parallel noise suppression | |
| Obuchi | Multiple-microphone robust speech recognition using decoder-based channel selection. | |
| JP6526602B2 (ja) | 音声認識装置、その方法、及びプログラム | |
| US7092884B2 (en) | Method of nonvisual enrollment for speech recognition | |
| US11574624B1 (en) | Synthetic speech processing | |
| JP2019144524A (ja) | ワード検出システム、ワード検出方法及びワード検出プログラム | |
| JP2014092751A (ja) | 音響モデル生成装置とその方法とプログラム | |
| US12002444B1 (en) | Coordinated multi-device noise cancellation | |
| US20250029616A1 (en) | Method and apparatus for registering and updating audio information associated with a user | |
| US12488782B1 (en) | Synthetic speech processing related to prosody prediction |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121026 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130726 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130813 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130920 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131007 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131029 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131108 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5411807 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
| R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
| R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |