[go: up one dir, main page]

JP2010282083A - 誤認識訂正装置、方法及びプログラム - Google Patents

誤認識訂正装置、方法及びプログラム Download PDF

Info

Publication number
JP2010282083A
JP2010282083A JP2009136261A JP2009136261A JP2010282083A JP 2010282083 A JP2010282083 A JP 2010282083A JP 2009136261 A JP2009136261 A JP 2009136261A JP 2009136261 A JP2009136261 A JP 2009136261A JP 2010282083 A JP2010282083 A JP 2010282083A
Authority
JP
Japan
Prior art keywords
misrecognized
misrecognition
unit
location
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009136261A
Other languages
English (en)
Inventor
Shuhei Oda
修平 織田
Masahide Mizushima
昌英 水島
Kenichi Furuya
賢一 古家
Yoichi Haneda
陽一 羽田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009136261A priority Critical patent/JP2010282083A/ja
Publication of JP2010282083A publication Critical patent/JP2010282083A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】音声認識結果の訂正をより効率的に行う。
【解決手段】訂正は、(1)誤認識箇所の特定という作業と、(2)特定された誤認識箇所の訂正という作業の2つの作業からなる。2つの作業のうち(1)誤認識箇所の特定を、(2)特定された誤認識箇所の訂正を行う訂正者以外のものに行わせることにより、訂正者の負担を減らす。例えば、聴覚障害者に誤認識箇所の特定をさせる。信頼度、親密度を用いて、自動的に誤認識箇所を特定してもよい。また、誤認識箇所の特定を行う際に、誤認識箇所の優先順位を決定し、訂正者が優先順位が高い誤認識箇所から訂正を行うことができるようにする。
【選択図】図1

Description

この発明は、音声認識をする際に生じた誤認識箇所を推定し、その誤認識箇所を訂正する技術に関する。
音声認識とは、人が話した音声の音響信号をコンピュータ等により解析して、文字データに変換することをいう。変換にはある程度の間違いは避けられず、変換の誤りを含む部分である誤認識箇所が生じる。
従来、誤認識箇所を訂正するために、1人の訂正者が、音声認識結果である文章を目視して誤認識箇所を特定して、特定された誤認識箇所のすべてを特定された順に訂正していた(例えば、非特許文献1、非特許文献2参照。)。
小林正幸、西川俊、石原保志、「聴覚障害者のための音声認識を活用したリアルタイム字幕挿入システム(1)」、信学技法、社団法人電子情報通信学会、P.41−48 今井亨、「放送における情報バリアフリーのための研究開発〜生字幕製作のための音声認識〜」、放送技術、2008年8月、P.89−93
1人の訂正者が、誤認識箇所の特定という作業と特定された誤認識箇所の訂正という作業の2つの作業をすると訂正者に負担がかかり、音声認識率が低く誤認識箇所が多い場合には訂正が追いつかなくなる場合があるという課題があった。
また、誤認識箇所の中にはその前後の文脈から正しい内容を推測することが可能であり訂正を必要としないものもあるが、特定された誤認識箇所のすべてを特定された順に訂正をすると、この訂正を必要としない誤認識箇所についても訂正をすることになり、訂正の効率が悪いという課題があった。
上記の課題を解決するために、誤認識箇所特定部が上記文章中の誤認識箇所についての情報を取得し、優先順位決定部が上記誤認識箇所の優先順位についての情報を取得し、表示部は上記優先順位に応じて上記誤認識箇所を表示する。
誤認識箇所の特定を訂正者以外のものが行うことにより、訂正者は誤認識箇所の訂正に専念することができ負担が減る。
訂正者は、優先順位が高い順に誤認識箇所を訂正することが可能となり、訂正の効率が従来よりも向上する。
第一実施形態による誤認識訂正装置の例の機能ブロック図。 第二実施形態による誤認識訂正装置の例の機能ブロック図。 第三実施形態による誤認識訂正装置の例の機能ブロック図。 第一実施形態による誤認識訂正方法の例の流れ図。 第二実施形態によるステップS3の例の流れ図。 第二実施形態によるステップS3の例の流れ図。 第三実施形態によるステップS3の例の流れ図。 この発明が使用される状況を例示するイメージ図。 かしげる動作を説明するための図 うなずく動作を説明するための図。 優先順位に応じた誤認識箇所の表示例を示す図。 優先順位に応じた誤認識箇所の表示例を示す図。 優先順位に応じた誤認識箇所の表示例を示す図。 優先順位に応じた誤認識箇所の表示例を示す図。
以下、この発明の実施形態を詳細に説明する。
[第一実施形態]
まず、図8を用いて、この発明が使用される状況を例示する。この例では、聴覚障害者を含む複数人が参加する職場会議を想定している。
職場会議の参加者は、話者11、話者12及び聴覚障害者13の3人である。また、誤認識箇所の訂正を行う訂正者14が、この職場会議に同席する。話者11,12の前にはそれぞれマイク21,22が置かれており、それぞれ話者11,12の音声を集音する。マイク21,22はミキサ23を介して音声認識を行う音声認識用PC31に接続されている。音声認識用PC31、訂正者14が訂正を行う訂正用PC32、及び、誤認識箇所の訂正後の文章を聴覚障害者13に表示する文字出力用PC33は、必要な情報を送受信することができるようにネットワークで接続されている。
図1は、第一実施形態による誤認識訂正装置の機能ブロック図である。図4は、第一実施形態による誤認識訂正方法の流れ図である。
話者11,12の音声はそれぞれマイク21,22に入力されて、音声認識用PC31に取り込まれる(ステップS1)。
音声認識用PC31の音声認識部311は、話者11,12の音声を音声認識して(ステップS2)、その音声認識結果である文章を訂正用PC32及び文字出力用PC33に出力する。
文章の誤り部分を含む箇所である誤認識箇所についての情報、及び、各誤認識箇所の優先順位についての情報が取得されて(ステップS3、ステップS4)、少なくとも訂正用PC32に出力される。これらの情報は訂正者14以外のものにより生成される。これらの情報の取得方法については後述する。
誤認識箇所は、文章の誤り部分を含む箇所であり、文章の誤り部分自体(例えば、単語)であってもよいし、その誤り部分を含む箇所(例えば、句、行、段落)であってもよい。
訂正用PC32の表示部321は、音声認識結果である文章、誤認識箇所及び優先順位を表示する。訂正者14は、訂正用PC32の入力部322を用いて、優先順位に応じて訂正する(ステップS5)。例えば優先順位が高い順に誤認識箇所を訂正する。
訂正された文章は文字出力用PC33の表示部331に表示され、聴覚障害者13に示される(ステップS6)。
表示部321,331は、例えばCRT(Cathode Ray Tube)、液晶ディスプレイ等の表示機器である。入力部322,332は、例えばキーボードやマウス等の入力機器である。
文章の誤り部分を含む箇所である誤認識箇所についての情報、及び、各誤認識箇所の優先順位についての情報を取得する方法がいくつかある。
第一実施形態では、訂正者14以外の人間、例えば聴覚障害者13が誤認識箇所を特定し、その優先順位を決定する。
すなわち、聴覚障害者13は、表示部331に表示された音声認識結果である文章を見て、入力部332により誤認識箇所を特定する(ステップS3)。このように、第一実施形態では、誤認識箇所についての情報は入力部332により取得される。すなわち、入力部332が特許請求の範囲における誤認箇所特定部に対応する。
文字出力用PC33は、表示部331に表示された文章の内の誤認識箇所を他の部分と区別することができるように表示する。例えば誤認識箇所の文字色や背景を変えたり斜体にしたり、誤認識箇所を含む行や段落の文字色や背景したり斜体にしたりする。
誤認識箇所についての情報は訂正用PC32にも送られ、訂正用PC32は文字出力用PC33と同様にして、表示部321に表示された文章の内の誤認識箇所を他の部分と区別することができるように表示する。
また、聴覚障害者13は、誤認識箇所を特定する際に、その訂正認識箇所についての訂正の必要度を表す指標である優先順位を決定してもよい(ステップS4)。例えば、誤認識箇所を特定する際に、「(1)至急訂正して欲しい」「(2)訂正して欲しい」「(3)訂正しなくても良い」の何れかの優先順位を入力部332により入力する。このように、第一実施形態では、優先順位についての情報は入力部332により取得される。すなわち、入力部332が特許請求の範囲における優先順位決定部に対応する。
文字出力用PC33は、優先順位に応じて誤認識箇所の表示を変える。例えば、優先順位ごとに誤認識箇所の色を変える。
優先順位についての情報は訂正用PC32にも送られ、訂正用PC32は文字出力用PC33と同様にして、優先順位に応じて誤認識箇所の表示を変える。
図11から図14を参照して、訂正用PC32の表示部321に表示される、優先順位に応じた誤認識箇所の表示の例を説明する。この例は、優先順位が「(1)至急訂正して欲しい」「(2)訂正して欲しい」「(3)訂正しなくても良い」の3段階で表されるとする。図11から図13の例では誤認識箇所はすべて単語であるが、図14の例のように誤認識箇所は単語を含む文章箇所であってもよい。
図11の例では、表示部321には、認識結果出力窓71、訂正窓72、誤認識待機窓73の3つの窓が表示される。
認識結果出力窓71には、音声認識結果である文章が表示される。認識結果出力窓71に表示された文章中の誤認識箇所は、他の部分と区別することができるように色等が変えて表示される。
訂正窓72には、最も優先順位が高い誤認識箇所が表示される。訂正者14は、この訂正窓72に表示された誤認識箇所を見て、キーボード等の入力部322により正しい語句を入力する。認識結果出力窓71に表示された文章中の誤認識箇所は、入力された正しい語句に置き換えられる。
なお、訂正用PC32の音声出力部(図示せず)から、訂正窓72に表示される誤認識箇所の音声を発生させてもよい。これにより、訂正者14はその誤認識箇所の音声を聞くことができ、訂正の容易性及び確実性が増す。
誤認識待機窓73には、特定された誤認識箇所の全部又は一部のうち最も優先順位が高い誤認識箇所以外のものが、優先順位が高い順に表示される。例えば、訂正者14が誤認識箇所「(1)−1単語」を訂正中に、優先順位が「(1)至急訂正して欲しい」である誤認識箇所「(1)−4単語」が新たに特定されたとする。この場合、誤認識箇所「(1)−4単語」は、誤認識待機窓73において誤認識箇所「(1)−3単語」の下に表示される。
図12のように、訂正窓72に、誤認識箇所のみならず、その前後の箇所の文字を表示させてもよい。これにより、訂正者14は前後の文脈を容易に把握することができ、訂正の容易性及び確実性が増す。
図13のように、認識結果出力窓71の中に訂正窓72を設けてもよい。これにより、訂正者14はより直感的に訂正を行うことができる。また、図14のように、誤認識箇所を含む行を訂正窓72に表示させてもよい。
このように、誤認識箇所の特定を訂正者以外のもの(この実施形態では人間)が行うことにより、訂正者14は誤認識箇所の訂正に専念することができ負担が減る。また、訂正者14は、優先順位が高い順に誤認識箇所を訂正することが可能となり、訂正の効率が従来よりも向上する。さらに、特に訂正を欲する当事者である聴覚障害者が誤認識箇所を特定して、優先順位を決定することにより、さらに的確で効率が良い訂正をすることができる。
上記の例では聴覚障害者13が誤認識箇所を特定したが、訂正者14以外の人間であれば誰が誤認識箇所を特定してもよい。例えば、話者11,12が誤認識箇所を特定しても良い。この場合、話者11,12は、図示していない入力部から誤認識箇所についての情報を入力する。
また、誤認識箇所を特定する人間と優先順位を決定する人間とは異なる人間であってもよい。例えば、話者11,12が誤認識箇所を特定して、聴覚障害者13がその特定された誤認識箇所の優先順位を決定してもよい。
[第二実施形態]
第二実施形態では、人間ではなくコンピュータが信頼度、親密度を用いて自動的に誤認識箇所を特定する。他の部分については、第一実施形態と同様である。以下、重複説明を省略するために、第一実施形態と異なる部分を中心にして説明をする。
図2は、第二実施形態の誤認識訂正装置の機能ブロック図である。図5は、第二実施形態におけるステップS3の流れ図である。
音声認識用PC31は、さらに誤認識箇所特定部313、優先順位決定部314を含む。
音声認識部311はステップS2において音声認識をする際に、音声認識結果である文章を構成する各単語の信頼度を計算する。計算された信頼度は、誤認識箇所特定部313に送られる(ステップS31a)。
信頼度は、入力された音声とその音声認識結果との当てはまり度合いを示す指標である。例えば「音声(おんせい)」という音声が入力されたとき、音声認識結果が「音声(おんせい)」であれば信頼度が満点近くになり、「学校(がっこう)」であれば信頼度は低くなる。「混声(こんせい)」「温泉(おんせん)」等「音声(おんせい)」に近くなれば信頼度は上がるが、逆に「音声(おんせい)」からかけ離れるほど信頼度は下がる。信頼度のより具体的な定義は、音声認識部311が採用する音声認識エンジンによって異なる。
誤認識箇所特定部313は、各単語の信頼度と所定の第一閾値Nとを比較する(ステップS32)。第一閾値Nは求められる性能や仕様に応じて適宜決定される定数である。
信頼度が第一閾値Nよりも小さい場合には、誤認識箇所特定部313はその単語又はその単語を含む部分を誤認識箇所として特定する(ステップS33)。
信頼度が第一閾値N以上の場合には、誤認識箇所特定部313は何もせず、その単語については誤認識箇所として特定しない。
優先順位決定部314は、各単語の信頼度が小さい単語ほど高い優先順位を定める(ステップS4)。例えば、所定の閾値Th,…,Th,…,ThがTh<…<Th<…<Thの関係を満たすとし、閾値によって区切られた各区間に優先順位を予め定めておく。その際、小さな閾値によって区切られた区間ほど大きな優先順位を定めておく。例えば、区間[Thm−1,Th)の優先順位を、区間[Th,Thm+1)の優先順位よりも高くする。優先順位決定部314は、各単語の信頼度が閾値によって区切られた区間のいずれに含まれるかどうかを判断し、信頼度が含まれる区間に対応する優先順位をその単語の優先順位として決定する。
特定された誤認識箇所についての情報及び優先順位についての情報は文章と共に、表示部312、訂正用PC32及び文字出力用PC33に送られる。
このように、誤認識箇所の特定を訂正者以外のもの(この実施形態ではコンピュータ)が行うことにより、訂正者14は誤認識箇所の訂正に専念することができ負担が減る。また、訂正者14は、優先順位が高い順に誤認識箇所を訂正することが可能となり、訂正の効率が従来よりも向上する。
信頼度に代えて親密度を基準として、信頼度を基準とした場合と同様に、誤認識箇所を特定し、優先順位を決定してもよい。
親密度は、単語がどの程度なじみがあるかを示す指標であり、例えば1(なじみがない)〜7(なじみがある)という7段階で表される。
図6に、親密度を基準として誤認識箇所を特定する処理の流れを例示する。親密度を用いる場合には、図2に破線で示すように、誤認識箇所特定部313及び優先順位決定部314には、データの読み込みが可能なように親密度記憶部4が接続されているとする。親密度記憶部4には、複数の単語のそれぞれの親密度が記憶されている。
誤認識箇所特定部313は、音声認識部311による音声認識結果である文章を構成する各単語の親密度を、親密度記憶部4を参照して求める(ステップS31b)。後の処理は、信頼度を基準とする場合と同じであるため説明を省略する。
なお、単語の親密度が親密度記憶部4に記憶されていない場合には、親密度が第一閾値Nよりも小さい場合と同様にして、その単語又はその単語を含む部分を誤認識箇所として特定してもよい。
[第三実施形態]
第三実施形態は、人間ではなくコンピュータが、音声認識結果である文章を読む者の動作に基づいて自動的に誤認識箇所を特定する。他の部分については、第一実施形態と同様である。以下、重複説明を省略するために、第一実施形態とは異なる部分を中心にして説明をする。
図3は、第三実施形態の誤認識訂正装置の機能ブロック図である。図4は、第三実施形態のステップS3の処理の流れ図である。
動作情報取得部5は、例えばカメラ、モーションセンサ、位置センサ等の人間の動作についての情報を取得することができる機器である。この例では、動作情報取得部5は、聴覚障害者の動作情報を取得するとする。音声認識結果である文章を読んでいる者であれば、聴覚障害者以外の者の動作情報を取得しても構わない。
動作情報取得部5は、表示部331に表示された音声認識結果である文章を読んでいる聴覚障害者の動作情報を取得する(ステップS35)。取得された動作情報は、誤認識箇所特定部333に送られる。
誤認識箇所特定部333は、取得された動作情報に基づいて、文章を読んでいる聴覚障害者がかしげているかどうかを検出する(ステップS36)。かしげるとは、図9のように通常の顔立ちから横に傾くしぐさである。顔の角度、顔の角度の変化に基づいてかしげているかどうかを検出することができる。
かしげていると検出された場合には、誤認識箇所特定部333は、そのかしげていると検出された時間帯に表示部331に新たに表示された文章箇所を誤認識箇所として特定する(ステップS33)。例えば、かしげていると検出された時間帯に表示部331に新たに表示された文字を含む行を誤認識箇所として特定する。誤認識箇所についての情報は少なくとも訂正用PC32に送られて、その情報に基づいて表示部321に表示される文章中の誤認識箇所は例えば赤でマーカーされる。
かしげていないと検出された場合には、誤認識箇所特定部333は、その時間帯に表示部331に表示された文章箇所を誤認識箇所として特定しない(ステップS34)。
なお、ステップS36においてかしげていないと検出された場合に、誤認識箇所特定部333は、取得された動作情報に基づいて、文章を読んでいる聴覚障害者がうなずいているかどうかを検出してもよい(ステップS37)。うなずくとは、図10のように通常の顔立ちから前に頭を下げるしぐさである。うなずきは顔を1回下げる場合に限らず、何回も上げ下げする場合もある。
うなずいていると検出された場合には、誤認識箇所特定部333は、その時間帯に表示部331に表示された文章箇所を正しく認識された箇所、すなわち正認識箇所として特定してもよい。正認識箇所についての情報は少なくとも訂正用PC32に送られて、その情報に基づいて表示部321に表示される文章中の正認識箇所は例えば青でマーカーされる。
このように、誤認識箇所の特定を訂正者以外のもの(この実施形態ではコンピュータ)が行うことにより、訂正者14は誤認識箇所の訂正に専念することができ負担が減る。また、訂正者14は、優先順位が高い順に誤認識箇所を訂正することが可能となり、訂正の効率が従来よりも向上する。
誤認識箇所を赤でマーカーし、正認識箇所を青でマーカーすることにより、訂正者14は、赤でマーカーされた部分を中心にして訂正して行けばよくなり、訂正者14の疲労を軽減することが可能となる。
なお、かしげていると検出された場合には、優先順位決定部334が、そのときの顔の角度が大きいほど高い優先順位を決定して、その優先順位についての情報を少なくとも表示部321に送ってもよい。
[変形例等]
第一実施形態から第三実施形態で述べた誤認識箇所の特定方法、優先順位の決定方法は適宜組み合わせることができる。例えば、第三実施形態の方法で誤認識箇所を特定して、第二実施形態の方法で優先順位を決定してもよい。
コンピュータによって実現することができる。この場合、この装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、これ装置における各処理機能が、コンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、これらの装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
この発明は、上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。

Claims (10)

  1. 入力された音声を音声認識して、その音声認識結果である文章を生成する音声認識部と、
    上記文章中の誤認識箇所についての情報を取得する誤認識箇所特定部と、
    上記誤認識箇所の優先順位についての情報を取得する優先順位決定部と、
    上記文章及び上記優先順位に応じて上記誤認識箇所を表示する表示部と、
    訂正者による上記誤認識箇所についての訂正が入力される入力部と、
    を含む誤認識訂正装置。
  2. 請求項1に記載の誤認識訂正装置において、
    上記誤認識箇所特定部は、上記訂正者とは異なる者により特定された誤認識箇所についての情報が入力される部である、
    を含む誤認識訂正装置。
  3. 請求項1に記載の誤認識訂正装置において、
    入力された音声とその音声認識結果との当てはまり度合いを示す指標を信頼度として、上記音声認識部は、音声認識をする際に上記文章を構成する単語のそれぞれの信頼度を計算し、
    上記誤認識箇所特定部は、上記計算された信頼度が所定の閾値よりも小さい単語を誤認識箇所として特定する、
    ことを特徴とする誤認識訂正装置。
  4. 請求項1に記載の誤認識訂正装置において、
    単語がどの程度なじみがあるかを示す指標を親密度として、各単語の親密度が記憶された親密度記憶部を更に含み、
    上記誤認識箇所特定部は、上記文章を構成する単語のそれぞれの信頼度を上記親密度記憶部を参照して求めて、その求まった信頼度が所定の閾値よりも小さい単語を誤認識箇所として特定する、
    ことを特徴とする誤認識訂正装置。
  5. 請求項1に記載の誤認識訂正装置において、
    上記表示部に表示された上記文章を読んでいる者の動作についての動作情報を取得する動作情報取得部と、
    上記誤認識箇所特定部は、上記動作情報に基づいて、上記文章を読んでいる者がかしげているかどうかを検出し、かしげていると検出された時間帯に上記表示部に表示された文章箇所を誤認識箇所として特定する、
    ことを特徴とする誤認識訂正装置。
  6. 請求項1から5の何れかに記載の誤認識訂正装置において、
    上記優先順位決定部は、上記訂正者とは異なる者により決定された優先順位についての情報が入力される部である、
    ことを特徴とする誤認識訂正装置。
  7. 請求項1から5の何れかに記載の誤認識訂正装置において、
    入力された音声とその音声認識結果との当てはまり度合いを示す指標を信頼度として、上記音声認識部は、音声認識をする際に上記文章を構成する単語のそれぞれの信頼度を計算し、
    上記優先順位決定部は、上記計算された信頼度が小さい単語ほど高い優先順位を定める、
    ことを特徴とする誤認識訂正装置。
  8. 請求項1から5の何れかに記載の誤認識訂正装置において、
    単語がどの程度なじみがあるかを示す指標を親密度として、各単語の親密度が記憶された親密度記憶部を更に含み、
    上記優先順位決定部は、上記文章を構成する単語のそれぞれの信頼度を上記親密度記憶部を参照して求めて、その求まった信頼度が小さい単語ほど高い優先順位を定める、
    ことを特徴とする誤認識訂正装置。
  9. 入力された音声を音声認識して、その音声認識結果である文章を生成する音声認識ステップと、
    上記文章中の誤認識箇所についての情報を取得する誤認識箇所特定ステップと、
    上記誤認識箇所の優先順位についての情報を取得する優先順位決定ステップと、
    上記文章及び上記優先順位に応じて上記誤認識箇所を表示する表示ステップと、
    訂正者による上記誤認識箇所についての訂正が入力される入力ステップと、
    を含む誤認識訂正方法。
  10. 請求項1から8の何れかに記載された誤認識訂正装置の各部としてコンピュータを機能させるための誤認識訂正プログラム。
JP2009136261A 2009-06-05 2009-06-05 誤認識訂正装置、方法及びプログラム Pending JP2010282083A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009136261A JP2010282083A (ja) 2009-06-05 2009-06-05 誤認識訂正装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009136261A JP2010282083A (ja) 2009-06-05 2009-06-05 誤認識訂正装置、方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2010282083A true JP2010282083A (ja) 2010-12-16

Family

ID=43538845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009136261A Pending JP2010282083A (ja) 2009-06-05 2009-06-05 誤認識訂正装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2010282083A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161850A (ja) * 2016-03-11 2017-09-14 株式会社東芝 会議支援装置、会議支援方法、及び会議支援プログラム
US10304460B2 (en) 2016-09-16 2019-05-28 Kabushiki Kaisha Toshiba Conference support system, conference support method, and computer program product
JP2019144310A (ja) * 2018-02-16 2019-08-29 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、制御方法、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11352988A (ja) * 1998-06-09 1999-12-24 Olympus Optical Co Ltd 音声認識装置
JP2001060192A (ja) * 1999-08-20 2001-03-06 Nippon Hoso Kyokai <Nhk> 文字データ修正装置および記憶媒体
JP2006119534A (ja) * 2004-10-25 2006-05-11 Internatl Business Mach Corp <Ibm> コンピュータシステム、修正作業を支援するための方法、及びプログラム
WO2006093092A1 (ja) * 2005-02-28 2006-09-08 Honda Motor Co., Ltd. 会話システムおよび会話ソフトウェア

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11352988A (ja) * 1998-06-09 1999-12-24 Olympus Optical Co Ltd 音声認識装置
JP2001060192A (ja) * 1999-08-20 2001-03-06 Nippon Hoso Kyokai <Nhk> 文字データ修正装置および記憶媒体
JP2006119534A (ja) * 2004-10-25 2006-05-11 Internatl Business Mach Corp <Ibm> コンピュータシステム、修正作業を支援するための方法、及びプログラム
WO2006093092A1 (ja) * 2005-02-28 2006-09-08 Honda Motor Co., Ltd. 会話システムおよび会話ソフトウェア

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161850A (ja) * 2016-03-11 2017-09-14 株式会社東芝 会議支援装置、会議支援方法、及び会議支援プログラム
US10102859B2 (en) 2016-03-11 2018-10-16 Kabushiki Kaisha Toshiba Conference support apparatus, conference support method, and computer program product
US10304460B2 (en) 2016-09-16 2019-05-28 Kabushiki Kaisha Toshiba Conference support system, conference support method, and computer program product
JP2019144310A (ja) * 2018-02-16 2019-08-29 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、制御方法、およびプログラム
JP7231806B2 (ja) 2018-02-16 2023-03-02 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、制御方法、およびプログラム

Similar Documents

Publication Publication Date Title
US10102859B2 (en) Conference support apparatus, conference support method, and computer program product
JP6635049B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN104252864B (zh) 实时语音分析方法和系统
US8983836B2 (en) Captioning using socially derived acoustic profiles
US9293133B2 (en) Improving voice communication over a network
US20220375225A1 (en) Video Segmentation Method and Apparatus, Device, and Medium
JPH11231891A (ja) 音声を認識するシステムおよび方法
KR102193029B1 (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
US9028255B2 (en) Method and system for acquisition of literacy
US20200279570A1 (en) Speaker determination apparatus, speaker determination method, and control program for speaker determination apparatus
US20200194003A1 (en) Meeting minute output apparatus, and control program of meeting minute output apparatus
KR20200008838A (ko) 가상 면접 제공 방법 및 이를 이용하는 장치
US20190213998A1 (en) Method and device for processing data visualization information
WO2018105373A1 (ja) 情報処理装置、情報処理方法、および情報処理システム
KR20190091265A (ko) 정보 처리 장치, 정보 처리 방법, 및 정보 처리 시스템
JP2016181018A (ja) 情報処理システムおよび情報処理方法
WO2019202804A1 (ja) 音声処理装置および音声処理方法
JP2010282083A (ja) 誤認識訂正装置、方法及びプログラム
US11694675B2 (en) Information processing apparatus, information processing system, and information processing method
JP2016109725A (ja) 情報処理装置、情報処理方法およびプログラム
TW202211077A (zh) 多國語言語音辨識及翻譯方法與相關的系統
JP2010086356A (ja) 意識関与度測定装置、意識関与度測定方法および意識関与度測定プログラム
US12062362B2 (en) Information processing device, information processing system, and information processing method
JP6897678B2 (ja) 情報処理装置及び情報処理方法
JP7450748B2 (ja) 情報表示装置及び情報表示方法

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Effective date: 20110720

Free format text: JAPANESE INTERMEDIATE CODE: A7423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130207

A131 Notification of reasons for refusal

Effective date: 20130219

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Effective date: 20130625

Free format text: JAPANESE INTERMEDIATE CODE: A02