JP2004061754A - Voice controlled unit - Google Patents
Voice controlled unit Download PDFInfo
- Publication number
- JP2004061754A JP2004061754A JP2002218610A JP2002218610A JP2004061754A JP 2004061754 A JP2004061754 A JP 2004061754A JP 2002218610 A JP2002218610 A JP 2002218610A JP 2002218610 A JP2002218610 A JP 2002218610A JP 2004061754 A JP2004061754 A JP 2004061754A
- Authority
- JP
- Japan
- Prior art keywords
- dictionary
- recognition
- voice
- name
- prefecture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012937 correction Methods 0.000 claims description 7
- 230000001755 vocal effect Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、音声制御装置に関するものである。
【0002】
【従来の技術】
従来、話者の発する音声を認識して住所の入力を行う音声制御装置がある。この音声制御装置において、ユーザが所望の住所を入力する場合には、都道府県、市区郡、町村字等の名称を単位として(以下、階層と呼ぶ)、この階層毎に所望の住所を区切って読みあげる。例えば、「愛知県刈谷市昭和町1丁目1番地」なる住所を入力する場合には、第1階層となる「愛知県」、第2階層となる「刈谷市」、第3階層となる「昭和町」、第4階層となる「1丁目」、及び第5階層となる「1番地」というように、階層毎に区切って読みあげる。
【0003】
一方、誤って入力した階層部分を修正して再度入力をやり直す場合、ユーザは、1つの階層の表示を消去するコマンドに対応する「戻る」を発することで、1つの階層のみが消去される。例えば、図15に示すように、ユーザが「愛知県刈谷市昭和町1丁目」まで発声した後に、「愛知県刈谷市」以降から再度入力し直す場合には、ユーザは、「1丁目」を発声した直後に「戻る」を2回連続して発声することで、目的とする階層まで入力した住所が消去される。その後、ユーザは、再度「愛知県刈谷市」以降の住所を入力する。
【0004】
このように、従来の音声制御装置では、ユーザは、住所を階層毎に区切って読みあげて所望の住所を入力し、また、誤って入力した階層部分を消去する場合には、「戻る」を発声して誤り部分を消去する。
【0005】
【発明が解決しようとする課題】
しかしながら、上述の音声制御装置における「戻る」に対応するコマンドは、消去対象である階層が1階層に限定されている。従って、例えば「愛知県刈谷市昭和町1丁目」と入力した後、再度、第1階層である都道府県名称から音声入力をやり直す場合には、ユーザは、「戻る」を4回連続して発声する必要があり、このような同一の発話内容を連続して発声することは、ユーザにとって煩わしいものであった。
【0006】
本発明は、かかる問題を鑑みてなされたもので、音声入力した住所の消去を簡単に行うことのできる音声制御装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
請求項1に記載の音声制御装置は、音声を入力するための音声入力手段と、音声入力手段に入力されたユーザの発話音声を認識する音声認識手段と、ユーザによって音声が入力されたとき、認識された発話内容を複数の階層に分類して記憶するとともに、この発話内容を修正するための修正コマンドが入力されたとき、最下層に分類して記憶されている発話内容の一部を消去する制御手段とを備え、制御手段は、修正コマンドが2回連続して入力された場合、複数の階層に分類して記憶されている発話内容の全部を消去することを特徴とする。
【0008】
このように、本発明の音声制御装置は、修正コマンドが2回連続して入力された場合、複数の階層に分類して記憶されている発話内容の全部を消去する。これにより、修正コマンドを何度も繰り返し発声することなく、容易に発話内容を消去することが可能となる。
【0009】
請求項2に記載のように、複数の階層に分類して記憶される発話内容は、少なくとも住所であっても良い。例えば、住所を音声入力する場合を考えると、「愛知県」、「刈谷市」、「昭和町」、「1丁目」の4つの階層を入力した後に、再度、第1の階層である都道府県から音声入力をやり直す場合、ユーザは、音声入力した住所を修正するコマンドを2回連続して発声することで、「愛知県刈谷市昭和町1丁目」なる4つの階層に分類した記憶している住所を全部消去することが可能となる。これにより、ユーザは、修正コマンドを何度も繰り返し発声することなく、容易に入力した住所を全て消去することが可能となる。
【0010】
請求項3に記載の音声制御装置によれば、住所は、少なくとも都道府県、市区郡、町村字、丁目及び番地の5階層に分類されることを特徴とする。これにより、ユーザは、音声による住所入力を行う場合には、所望の住所の都道府県、市区郡、町村字、丁目、及び番地の各階層を発話することで、所望の住所を入力することができる。
【0011】
【発明の実施の形態】
以下、本発明の実施の形態における音声制御装置に関して、図面に基づいて説明する。なお、本実施形態では、本発明の音声制御装置をカーナビゲーション装置に適用した例について説明する。
【0012】
図1は、本実施形態に係わるカーナビゲーション装置の概略構成を示すブロック図である。同図に示すように、本実施形態のカーナビゲーション装置1は、音声認識部10、経路案内部11、車両位置・車両向き計算部12から構成されている。また、カーナビゲーション装置1は、図示しない道路地図描画部等を有している。さらに、カーナビゲーション装置1は、音声入力に用いられるマイク2、トークスイッチ3、表示装置4、スピーカ5、GPS受信機6、車速センサ7、ヨーレートセンサ8、及び地図データベース9等と接続されている。
【0013】
マイク2、及びトークスイッチ3は、音声入力に用いられる装置である。音声を入力する場合には、例えば、トークスイッチ3の押しボタンを押すことで、入力トリガ信号が後述する音声認識部10に送信され、この音声認識部10は、入力トリガ信号を受信すると、マイク2から音声入力を受け付けるモードに変更される。
【0014】
この音声入力を受け付けるモードのとき、ユーザによって音声が入力されると、その音声がマイク2によって音声信号に変換され、音声認識部10に送られる。音声認識部10は、この音声信号を認識して、音声に対応する都道府県や市区郡等の名称に変換して経路案内部11に与える。例えば、「あいちけん」と認識された音声は、「愛知県」という都道府県の名称に変換される。この都道府県の名称を受ける経路案内部11は、受信した名称を記憶するとともに表示装置4に表示し、その後、市区郡、町村字、丁目、及び番地等の名称を受信する毎に、これらを階層的につなぎ合わせて記憶し、かつ表示装置4に表示させる。なお、本実施形態では、都道府県を第1階層、市区郡を第2階層、町村字を第3階層、丁目を第4階層、及び番地を第5階層と呼ぶことにする。
【0015】
また、経路案内部11は、都道府県、市区郡、町村字、丁目、及び番地等の名称からなる住所を全て受信した場合、この住所に対応する道路地図上の地点を検索し、検索した地点を示すマークを、その周辺の道路地図とともに表示装置4へ表示する。
【0016】
さらに、住所の入力中に、ユーザが、例えば「戻る」と発話した場合には、この音声を認識して、音声に対応するコマンドコードに変換し、経路案内部11等に与える。例えば、「戻る」と認識された音声は「表示消去」というコマンドコードに変換される。このコマンドコードを受けた経路案内部11は、このコマンドコードを2回連続して受けたか否かを判断し、判断の結果、1回目である場合には、階層的につなぎ合わせて記憶・表示される住所のうち、最下位の階層に位置する名称のみ消去する。また、2回連続して受けた場合には、記憶及び表示される住所の全てを一括して消去する。
【0017】
表示装置4は、道路地図等を表示する液晶ディスプレイによって構成される。また、表示装置4のディスプレイにタッチパネルが採用されるものであっても良い。
【0018】
スピーカ5は、音声案内や各種警告音等の出力に使用されるものであり、例えば、車両に装備されたスピーカであっても良いし、カーナビゲーション装置1に内蔵されたものであっても良い。
【0019】
GPS受信機6、車速センサ7、及びヨーレートセンサ8は、周知のごとく、車両の現在位置や車両進行方向等を算出するのに必要な信号(以下、センサ信号と呼ぶ)を生成するものである。生成されたセンサ信号は、車両位置・車両向き計算部12に送られる。
【0020】
地図データベース9は、図示しない記憶媒体に格納されるもので、地図情報、道路情報からなる。なお、記憶媒体としては、そのデータ量からCD−ROMやDVD−ROMを用いるのが一般的であるが、メモリカードやハードディスクなどの媒体を用いてもよい。また、地図情報とは、表示装置4に表示するランドマーク等を描画するために必要なデータであり、施設名称、住所、電話番号、及び地図上の座標等を関連付けたデータから構成される。
【0021】
次に、カーナビゲーション装置1に内蔵される音声認識部10について、図2を用いて説明する。同図に示すように音声認識部10は、AD変換回路101、認識プログラム処理部102、音響モデル記憶部103、及び認識辞書記憶部104等によって構成される。
【0022】
AD変換回路101は、マイク2を介して入力されるアナログの音声信号を受信し、この信号をデジタル化した信号に変換する。変換されたデジタル音声信号は、認識プログラム処理部102に送信される。
【0023】
認識プログラム処理部102は、音響モデル記憶部103、及び認識辞書記憶部104を用いて、デジタル音声信号を都道府県等の名称やコマンドコードに変換するものである。まず、認識プログラム処理部102は、音響モデル記憶部103に記憶される、例えば、周知の隠れマルコフモデル(Hidden Markov Model)等の手法を用いて、デジタル音声信号106に対応する発話内容(以後、認識語読みと呼ぶ)を解析する。
【0024】
この解析された認識語読みは、認識辞書記憶部104に記憶される認識語と照合され、最も確からしい認識語、及びその認識語に対応する都道府県や市区郡等の名称、或いはコマンドコードが抽出される。
【0025】
ここで、認識辞書記憶部104について説明する。この認識辞書記憶部104は、都道府県の名称と認識語とを関連付けて記憶する都道府県辞書、都道府県別に分割された市区郡の名称と認識語とを関連付けて記憶する市区郡辞書、都道府県別に分割され、かつ、特定の都道府県における市区郡別に分割された町村字の名称と認識語とを関連付けて記憶する町村字辞書、及び、丁目や番地の名称と認識語とを関連付けて記憶する丁目辞書と番地辞書といった、計5つの認識辞書を有している。
【0026】
すなわち、市区郡辞書は、50程度の都道府県別に用意されるもので、例えば、図5に示すように、都道府県が「愛知県」である市区郡辞書には、愛知県に属する市区郡の名称と認識語とが記憶されている。さらに、町村字辞書は、50程度の都道府県別で、かつ、ある特定の都道府県の市区郡別に用意されるものである。例えば、図6に示すように、愛知県刈谷市に属する町村字の名称と認識語とが記憶されている。なお、図7に示す丁目辞書、及び図8に示す番地辞書については、数字からなる名称であるため、ある特定の場所に属するものではない。
【0027】
さらに、認識辞書記憶部104には、図9に示すように、都道府県や市区郡等の名称とは異なる認識語とコマンドコードとを関連付けて記憶するコマンドコード辞書を有している。このコマンドコード辞書においては、例えば、認識語が「戻る」である場合には、これに対応するコマンドコード「C0001」が抽出される。このコマンドコードは、後述する経路案内部11の機能実行部110が認識可能なコードである。
【0028】
また、認識プログラム処理部102は、都道府県の名称を認識辞書記憶部104から抽出した後、次回に照合/抽出する認識辞書を、都道府県の名称に対応する市区郡辞書へ自動的に切り換える。例えば、都道府県名称が「愛知県」であった場合には、次回に照合/抽出する認識辞書を、愛知県に対応する市区郡辞書へ自動的に切り換える。これは、市区郡の名称を照合/抽出した後も同様であり、次回に照合/抽出する認識辞書を、市区郡の名称に対応する町村字辞書へ自動的に切り換える。但し、図9のコマンドコード辞書は、上述の認識辞書の切り換えには該当せず、常に照合/抽出の対象となる認識辞書である。
【0029】
そして、認識プログラム処理部102は、上述の処理により得られた都道府県や市区郡等の名称に対応する信号を経路案内部11に出力する。例えば、都道府県の「あいちけん」という音声が入力された場合には、都道府県名称の「愛知県」に対応する信号を送信する。
【0030】
続いて、カーナビゲーション装置1の経路案内部11について、図3を用いて説明する。同図に示すように、経路案内部11は機能実行部110を有している。この機能実行部110は、現在地周辺の道路地図を表示する機能や、住所入力による地点検索機能等を実行する。例えば、現在地周辺の道路地図を表示する機能では、車両位置・車両向き計算部12から車両位置・車両の進行方向信号を受信し、地図データベース9から車両位置周辺の地図データを読み出し、画像信号15に変換して表示装置4に表示したりする。
【0031】
一方、住所入力による地点検索機能では、音声認識部10から送信される都道府県や市区郡等の名称を表示装置4に表示したり、都道府県、市区郡、町村字、丁目、及び番地等の名称からなる住所に対応する地点のマークと、その周辺の道路地図を表示装置4に表示したりするものである。
【0032】
例えば、「愛知県」なる都道府県の名称に対応する信号を受信した場合には、この都道府県の名称を表示装置4に表示する。また、都道府県や市区郡等の名称とは異なるコマンドコードC0001を受信した場合には、階層的につなぎ合わせて記憶・表示している住所のうち、最下位の階層に位置する名称のみ消去する。さらに、このコマンドコードC0001を2回連続して受信した場合には、記憶・表示される住所の名称全てを一括して消去する。なお、このコマンドコードC0001を受信した場合に、スピーカ5を介して、表示の消去を実行する案内音やメッセージ等を報知しても良い。
【0033】
また、例えば、「愛知県刈谷市昭和町1丁目1番地」なる住所の名称を全て受信し終えた場合には、地図データベース9から受信した住所に対応する地点の座標を抽出し、さらに、抽出した座標周辺の地図情報や道路情報を読み出す。その後、読み出した情報を画像信号に変換して、表示装置4に住所に対応する地点のマークや、その周辺の道路地図を表示させる。
【0034】
次に、上述のカーナビゲーション装置1において、音声入力による住所に基づく地点検索が行われる地点検索機能の処理について、図10〜図13のフローチャート、及び図14の表示装置4の表示イメージ図を用いて説明する。なお、具体的な例として、ユーザによって、「愛知県刈谷市昭和町1丁目」という住所を入力した後、再度、都道府県名称から入力し直す場面を想定して説明を進める。
【0035】
先ず、図10のステップS1は、トークスイッチ3がユーザに押されるまで待機状態を継続し、トークスイッチ3が押された場合には、ステップS2に処理を進める。ステップS2では、音声認識部10が入力モードに切り換わり、音声の入力を受け付ける状態となる。また、音声認識部10は、これから実行する認識語の照合と、その認識語に対応する都道府県や市区郡等の名称の抽出を、都道府県辞書に基づいて行うように、認識辞書を切り換える。
【0036】
続いて、ステップS3における音声認識処理を、図11〜図13のフローチャートを用いて説明する。まず、図11に示すステップS30では、変数「Back」をゼロに初期化する。この変数「Back」は、コマンドコードC0001に対応する認識語を照合/抽出する毎に1が加算されるものであり、すなわち、この変数「Back」を参照することで、コマンドコードC0001が2回連続して抽出されたか否かを判断することができる。
【0037】
ステップS31は、ユーザによって発話されたか否かを判断し、発話があった場合には、次のステップへ処理を進め、発話がない場合には、発話があるまで待機状態となる。本実施形態では、「あいちけん」という発話があったとする。
【0038】
ステップS32では、ユーザによる発話を解析し、解析した認識語読みを都道府県辞書に記憶される認識語と照合する。そして、最も確からしい認識語と、その認識語に対応する都道府県名称を抽出する。本実施形態では、「あいちけん」という認識語に対応する「愛知県」なる県名が抽出されたとする。
【0039】
ステップS33は、ステップS32において照合/抽出した認識辞書が都道府県辞書、市区郡辞書、町村字辞書、丁目辞書、及び番地辞書のうち、どの階層の認識辞書であったかを判断する。本実施形態では、第1階層の認識辞書であったと判断される。
【0040】
さらに、ステップS33においては、次回の照合/抽出する認識辞書を、現在の認識辞書の下位の階層に位置し、かつ、現在抽出した名称に対応する認識辞書に切り換える。本実施形態では、第1階層の下位の階層である第2の階層で、かつ、「愛知県」の名称に対応する市区郡の認識辞書に切り換わる。なお、現在の認識辞書が第5階層である場合には、その下位の階層に位置する認識辞書は存在しないので、認識辞書を切り換える処理を実行しない。
【0041】
ステップS34は、ステップS33において判断した認識辞書の階層を記憶しておく。本実施形態では、第1階層の認識辞書であったため、変数「kaisou」を1に設定する。
【0042】
ステップS35では、ステップS32において抽出した名称を、表示装置4へ表示する。本実施形態では、図14に示すように、表示内容20「愛知県」が表示される。
【0043】
ステップS36は、変数「kaisou」が5であるか、或いは、「セット」や「新規セット」など発話終了を意味するコマンドが発声された否かを判断し、変数「kaisou」が5である、或いは、発話終了を意味するコマンドが発声された場合には、第1〜第5階層までの名称入力が終了したと判断して、本音声認識処理を終了する。一方、これに該当しない場合には、ステップS37へ処理を進める。本実施形態では、変数「kaisou」は1であるので、ステップS37へ処理を進める。
【0044】
ステップS37の判断は、ステップS31と同一であるので説明を省略するが、本実施形態では、「かりやし」という発話があったとする。ステップS38では、ユーザによる発話を解析し、解析した認識語読みを市区郡辞書に記憶される認識語と照合し、認識語に対応する市区郡名称を抽出する。なお、解析した認識語読みが、市区郡辞書の認識語から照合しても、最も確からしい認識語が選定できない場合には、コマンドコード辞書の認識語からの照合を試みる。そして、このコマンドコード辞書から認識語が照合された場合には、その認識語に対応するコマンドコードを抽出する。なお、本実施形態では、「かりやし」という認識語に対応する「刈谷市」なる市名が抽出されたとする。
【0045】
ステップS39は、ステップS38において、認識語「戻る」に対応するコマンドコードC0001が抽出されたか否かを判断する。ここで、コマンドコードC0001が抽出された場合には、図13のステップS50へ処理を移行し、これに該当しない場合には、図12のステップS40へ処理を進める。本実施形態では、「刈谷市」なる市名が抽出されたので、ステップS40へ処理を進める。
【0046】
図12に示すステップS40では、変数「Back」をゼロに設定する。ここで変数「Back」をゼロに設定する理由は、ユーザが2回連続して「戻る」を発話した場合と、2回連続ではないものの「戻る」を複数回発話した場合との処理を切り換えるためである。このステップS40では、ステップS39において、認識語「戻る」に対応するコマンドコードC0001が抽出されなかったため、変数「Back」にゼロが設定される。
【0047】
ステップS41は、ステップS38において照合/抽出した認識辞書が都道府県辞書、市区郡辞書、町村字辞書、丁目辞書、及び番地辞書のうち、どの階層の認識辞書であったかを判断する。本実施形態では、第2階層の認識辞書であったと判断される。
【0048】
さらに、ステップS41では、次回の照合/抽出する認識辞書を、現在の認識辞書の下位の階層に位置し、かつ、現在抽出した名称に対応する認識辞書に切り換える。本実施形態では、第2階層の下位の階層である第3の階層で、かつ、「愛知県刈谷市」の名称に対応する町村字の認識辞書に切り換わる。なお、現在の認識辞書が第5階層である場合には、その下位の階層に位置する認識辞書は存在しないので、認識辞書を切り換える処理を実行しない。
【0049】
ステップS42は、ステップS41において判断した認識辞書の階層を記憶しておく。本実施形態では、第2階層の認識辞書であったため、変数「kaisou」を2に設定して記憶する。
【0050】
ステップS43では、ステップS38において抽出した名称を記憶するとともに、表示装置4へ表示する。本実施形態では、図14に示すように、表示内容21「愛知県刈谷市」が表示される。なお、表示内容21のように、下位の階層に位置する名称は、上位の階層につなぎ合わせて表示装置4に表示される。その後、ステップS36に処理を移行する。
【0051】
ステップS36は、上述のごとく、変数「kaisou」が5であるか、或いは、「セット」や「新規セット」など発話終了を意味するコマンドが発声された否かを判断する。本実施形態では、変数「kaisou」は2であるので、ステップS37へ処理を進める。
【0052】
ステップS37において、本実施形態では、「しょうわちょう」という発話があったとして処理を進め、ステップS38では、解析した認識語読みを町村字辞書に記憶される認識語と照合し、認識語に対応する町村字名称を抽出する。本実施形態では、「しょうわちょう」という認識語に対応する「昭和町」なる町名が抽出されたとする。ステップS39は、ステップS38において、「昭和町」なる町名が抽出されたので、ステップS40へ処理を進める。
【0053】
ステップS40では、変数「Back」をゼロに再度設定し、ステップS41は、ステップS38において、第3階層の認識辞書であったと判断するとともに、次回の照合/抽出する認識辞書を、第3階層の下位の階層である第4階層の丁目辞書に切り換える。ステップS42は、本実施形態では、第3階層の認識辞書であったため、変数「kaisou」を3に設定して記憶し、ステップS43では、ステップS38において抽出した名称を記憶し、表示装置4へ表示する。本実施形態では、図14に示すように、表示内容22「愛知県刈谷市昭和町」が表示される。その後、ステップS36に処理を移行する。
【0054】
ステップS36は、上述のごとく、変数「kaisou」が5であるか、或いは、「セット」や「新規セット」など発話終了を意味するコマンドが発声された否かを判断する。本実施形態では、変数「kaisou」は3であるので、ステップS37へ処理を進める。
【0055】
ステップS37において、本実施形態では、「いちちょうめ」という発話があったとして処理を進め、ステップS38では、解析した認識語読みを丁目辞書に記憶される認識語と照合し、認識語に対応する丁目名称を抽出する。本実施形態では、「いちちょうめ」という認識語に対応する「1丁目」なる丁目名称が抽出されたとする。ステップS39は、ステップS38において、「1丁目」なる町名が抽出されたので、ステップS40へ処理を進める。
【0056】
ステップS40では、変数「Back」をゼロに設定し、ステップS41は、ステップS38において、第4階層の認識辞書であったと判断するとともに、次回の照合/抽出する認識辞書を、第4階層の下位の階層である第5階層の番地辞書に切り換える。ステップS42は、本実施形態では、第4階層の認識辞書であったため、変数「kaisou」を4に設定して記憶し、ステップS43では、ステップS38において抽出した名称を、表示装置4へ表示する。本実施形態では、図14に示すように、表示内容23「愛知県刈谷市昭和町1丁目」が表示される。その後、ステップS36に処理を移行する。
【0057】
ステップS36は、上述のごとく、変数「kaisou」が5であるか、或いは、「セット」や「新規セット」など発話終了を意味するコマンドが発声された否かを判断する。本実施形態では、変数「kaisou」は4であるので、ステップS37へ処理を進める。
【0058】
ステップS37において、本実施形態では、「戻る」という発話があったとして処理を進め、ステップS38では、解析した認識語読みを番地辞書に記憶される認識語と照合し、認識語に対応する番地名称を抽出する。しかしながら、本実施形態の認識語読み「もどる」は、番地辞書の認識語から照合しても、最も確からしい認識語が選定されない。従って、コマンドコード辞書の認識語から照合が試される。すると、本実施形態では、「もどる」という認識語に対応するコマンドコードC0001が抽出される。
【0059】
ステップS39は、ステップS38において、認識語「戻る」に対応するコマンドコードC0001が抽出されたか否かを判断する。本実施形態では、コマンドコードC0001が抽出されたので、図13のステップS50へ処理を移行する。
【0060】
図13のステップS50では、変数「Back」に1を加える。本実施形態では、直前に処理されたステップS40において、変数「Back」がゼロに設定されているので、ここでは、変数「Back」は1となる。すなわち、直前のステップS38において、コマンドコードC0001が抽出されたので、1回抽出されたことを意味するように1が加えられる。
【0061】
ステップS51は、変数「Back」が2であるか否かを判断し、変数「Back」が2である場合には、ステップS54に処理を移行し、これに該当しない場合には、ステップS52に処理を進める。本実施形態では、変数「Back」は1であるので、ステップS52に処理を進める。
【0062】
ステップS52では、変数「kaisou」から1を減じるとともに、次回の照合/抽出する認識辞書を、現在の認識辞書の1つ上位の階層である認識辞書に切り換える。本実施形態では、第4階層の1つ上位の階層である第3の階層で、かつ、第1及び第2階層である「愛知県刈谷市」に対応する町村字辞書に切り換わる。
【0063】
ステップS53において、表示装置4に表示している住所のうち、最下位の階層に位置する名称の記憶及び表示が消去される。本実施形態では、図14の表示内容24に示すように、第4の階層である「1丁目」の表示が消去される。その後、ステップS37に処理が移行する。
【0064】
ステップS37において、本実施形態では、ユーザによって、再度「戻る」という発話があったとして処理を進め、ステップS38では、解析した認識語読みを町村字辞書に記憶される認識語と照合し、認識語に対応する町村字名称を抽出する。しかしながら、本実施形態の認識語読み「もどる」は、町村字辞書の認識語から照合しても、最も確からしい認識語が選定されない。従って、コマンドコード辞書の認識語から照合が試される。すると、本実施形態では、「もどる」という認識語に対応するコマンドコードC0001が抽出される。
【0065】
ステップS39は、コマンドコードC0001が抽出されたので、ステップS50へ処理を移行し、ステップS50では、変数「Back」に1を加える。本実施形態では、直前に処理されたステップS50において、変数「Back」に1が加算されているので、ここでは、変数「Back」は2となる。すなわち、コマンドコードC0001が2回連続して抽出されたことを意味する。ステップS51は、変数「Back」が2であるので、ステップS54に処理を移行する。
【0066】
そして、ステップS54においては、表示装置4に表示している住所のうち、全ての階層に位置する名称の記憶及び表示を消去する。本実施形態では、図14の表示内容25に示すように、これまでに表示した名称を全て一括して消去する。その後、ステップS30へ処理を移行し、再び、都道府県名称の入力から実行される。
【0067】
なお、第1階層から第5階層までの名称が全て入力された場合、或いは、第5階層まで入力がされていなくても、「セット」や「新規セット」等、発話終了を意味するコマンドが発声されたときは、ステップS36から図10のステップS4へ処理を移行する。そして、ステップS4において、地図データベース9から、入力された住所に対応する地点の座標が抽出され、また、抽出した座標周辺の地図情報や道路情報が読み出される。
【0068】
その後、ステップS5において、ステップS4において読み出した情報を画像信号に変換して、表示装置4に住所に対応する地点のマークと、その周辺の道路地図を表示させる。
【0069】
このように、本発明の音声認識装置は、「戻る」を2回連続して認識した場合、階層的につなぎ合わせて表示される住所の表示を一括して消去する。これにより、入力途中において、再度、都道府県から入力をやり直す場合に、ユーザは、「戻る」を2回連続して発声することで、住所の表示を一括して消去することができる。その結果、「戻る」を何度も繰り返し発声することなく、簡単に表示を消去することが可能となる。
【0070】
なお、本実施形態では、コマンドコードC0001に対する認識語として「戻る」を設定しているが、これに限定されるものではない。さらに、コマンドコード辞書に、例えば、「消去」、「はじめに戻る」等の認識語と、これらの認識語に対してコマンドコードC0002を設け、このコマンドコードC0002が抽出されたときに、階層的につなぎ合わせて表示される住所の表示を一括して消去しても良い。
【0071】
また、本発明の適用範囲は、カーナビゲーション装置の音声による住所入力機能に限定されるものではなく、例えば、住所と同様に階層的に全体が示される電話番号等を音声入力する機能等にも適用できる。
【図面の簡単な説明】
【図1】本実施形態に係わる、カーナビゲーション装置1の概略構成を示すブロック図である。
【図2】本実施形態に係わる、音声認識部10の構成を示すブロック図である。
【図3】本実施形態に係わる、経路案内部11の構成を示すブロック図である。
【図4】本実施形態に係わる、都道府県辞書を示す図である。
【図5】本実施形態に係わる、愛知県に属する市区郡の辞書を示す図である。
【図6】本実施形態に係わる、愛知県刈谷市に属する町村字の辞書を示す図である。
【図7】本実施形態に係わる、丁目辞書を示す図である。
【図8】本実施形態に係わる、番地辞書を示す図である。
【図9】本実施形態に係わる、コマンドコード辞書を示す図である。
【図10】本実施形態に係わる、カーナビゲーション装置1の全体の処理の流れを示すフローチャートである。
【図11】本実施形態に係わる、音声認識処理の全体の流れを示すフローチャートである。
【図12】本実施形態に係わる、音声認識処理の一部の流れを示すフローチャートである。
【図13】本実施形態に係わる、音声認識処理の表示消去処理の流れを示すフローチャートである。
【図14】本実施形態に係わる、表示装置4の表示イメージを示した図である。
【図15】従来技術における、音声入力された結果を示す図である。
【符号の説明】
1 カーナビゲーション装置
2 マイク
3 トークスイッチ
4 表示装置
5 スピーカ
6 GPS受信機
7 車速センサ
8 ヨーレートセンサ
9 地図データベース
10 音声認識部
11 経路案内部
12 車両位置・車両向き計算部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a voice control device.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there is a voice control device that recognizes a voice uttered by a speaker and inputs an address. In this voice control device, when a user inputs a desired address, the desired address is delimited for each layer in units of names such as prefectures, municipalities, towns and villages (hereinafter referred to as layers). Read it out. For example, when inputting an address “1-1, Showa-cho, Kariya-shi, Aichi”, the first level “Aichi prefecture”, the second level “Kariya”, and the third level “Showa” The text is read out for each level, such as "town", "1st-chome" as the fourth level, and "1st address" as the fifth level.
[0003]
On the other hand, in the case where the layer portion that has been erroneously input is corrected and the input is performed again, the user issues “return” corresponding to the command for deleting the display of one layer, thereby deleting only one layer. For example, as shown in FIG. 15, when the user utters up to “Showa-cho 1-chome, Kariya-shi, Aichi-ken” and then inputs again from “Kariya-shi Aichi-ken”, the user must input “1-chome”. Immediately after the utterance, "return" is uttered twice in succession, whereby the address input to the target hierarchy is deleted. Thereafter, the user again inputs the address after “Kariya City, Aichi Prefecture”.
[0004]
As described above, in the conventional voice control device, the user reads the address divided into layers and inputs the desired address, and when erasing the erroneously input layer portion, returns “return”. Speak to erase the error.
[0005]
[Problems to be solved by the invention]
However, the command corresponding to “return” in the above-described voice control device is limited to one layer to be deleted. Therefore, for example, after inputting “1-chome, Showa-cho, Kariya-shi, Aichi”, when re-entering the voice from the prefecture name which is the first hierarchy, the user utters “return” four times consecutively. It is troublesome for the user to continuously utter such identical utterance contents.
[0006]
The present invention has been made in view of such a problem, and an object of the present invention is to provide a voice control device capable of easily deleting an address input by voice.
[0007]
[Means for Solving the Problems]
The voice control device according to
[0008]
As described above, when the correction command is input twice consecutively, the voice control device of the present invention deletes all of the utterance contents classified and stored in a plurality of layers. This makes it possible to easily delete the utterance content without repeatedly issuing the correction command.
[0009]
As described in
[0010]
According to the third aspect of the present invention, the addresses are classified into at least five levels: prefectures, municipalities, towns and villages, streets and addresses. Accordingly, when inputting the address by voice, the user can input the desired address by speaking the respective layers of the prefecture, city, county, town, village, character, and street of the desired address. Can be.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a voice control device according to an embodiment of the present invention will be described with reference to the drawings. In this embodiment, an example in which the voice control device of the present invention is applied to a car navigation device will be described.
[0012]
FIG. 1 is a block diagram illustrating a schematic configuration of a car navigation device according to the present embodiment. As shown in FIG. 1, the
[0013]
The
[0014]
In the mode in which the voice input is accepted, when a voice is input by the user, the voice is converted into a voice signal by the
[0015]
Further, when the
[0016]
Further, when the user utters, for example, "return" during input of the address, the voice is recognized, converted into a command code corresponding to the voice, and given to the
[0017]
The display device 4 is configured by a liquid crystal display that displays a road map and the like. Further, a touch panel may be employed as the display of the display device 4.
[0018]
The
[0019]
As is well known, the
[0020]
The
[0021]
Next, the
[0022]
The
[0023]
The recognition
[0024]
The analyzed recognition word reading is compared with the recognition word stored in the recognition
[0025]
Here, the recognition
[0026]
That is, the municipal county dictionary is prepared for about 50 prefectures. For example, as shown in FIG. 5, the municipal county dictionary in which the prefecture is “Aichi prefecture” includes the cities belonging to the Aichi prefecture. The name of the ward and the recognition word are stored. Further, the town / village character dictionary is prepared for about 50 prefectures and for each municipal district of a specific prefecture. For example, as shown in FIG. 6, a name of a town and village character belonging to Kariya city in Aichi prefecture and a recognition word are stored. Note that the chome dictionary shown in FIG. 7 and the address dictionary shown in FIG. 8 do not belong to a specific place because they have names composed of numerals.
[0027]
Further, as shown in FIG. 9, the recognition
[0028]
After extracting the name of the prefecture from the recognition
[0029]
Then, the recognition
[0030]
Next, the
[0031]
On the other hand, in the point search function by inputting an address, the names of prefectures, municipalities, and the like transmitted from the
[0032]
For example, when a signal corresponding to the name of a prefecture “Aichi” is received, the name of the prefecture is displayed on the display device 4. When a command code C0001 different from the name of the prefecture, city, or county is received, only the name located at the lowest level among addresses stored and displayed in a hierarchically connected manner is deleted. I do. Further, when the command code C0001 is received twice consecutively, all the names of the addresses stored and displayed are collectively erased. Note that, when the command code C0001 is received, a guidance sound, a message, or the like for executing display deletion may be notified via the
[0033]
Further, for example, when all the names of the addresses “1-1, Showa-cho, Kariya-shi, Aichi” have been received, the coordinates of the point corresponding to the received address are extracted from the
[0034]
Next, in the above-described
[0035]
First, in step S1 of FIG. 10, the standby state is continued until the
[0036]
Next, the speech recognition processing in step S3 will be described with reference to the flowcharts in FIGS. First, in step S30 shown in FIG. 11, the variable "Back" is initialized to zero. The variable “Back” is incremented by 1 each time the recognition word corresponding to the command code C0001 is collated / extracted. That is, by referring to the variable “Back”, the command code C0001 is output twice. It can be determined whether or not they have been continuously extracted.
[0037]
In a step S31, it is determined whether or not the user has spoken. If there is a speech, the process proceeds to the next step. If there is no speech, the process enters a standby state until there is a speech. In the present embodiment, it is assumed that there is an utterance “Aichiken”.
[0038]
In step S32, the utterance of the user is analyzed, and the analyzed recognized word reading is compared with the recognized words stored in the prefectural dictionary. Then, the most likely recognized word and the name of the prefecture corresponding to the recognized word are extracted. In the present embodiment, it is assumed that a prefecture name “Aichi Prefecture” corresponding to the recognition word “Aichiken” has been extracted.
[0039]
In step S33, it is determined in which hierarchy the recognition dictionary that has been collated / extracted in step S32 is one of the prefectural dictionary, the city / ward county dictionary, the town / village dictionary, the chome dictionary, and the address dictionary. In the present embodiment, it is determined that the recognition dictionary is the first hierarchy recognition dictionary.
[0040]
Further, in step S33, the recognition dictionary to be collated / extracted next time is switched to a recognition dictionary located at a lower hierarchy of the current recognition dictionary and corresponding to the currently extracted name. In the present embodiment, the recognition dictionary is switched to the recognition dictionary of the city, ward and county corresponding to the name of "Aichi prefecture" in the second hierarchy, which is lower than the first hierarchy. If the current recognition dictionary is at the fifth level, there is no recognition dictionary located at a lower level, and therefore, the process of switching the recognition dictionary is not executed.
[0041]
In step S34, the hierarchy of the recognition dictionary determined in step S33 is stored. In the present embodiment, the variable “kaisou” is set to 1 because it is the first-level recognition dictionary.
[0042]
In step S35, the name extracted in step S32 is displayed on the display device 4. In the present embodiment, as shown in FIG. 14, the
[0043]
The step S36 decides whether or not the variable "kaisou" is 5, or whether a command indicating the end of the utterance such as "set" or "new set" is uttered, and the variable "kaisou" is 5. Alternatively, when a command indicating the end of the utterance is uttered, it is determined that the input of the names of the first to fifth layers has been completed, and the voice recognition processing ends. If this is not the case, the process proceeds to step S37. In the present embodiment, since the variable “kaisou” is 1, the process proceeds to step S37.
[0044]
The determination in step S37 is the same as that in step S31, and a description thereof will not be repeated. In step S38, the utterance of the user is analyzed, the analyzed recognized word reading is compared with the recognized word stored in the city / ward county dictionary, and a city / ward / county name corresponding to the recognized word is extracted. In addition, even if the analyzed recognized word reading is compared with the recognized word in the city / ward county dictionary, if the most reliable recognized word cannot be selected, the matching from the recognized word in the command code dictionary is attempted. Then, when the recognized word is collated from the command code dictionary, a command code corresponding to the recognized word is extracted. In the present embodiment, it is assumed that the city name “Kariya” corresponding to the recognition word “Kariyashi” is extracted.
[0045]
A step S39 decides whether or not the command code C0001 corresponding to the recognition word "return" has been extracted in the step S38. Here, if the command code C0001 is extracted, the process proceeds to step S50 in FIG. 13, and if not, the process proceeds to step S40 in FIG. In the present embodiment, since the city name “Kariya” has been extracted, the process proceeds to step S40.
[0046]
In step S40 shown in FIG. 12, the variable “Back” is set to zero. Here, the reason why the variable “Back” is set to zero is to switch the processing between the case where the user utters “return” twice consecutively and the case where the user utters “return” plural times although it is not twice consecutive. That's why. In step S40, since the command code C0001 corresponding to the recognized word "return" was not extracted in step S39, zero is set to the variable "Back".
[0047]
In step S41, it is determined in which hierarchy the recognition dictionary that has been collated / extracted in step S38 is a recognition dictionary of a prefectural dictionary, a municipal county dictionary, a town / village dictionary, a street dictionary, and an address dictionary. In the present embodiment, it is determined that the recognition dictionary is the second hierarchy recognition dictionary.
[0048]
Further, in step S41, the recognition dictionary to be collated / extracted next time is switched to a recognition dictionary located at a lower hierarchy of the current recognition dictionary and corresponding to the currently extracted name. In the present embodiment, the recognition dictionary is switched to the town / village character recognition dictionary corresponding to the name of “Kariya City, Aichi Prefecture” in the third hierarchy, which is lower than the second hierarchy. If the current recognition dictionary is at the fifth level, there is no recognition dictionary located at a lower level, and therefore, the process of switching the recognition dictionary is not executed.
[0049]
In step S42, the hierarchy of the recognition dictionary determined in step S41 is stored. In the present embodiment, since the recognition dictionary is a second-level recognition dictionary, the variable “kaisou” is set to 2 and stored.
[0050]
In step S43, the name extracted in step S38 is stored and displayed on the display device 4. In the present embodiment, as shown in FIG. 14,
[0051]
In step S36, as described above, it is determined whether the variable "kaisou" is 5, or whether a command indicating the end of the utterance, such as "set" or "new set", has been uttered. In the present embodiment, since the variable “kaisou” is 2, the process proceeds to step S37.
[0052]
In step S37, in the present embodiment, the process proceeds assuming that there is an utterance of "showacho". In step S38, the analyzed recognized word reading is collated with the recognized word stored in the town and village character dictionary, and the recognized word is recognized. Extract the corresponding town character name. In the present embodiment, it is assumed that the town name “Showa-cho” corresponding to the recognition word “showacho” has been extracted. In step S39, the process proceeds to step S40 since the town name "Showa-cho" has been extracted in step S38.
[0053]
In step S40, the variable “Back” is set to zero again. In step S41, it is determined in step S38 that the recognition dictionary is the third-layer recognition dictionary, and the next recognition dictionary to be compared / extracted is set to the third-layer recognition dictionary. The mode is switched to the fourth level, that is, the lower level hierarchical dictionary. In step S42, in the present embodiment, since the recognition dictionary is the third hierarchy, the variable “kaisou” is set to 3 and stored. In step S43, the name extracted in step S38 is stored and stored in the display device 4. indicate. In the present embodiment, as shown in FIG. 14,
[0054]
In step S36, as described above, it is determined whether the variable "kaisou" is 5, or whether a command indicating the end of the utterance, such as "set" or "new set", has been uttered. In the present embodiment, since the variable “kaisou” is 3, the process proceeds to step S37.
[0055]
In step S37, in the present embodiment, the process proceeds assuming that there is an utterance of "Ichichome". In step S38, the analyzed recognized word reading is collated with the recognized word stored in the chome dictionary, and the recognized word is matched. Extract the name of the chome to perform. In the present embodiment, it is assumed that a chome name “1 chome” corresponding to the recognition word “ichichome” has been extracted. In step S39, the process proceeds to step S40 since the street name "1-chome" is extracted in step S38.
[0056]
In a step S40, the variable “Back” is set to zero, and in a step S41, it is determined in the step S38 that the recognition dictionary is a fourth-layer recognition dictionary, and the next recognition / extraction dictionary to be compared / extracted is set in a lower layer of the fourth layer. Is switched to the fifth level address dictionary. In step S42, since the recognition dictionary is the fourth hierarchy in the present embodiment, the variable “kaisou” is set to 4 and stored, and in step S43, the name extracted in step S38 is displayed on the display device 4. . In the present embodiment, as shown in FIG. 14,
[0057]
In step S36, as described above, it is determined whether the variable "kaisou" is 5, or whether a command indicating the end of the utterance, such as "set" or "new set", has been uttered. In the present embodiment, since the variable “kaisou” is 4, the process proceeds to step S37.
[0058]
In step S37, in the present embodiment, the process proceeds assuming that there is an utterance of "return". In step S38, the analyzed recognized word reading is compared with the recognized word stored in the address dictionary, and the address corresponding to the recognized word is read. Extract the name. However, the recognition word reading “return” of the present embodiment does not select the most probable recognition word even when collating from the recognition word in the address dictionary. Therefore, matching is attempted from the recognized words in the command code dictionary. Then, in the present embodiment, the command code C0001 corresponding to the recognition word “return” is extracted.
[0059]
A step S39 decides whether or not the command code C0001 corresponding to the recognition word "return" has been extracted in the step S38. In the present embodiment, since the command code C0001 has been extracted, the process proceeds to step S50 in FIG.
[0060]
In step S50 of FIG. 13, 1 is added to the variable "Back". In this embodiment, since the variable “Back” is set to zero in the immediately preceding step S40, the variable “Back” is set to 1 here. That is, since the command code C0001 has been extracted in the immediately preceding step S38, 1 is added to mean that the command code has been extracted once.
[0061]
A step S51 decides whether or not the variable "Back" is 2; if the variable "Back" is 2, the process shifts to a step S54; otherwise, the process goes to a step S52. Proceed with the process. In the present embodiment, since the variable “Back” is 1, the process proceeds to step S52.
[0062]
In step S52, 1 is subtracted from the variable "kaisou", and the recognition dictionary to be collated / extracted next time is switched to the recognition dictionary which is one level higher than the current recognition dictionary. In the present embodiment, the dictionary is switched to the town / village dictionary corresponding to “Kariya City, Aichi Prefecture” which is the third hierarchy which is one hierarchy higher than the fourth hierarchy and which is the first and second hierarchy.
[0063]
In step S53, the storage and display of the name located at the lowest level among the addresses displayed on the display device 4 are deleted. In the present embodiment, as shown in the
[0064]
In step S37, in the present embodiment, the process proceeds assuming that there is an utterance "return" again by the user. In step S38, the analyzed recognized word reading is collated with the recognized word stored in the town and village character dictionary, and the recognition is performed. Extract the town / village name corresponding to the word. However, the recognition word reading “return” of the present embodiment does not select the most probable recognition word even if it is collated from the recognition word of the Machimura dictionary. Therefore, matching is attempted from the recognized words in the command code dictionary. Then, in the present embodiment, the command code C0001 corresponding to the recognition word “return” is extracted.
[0065]
In the step S39, since the command code C0001 is extracted, the process shifts to a step S50. In the step S50, 1 is added to the variable "Back". In the present embodiment, since 1 is added to the variable “Back” in the immediately preceding step S50, the variable “Back” is 2 here. That is, it means that the command code C0001 is extracted twice consecutively. In step S51, since the variable “Back” is 2, the process proceeds to step S54.
[0066]
In step S54, of the addresses displayed on the display device 4, the storage and display of names located at all levels are deleted. In the present embodiment, as shown in the
[0067]
Note that when all the names from the first to fifth layers have been input, or even when no input has been made to the fifth layer, a command such as “set” or “new set” that means the end of the utterance is used. If uttered, the process proceeds from step S36 to step S4 in FIG. Then, in step S4, the coordinates of a point corresponding to the input address are extracted from the
[0068]
Then, in step S5, the information read in step S4 is converted into an image signal, and the display device 4 displays a mark of a point corresponding to the address and a road map around the mark.
[0069]
As described above, when the speech recognition device of the present invention recognizes "return" twice in succession, it erases the display of the addresses that are connected hierarchically and displayed collectively. Thus, when inputting again from the prefecture during the input, the user can erase the display of the address in a lump by uttering “return” twice consecutively. As a result, the display can be easily erased without repeatedly saying “return”.
[0070]
In the present embodiment, “return” is set as a recognition word for the command code C0001, but the present invention is not limited to this. Furthermore, in the command code dictionary, for example, recognition words such as “erase” and “return to the beginning” and command codes C0002 for these recognition words are provided. When the command codes C0002 are extracted, The display of the addresses displayed jointly may be collectively deleted.
[0071]
Further, the scope of application of the present invention is not limited to the voice address input function of the car navigation device, and may be, for example, a function of voice inputting a telephone number or the like that is hierarchically indicated as in the case of an address. Applicable.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a schematic configuration of a
FIG. 2 is a block diagram illustrating a configuration of a
FIG. 3 is a block diagram illustrating a configuration of a
FIG. 4 is a diagram showing a prefectural dictionary according to the embodiment.
FIG. 5 is a diagram showing a dictionary of municipalities belonging to Aichi prefecture according to the present embodiment.
FIG. 6 is a diagram showing a dictionary of town and village characters belonging to Kariya city, Aichi prefecture, according to the present embodiment.
FIG. 7 is a diagram showing a chome dictionary according to the embodiment;
FIG. 8 is a diagram showing an address dictionary according to the embodiment.
FIG. 9 is a diagram showing a command code dictionary according to the embodiment.
FIG. 10 is a flowchart showing a flow of overall processing of the
FIG. 11 is a flowchart illustrating an overall flow of a voice recognition process according to the embodiment.
FIG. 12 is a flowchart illustrating a partial flow of a voice recognition process according to the embodiment;
FIG. 13 is a flowchart showing a flow of a display erasing process of a voice recognition process according to the embodiment.
FIG. 14 is a diagram showing a display image of the display device 4 according to the present embodiment.
FIG. 15 is a diagram showing a result of voice input according to the related art.
[Explanation of symbols]
1 Car navigation system
2 microphone
3 Talk switch
4 Display device
5 Speaker
6 GPS receiver
7 Vehicle speed sensor
8 Yaw rate sensor
9 map database
10 Voice Recognition Unit
11 route guidance
12 Vehicle position / vehicle direction calculation unit
Claims (3)
前記音声入力手段に入力されたユーザの発話音声を認識する音声認識手段と、
ユーザによって音声が入力されたとき、認識された発話内容を複数の階層に分類して記憶するとともに、当該発話内容を修正するための修正コマンドが入力されたとき、最下層に分類して記憶されている発話内容の一部を消去する制御手段とを備え、
前記制御手段は、前記修正コマンドが2回連続して入力された場合、複数の階層に分類して記憶されている発話内容の全部を消去することを特徴とする音声制御装置。Voice input means for inputting voice;
Voice recognition means for recognizing a user's uttered voice input to the voice input means,
When a voice is input by the user, the recognized utterance contents are classified and stored in a plurality of layers, and when a correction command for correcting the utterance contents is input, the recognized utterance contents are classified and stored in the lowest layer. Control means for erasing a part of the utterance content,
The voice control device, wherein when the correction command is input twice consecutively, the control unit deletes all of the utterance contents stored in a plurality of layers.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002218610A JP4004885B2 (en) | 2002-07-26 | 2002-07-26 | Voice control device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002218610A JP4004885B2 (en) | 2002-07-26 | 2002-07-26 | Voice control device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2004061754A true JP2004061754A (en) | 2004-02-26 |
| JP4004885B2 JP4004885B2 (en) | 2007-11-07 |
Family
ID=31939744
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002218610A Expired - Fee Related JP4004885B2 (en) | 2002-07-26 | 2002-07-26 | Voice control device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4004885B2 (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007025075A (en) * | 2005-07-13 | 2007-02-01 | Xanavi Informatics Corp | Navigation device |
| JP2010139826A (en) * | 2008-12-12 | 2010-06-24 | Toyota Motor Corp | Voice recognition system |
| KR20150015703A (en) * | 2013-08-01 | 2015-02-11 | 엘지전자 주식회사 | Apparatus and method for recognizing voice |
| JP2016206580A (en) * | 2015-04-28 | 2016-12-08 | 四郎丸 功 | Voice recognition device and voice recognition system |
| JP2018072784A (en) * | 2016-11-06 | 2018-05-10 | ナレルシステム株式会社 | Voice recognition method, computer program, and device |
-
2002
- 2002-07-26 JP JP2002218610A patent/JP4004885B2/en not_active Expired - Fee Related
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007025075A (en) * | 2005-07-13 | 2007-02-01 | Xanavi Informatics Corp | Navigation device |
| JP2010139826A (en) * | 2008-12-12 | 2010-06-24 | Toyota Motor Corp | Voice recognition system |
| KR20150015703A (en) * | 2013-08-01 | 2015-02-11 | 엘지전자 주식회사 | Apparatus and method for recognizing voice |
| KR102229972B1 (en) * | 2013-08-01 | 2021-03-19 | 엘지전자 주식회사 | Apparatus and method for recognizing voice |
| JP2016206580A (en) * | 2015-04-28 | 2016-12-08 | 四郎丸 功 | Voice recognition device and voice recognition system |
| JP2018072784A (en) * | 2016-11-06 | 2018-05-10 | ナレルシステム株式会社 | Voice recognition method, computer program, and device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4004885B2 (en) | 2007-11-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5334178B2 (en) | Speech recognition apparatus and data update method | |
| JP2644376B2 (en) | Voice navigation method for vehicles | |
| US7949524B2 (en) | Speech recognition correction with standby-word dictionary | |
| US8751145B2 (en) | Method for voice recognition | |
| CN102224542B (en) | Weight coefficient generation device, voice recognition device, navigation device, vehicle, weight coefficient generation method | |
| US20100305947A1 (en) | Speech Recognition Method for Selecting a Combination of List Elements via a Speech Input | |
| US20080177541A1 (en) | Voice recognition device, voice recognition method, and voice recognition program | |
| JP2000510944A (en) | Navigation system using audio CD player for data storage | |
| JP2004029270A (en) | Voice controller | |
| US7295923B2 (en) | Navigation device and address input method thereof | |
| US20140067400A1 (en) | Phonetic information generating device, vehicle-mounted information device, and database generation method | |
| JP4004885B2 (en) | Voice control device | |
| JP4262837B2 (en) | Navigation method using voice recognition function | |
| JP3645104B2 (en) | Dictionary search apparatus and recording medium storing dictionary search program | |
| JP3726783B2 (en) | Voice recognition device | |
| JP5455355B2 (en) | Speech recognition apparatus and program | |
| KR101063607B1 (en) | Navigation system having a name search function using voice recognition and its method | |
| CN101981613A (en) | Speech device, speech control program, and speech control method | |
| JP3759313B2 (en) | Car navigation system | |
| JP2006039954A (en) | Database retrieval system, program, and navigation system | |
| JP2001306088A (en) | Voice recognition device and processing system | |
| JP2005114964A (en) | Method and processor for speech recognition | |
| JP2007240688A (en) | Speech recognition device and navigation device using the same, and speech authentication device, method and program | |
| KR20100126992A (en) | Address Search using Speech Recognition to Reduce the Number of Commands | |
| JPH10312193A (en) | Voice input device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050728 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050802 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050929 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20051108 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051214 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060131 |
|
| A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20060224 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070822 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100831 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100831 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110831 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120831 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130831 Year of fee payment: 6 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |