JP3724461B2 - 音声制御装置 - Google Patents
音声制御装置 Download PDFInfo
- Publication number
- JP3724461B2 JP3724461B2 JP2002216070A JP2002216070A JP3724461B2 JP 3724461 B2 JP3724461 B2 JP 3724461B2 JP 2002216070 A JP2002216070 A JP 2002216070A JP 2002216070 A JP2002216070 A JP 2002216070A JP 3724461 B2 JP3724461 B2 JP 3724461B2
- Authority
- JP
- Japan
- Prior art keywords
- command
- user
- executed
- voice control
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 26
- 238000012790 confirmation Methods 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 description 19
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 2
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
- B60R16/0373—Voice control
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0968—Systems involving transmission of navigation instructions to the vehicle
- G08G1/0969—Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Description
【発明の属する技術分野】
本発明は、ユーザに混乱や不快感を与えることなくコマンドの使用法を教示できる音声制御装置に関する。
【0002】
【従来の技術】
従来、ユーザの発話内容を認識し、これに基づいて制御対象機器を操作する音声制御装置がある。
【0003】
この従来装置によれば、図11で示すように、ユーザが音声入力部であるマイクZ1に発話を行うと、音声認識部Z2は認識語記憶部(辞書)Z3に記憶された発話すべき複数のコマンドの音声認識データから、ユーザの発話内容に対応する音声認識データのコマンドを決定し、そのコマンドを機能実行部Z4へ出力する。機能実行部Z4は対象システムZ5に対し、音声認識部Z2から取得したコマンドに対応する動作状態へ変更するよう指示を与える。これにより、ユーザは発話によって対象システムZ5の動作状態を変更することができる。
【0004】
【発明が解決しようとする課題】
しかしながら、従来の音声制御装置では、ユーザがコマンドを勘違いして発話した場合については考慮していない。
【0005】
例えば、カーナビゲーション装置において、音声操作によって目的地を設定する場合を考える。目的地設定のためのコマンドとしては、初めて目的地を設定する場合に使用する「設定」コマンド、既に設定した目的地を取り消して新たな目的地を設定する場合に使用する「新規設定」コマンドがある。ユーザは、これらのコマンドをカーナビゲーション装置の動作状態によって区別して使い分けなければならない。グラフィックユーザインターフェース(GUI)によって目的地を設定する場合は、カーナビゲーション装置の動作状態に合わせて各コマンドに対応するスイッチが表示されるため、何ら不都合は生じない。しかし、音声操作においては、ユーザはカーナビゲーション装置の動作状態によらず、全てのコマンドを発話することができる。そのため、ユーザの発話したコマンドが必ずしも実行できるとは限らない。これには、認識すべきコマンドを保存している辞書から、カーナビゲーション装置の動作状態に合わせて実行できないコマンドを除外し、これを認識させないようにすることで対応できる。しかし、この方法では、ユーザの発話したコマンドが認識されなかった場合に、ユーザは何故これが認識されなかったのかを知ることができず、不快感を感じる。
【0006】
また、ユーザが勘違いしてコマンドを発話する場合もある。例えば、市販されているカーナビゲーション装置の中には、目的地を設定する際に、「住所」コマンドや「施設」コマンド等を実行後、所望の住所や施設名を入力し、その地点を表示させた上で目的地を設定するものがある。しかし、ユーザは、目的地を設定するためのメニュー画面を表示させる目的で、現在表示中の地点を目的地として登録する「目的地セット」コマンドを誤って発声する場合があり、これによって生じる予期せぬ動作によってユーザが混乱する。
【0007】
本発明は、前述の問題点を鑑み、ユーザに混乱や不快感を与えることなくコマンドの使用法を教示できる音声制御装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するために、請求項1に記載の音声制御装置は、制御対象機器の操作を行うために用いられる、発話されるべき複数のコマンドを音声認識データとして記憶する記憶手段と、記憶手段に記憶されている複数のコマンドを用いて、ユーザの発話内容をその中の1つのコマンドとして認識する音声認識手段と、音声制御装置の各種動作をユーザに報知する報知手段と、制御対象機器の動作状態を検出する検出手段と、音声認識手段によって認識されたコマンドが、検出手段によって検出された制御対象機器の動作状態において実行可能か否かを判別するとともに、実行不可と判別した場合には、そのコマンドの正しい使用方法を報知手段によって報知させる判別手段とを備えることを特徴とする。
【0009】
このように、本発明の音声制御装置は、ユーザの発話内容に対応するコマンドを認識し、制御対象機器の操作を行うために用いられるコマンドであるが、検出された制御対象機器の動作状態において実行不可なコマンドが認識された場合は、そのコマンドの正しい使用方法を報知する。そのため、ユーザが誤ったコマンドを発話した場合においても、ユーザは何故発話したコマンドに対応する動作が実行されないのかを知ることができ、かつ、発話したコマンドの正しい使用方法を知ることができる。こうして、ユーザに混乱や不快感を与えることなく、コマンドの使用法を教示できる。
【0010】
請求項2に記載のように、判別手段は、コマンド毎に、そのコマンドと関連のあるコマンドを集めた関連コマンドリストを有し、コマンドの正しい使用方法を報知手段に報知させる場合は、関連コマンドリストを参照して、検出手段によって検出された制御対象機器の動作状態において実行可能なコマンドも報知手段に報知させることが望ましい。ユーザが誤って発話するコマンドは、その類似性から予め特定できる。コマンドの正しい使用方法を報知する場合は、これと同時に、関連コマンドリストを参照して実行可能なコマンドを報知することにより、ユーザが本来意図したコマンドを教示できる確率を高めることができる。
【0011】
請求項3に記載のように、判別手段によって実行不可と判別されたコマンドを、検出手段によって検出された制御対象機器の動作状態において実行可能な他のコマンドに置換する置換手段を設け、置換手段がコマンドを置換する際には、その旨の内容を報知手段によって報知することが望ましい。ユーザの発話したコマンドが実行不可と判定された場合は、これを実行可能なコマンドに置換し、置換したコマンドや、置換した理由、及びユーザの発話したコマンドが実行できない理由などを報知手段によって報知することで、ユーザにとって違和感のない音声操作が可能となる。
【0012】
請求項4に記載のように、置換手段は、コマンド毎に、そのコマンドと関連のあるコマンドを集めた関連コマンドリストを有し、関連コマンドリストを参照して、置換すべきコマンドを決定することが望ましい。ユーザの発話したコマンドと関連のあるコマンドを集めた関連コマンドリストを参照してコマンドの置換を行うことにより、ユーザが本来意図したコマンドに置換できる確率を高めることができる。
【0013】
請求項5に記載のように、置換手段は、各コマンドの使用頻度を記憶するものであり、使用頻度を参照して、置換すべきコマンドを決定することが望ましい。ユーザが頻繁に使用するコマンドは、その使用頻度から予め特定できる。使用頻度を参照してコマンドの置換を行うことにより、ユーザが本来意図したコマンドに置換できる確率を高めることができる。
【0014】
請求項6に記載のように、置換手段は、コマンドを置換する際に、ユーザに対して確認を行うことが望ましい。コマンドの置換によって、ユーザが発話したコマンドとは異なるコマンドが実行されることとなるため、ユーザの混乱を招きやすい。そこで、ユーザに対してコマンドを置換してよいかどうかの確認を行うことで、ユーザの混乱を回避することができる。
【0015】
請求項7に記載のように、置換手段は、コマンドを置換する際に、ユーザに対して確認を行うべきコマンドを集めた確認コマンドリストを有し、確認コマンドリストを参照して、ユーザに対して確認を行うことが望ましい。置換するコマンドの中には、後から訂正することが容易でないコマンドも含まれているが、これらは予め特定できる。このようなコマンドを置換対象とするときのみユーザに対して確認を行うことにより、確認の回数が減り、音声操作におけるユーザの煩わしさを低減することができる。
【0016】
本音声制御装置は、請求項8に記載のように、音声操作機能を有したカーナビゲーション装置に対して好適に用いることができる。
【0017】
カーナビゲーション装置における音声操作コマンドには、類似した名称のものが複数あり、ユーザが誤ったコマンドを発話する場合が多い。また、同じ名称のコマンドであっても、カーナビゲーション装置のバージョンや型番等の違いによっては、実行内容が異なる場合がある。そのため、本音声制御装置を、音声操作機能を有したカーナビゲーション装置に対して適用することで、ユーザを混乱させることなく、なおかつ、不快感を与えることもなく、コマンドの使用法を教示できる。
【0018】
【発明の実施の形態】
(第1実施形態)
図1は、本発明の第1実施形態の全体構成を示すブロック図である。
【0019】
本実施形態における音声制御装置1は、カーナビゲーション装置2の動作状態を検出し、その動作状態において実行できないコマンドが認識されると、そのコマンドの正しい使用方法をユーザに通知するものである。
【0020】
記憶手段である認識語記憶部1Aは、ユーザが発話したコマンドを認識するためのコマンドデータを有し、カーナビゲーション装置2を音声操作するための全てのコマンドを1つの音声認識辞書(全てのコマンドを含む1セットの辞書)として格納している。
【0021】
音声認識手段である音声認識部1Bは、マイク3から入力されたユーザの発話と、認識語記憶部1Aに記憶された音声認識辞書に含まれる各コマンドとの合致度を算出し、最も合致度の高いコマンドをユーザの発話したコマンドとして決定する。
【0022】
検出手段であるシステム状況検出部1Cは、カーナビゲーション装置2に接続されており、その動作状態を割り込み処理によって一定時間毎に検出する。検出方法としては、カーナビゲーション装置2の動作状態が変更されるたびにカーナビゲーション装置2から信号を出力させ、それをトリガとしてカーナビゲーション装置2の動作状態の変更を検出するイベントドリブン方式を用いても良い。
【0023】
機能実行部1Dは、カーナビゲーション装置2の動作状態を変更する信号をカーナビゲーション装置2へ出力する。
【0024】
関連コマンドリスト記憶部1Eは、認識語記憶部1Aに記憶されている音声認識辞書に含まれる各コマンド毎に、ユーザが誤って発話するコマンドや、誤認識されやすいコマンドをリストアップして記憶している。
【0025】
判別手段である機能判定部1Fは、音声認識部1Bがユーザの発話内容として決定したコマンドが、システム状況検出部1Cが検出したカーナビゲーション装置2の動作状態において実行可能であるかどうかを判定する。実行可能である場合は、機能実行部1Dに対してそのコマンドを実行するための信号をカーナビゲーション装置2へ出力するよう指示する。実行不可の場合は、そのコマンドが現在のカーナビゲーション装置2の動作状態において実行不可であることと、そのコマンドの正しい使用方法とを、報知手段であるスピーカ4によってユーザに通知する。
【0026】
さらに、関連コマンドリスト記憶部1Eから、ユーザの発話したコマンドの関連コマンドリストを取り出して参照し、ユーザの発話したコマンドと関連があり、かつ、実行可能なコマンドをスピーカ4によってユーザに通知する。
【0027】
図2は、第1実施形態の音声制御装置が、ユーザの発話によってカーナビゲーション装置2の動作状態を変更するフローチャートである。
【0028】
ステップ201では、マイク3からユーザの発話を入力する。
【0029】
ステップ202では、ステップ201で入力した発話と、認識語記憶部1Aに記憶された音声認識辞書に含まれる各コマンドとの合致度を算出し、最も合致度の高いコマンドをユーザの発話したコマンドとして決定する。
【0030】
ステップ203では、ステップ202で決定されたコマンドが、現在のカーナビゲーション装置2の動作状態において実行可能であるかを判定する。実行可能であると判定された場合は、ステップ204へ進む。そうでない場合は、ステップ205へ進む。
【0031】
ステップ204では、ステップ202で決定されたコマンドを実行するための信号を、カーナビゲーション装置2へ出力する。これにより、ユーザの所望した動作が実行され、処理は終了する。
【0032】
ステップ205では、ステップ202で決定されたコマンドの正しい使用方法をスピーカ4によってユーザに報知する。これにより、ユーザが誤ったコマンドを発話したり、ユーザの発話内容が誤認識された場合においても、ユーザは何故発話したコマンドが実行されないのかを知ることができ、かつ、発話したコマンドの正しい使用方法を知ることができる。こうして、ユーザを混乱させることなく、なおかつ、ユーザに不快感を与えることもなく、コマンドの使用法を教示することが可能となる。
【0033】
ステップ206では、ステップ202で決定されたコマンドの関連コマンドリストから実行可能なコマンドを取り出し、これを使用するようスピーカ4によってユーザに通知する。関連コマンドリストには、ユーザが誤って発話するコマンドや、誤認識されやすいコマンドが記載されている。これらのコマンドのうち、実行可能なコマンドを使用するようユーザに通知することで、ユーザが本来意図したコマンドを教示できる確率を高めることができる。
【0034】
次に、図2のフローチャートに示す処理によって、ユーザが誤ったコマンドを発話した際の処理過程を具体的に説明する。ここでは、カーナビゲーション装置2に目的地を設定する場合を想定する。目的地設定のためのコマンドは、初めて目的地を設定する「設定」コマンドと、既に設定した目的地を取り消して新たな目的地を設定する「新規設定」コマンドがある。また、関連コマンドリストには、「新規設定」コマンドに関連のあるコマンドとして、「設定」コマンドが記載されている。
【0035】
ユーザが初めて目的地を設定する際に、「設定」コマンドを発話するつもりが、誤って、「新規設定」コマンドを発話したとする。しかし、カーナビゲーション装置2には目的地が設定されていないため、「新規設定」コマンドを実行することはできない。そこで、「『新規設定』コマンドは、既に設定した目的地を消去して、現在表示中の地点を新たに登録するコマンドです。」や「すでに目的地が設定されている場合しか、『新規設定』コマンドはご使用になれません。」等の、コマンドの正しい使用方法をユーザに通知する。その後、関連コマンドリストから、ユーザの発話した「新規設定」コマンドと関連のあるコマンドを調べる。ここでは、「新規設定」コマンドに関連のあるコマンドとして「設定」コマンドが記載されており、これが実行可能であるため、スピーカ4によって「『設定』コマンドをお使いください。」と、ユーザに通知する。「設定」コマンド以外にも、実行可能な複数のコマンドが関連コマンドリストに記載されている場合には、これらのコマンドを全て通知した後に、「以上のいずれかのコマンドをお使いください。」と、ユーザに通知する。
(第2実施形態)
図3は、本発明の第2実施形態における音声制御装置の全体構成を示すブロック図である。
【0036】
図3に示すように、本実施形態では、上述の第1実施形態の機能判定部1Fに代えて置換判定部1Gを設けた点が第1実施形態と異なる。
【0037】
置換手段・判定手段である置換判定部1Gは、音声認識部1Bがユーザの発話内容として決定したコマンドが、システム状況検出部1Cが検出したカーナビゲーション装置2の動作状態において実行可能であるかどうかを判定する。実行可能である場合は、機能実行部1Dに対して、そのコマンドを実行するための信号をカーナビゲーション装置2へ出力するよう指示する。実行不可の場合は、関連コマンドリスト記憶部1Eから、ユーザの発話したコマンドの関連コマンドリストを取り出して参照し、ユーザの発話したコマンドと関連があり、かつ、実行可能なコマンドを取り出して実行(置換)する。その後、実行したコマンドの名称と動作、およびユーザが発話したコマンドの正しい使用方法とをユーザに通知する。
【0038】
図4は、第2実施形態の音声制御装置が、ユーザの発話によってカーナビゲーション装置2の動作状態を変更するフローチャートである。
【0039】
ステップ401では、マイク3からユーザの発話を入力する。
【0040】
ステップ402では、ステップ401で入力した発話と、認識語記憶部1Aに記憶された音声認識辞書に含まれる各コマンドとの合致度を算出し、最も合致度の高いコマンドをユーザの発話したコマンドとして決定する。
【0041】
ステップ403では、ステップ402で決定されたコマンドが、現在のカーナビゲーション装置2の動作状態において実行可能であるかを判定する。実行可能であると判定された場合は、ステップ404へ進む。そうでない場合は、ステップ405へ進む。
【0042】
ステップ404では、ステップ402で決定されたコマンドの機能を実行するための信号を、カーナビゲーション装置2へ出力する。これにより、ユーザの所望した動作が実行され、処理は終了する。
【0043】
ステップ405では、ステップ402で決定されたコマンドの関連コマンドリストから実行可能なコマンドを取り出して実行(置換)する。このように、ユーザの発話したコマンドが実行不可と判定された場合は、関連コマンドリストから実行可能なコマンドを取り出して実行(置換)することで、ユーザが本来意図したコマンドを実行(置換)できる確率を高めることができるのである。
【0044】
ステップ406では、ステップ405で実行したコマンドの名称と動作とをスピーカ4によってユーザに通知する。
【0045】
ステップ407では、ステップ402で決定されたコマンドの正しい使用方法をスピーカ4によってユーザに通知する。このように、実行(置換)したコマンドや、ユーザの発話したコマンドが実行できない理由とともに、ユーザの発話したコマンドの正しい使用方法を通知することで、ユーザにとって違和感のない音声操作が可能となるのである。
【0046】
次に、図4のフローチャートに示す処理によって、ユーザが誤ったコマンドを発話した際の処理過程を具体的に説明する。
【0047】
まず、第1例として、カーナビゲーション装置2に対して、既に設定された目的地へ到達するための通過点を設定する場合を想定する。通過点を設定するコマンドは「追加設定」コマンドである。また、関連コマンドリストには、「設定」コマンドと関連のあるコマンドとして、「追加設定」コマンドが記載されている。
【0048】
ユーザが通過点を設定する際に、「追加設定」コマンドを発話するつもりが、誤って「設定」コマンドを発話したとする。しかし、カーナビゲーション装置2には既に目的地が設定されているため、「設定」コマンドを実行することはできない。そこで、関連コマンドリストから、「設定」コマンドと関連があり、なおかつ実行可能な「追加設定」コマンドを取り出して、これを実行する。その後、「『追加設定』コマンドを実行し、現在表示中の地点を通過点として追加します。」等、「追加設定」コマンドを実行したことをユーザに通知する。さらに、「すでに目的地が設定されている場合は、『設定』コマンドはご使用になれません。」として、ユーザの発話したコマンドの正しい使用方法をユーザに通知する。なお、カーナビゲーション装置2の動作状態を示す項目として、既に設定されている目的地と登録しようとしている地点との位置関係を導入し、さらに、関連コマンドリストに「設定」コマンドと関連のあるコマンドとして「新規設定」を加え、前述の位置関係において、登録しようとしている地点が現在位置と目的地との間にあったり、目的地と現在地との距離に対して現在地に近い場合、「追加設定」コマンドを実行し、そうでない場合は「新規設定」コマンドを実行するようにしてもよい。
【0049】
次に、第2例として、目的地を検索する検索モード画面に移行する際に、ユーザが誤ったコマンドを発話した場合を想定する。検索モード画面に移行する正しいコマンドは、「住所」コマンドや「施設」コマンドである。また、「目的地セット」コマンドは、現在表示中の地点を目的地として設定するコマンドである。関連コマンドリストには、「目的地セット」コマンドと関連のあるコマンドとして、「住所」コマンドや「施設」コマンドが記載されている。
【0050】
カーナビゲーション装置2にメニュー画面が表示されている場合に、ユーザが目的地を検索しようとして、誤って「目的地セット」コマンドを発話したとする。しかし、「目的地セット」コマンドは、現在表示中の地点を目的地として設定するコマンドであり、カーナビゲーション装置2にメニュー画面が表示されている場合には、これを実行することはできない。そこで、関連コマンドリストから、「目的地セット」コマンドに関連があり、メニュー画面において実行可能な「住所」コマンドや「施設」コマンドを取り出して実行する。これにより、カーナビゲーション装置2の表示画面は、住所や施設名などから目的地を検索する検索モード画面へ移行する。そして、「『住所』コマンドを実行し、検索モード画面へ移行します。」や「『施設』コマンドを実行し、検索モード画面へ移行します。」等、検索モード画面へ移行することをユーザに通知する。さらに、「メニュー画面では『目的地セット』コマンドはご使用になれません。」等の、ユーザが発話したコマンドの正しい使用方法をユーザに通知する。
(第3実施形態)
図5は、本発明の第3実施形態における音声制御装置の全体構成を示すブロック図である。
【0051】
図5に示すように、本実施形態では、上述の第2実施形態において使用頻度記憶部1Hを設け、さらに、置換判定部1Gに代えて頻度別置換判定部1Iを設けた点が第2実施形態と異なる。
【0052】
使用頻度記憶部1Hは、認識語記憶部1Aに記憶されている音声認識辞書に含まれる各コマンドの使用頻度を記憶している。使用頻度はユーザが現在までに使用した各コマンドの累積使用回数で示される。ユーザが発話したコマンドを音声認識部1Bが認識するたびに、そのコマンドの累積使用回数がカウントされる。
【0053】
頻度別置換判定部1Iは、音声認識部1Bがユーザの発話内容として決定したコマンドが、システム状況検出部1Cが検出したカーナビゲーション装置2の動作状態において実行可能であるかどうかを判定する。実行可能である場合は、機能実行部1Dに対して、そのコマンドを実行するための信号をカーナビゲーション装置2へ出力するよう指示する。実行不可の場合は、関連コマンドリスト記憶部1Eから、ユーザの発話したコマンドの関連コマンドリストを取り出して参照し、ユーザの発話したコマンドと関連があり、かつ、実行可能なコマンドを取り出す。取り出したコマンドが複数ある場合は、各々の使用頻度を使用頻度記憶部1Hから受け取り、これが最も高いコマンドを実行(置換)する。その後、実行したコマンドの名称と動作、およびユーザが発話したコマンドの正しい使用方法とをユーザに通知する。
【0054】
図6は、第3実施形態の音声制御装置が、ユーザの発話によってカーナビゲーション装置2の動作状態を変更するフローチャートである。
【0055】
ステップ601では、マイク3からユーザの発話を入力する。
【0056】
ステップ602では、ステップ601で入力した発話と、認識語記憶部1Aに記憶された音声認識辞書に含まれる各コマンドとの合致度を算出し、最も合致度の高いコマンドをユーザの発話したコマンドとして決定する。
【0057】
ステップ603では、ステップ602で決定されたコマンドが、現在のカーナビゲーション装置2の動作状態において実行可能であるかを判定する。実行可能であると判定された場合は、ステップ604へ進む。そうでない場合は、ステップ605へ進む。
【0058】
ステップ604では、ステップ602で決定されたコマンドの機能を実行するための信号を、カーナビゲーション装置2へ出力する。これにより、ユーザの所望した動作が実行され、処理は終了する。
【0059】
ステップ605では、ステップ602で決定されたコマンドの関連コマンドリストを検索し、実行可能な複数のコマンドがあるかを判定する。複数ある場合は、ステップ606へ進む。そうでない場合は、ステップ607へ進む。なお、関連コマンドリストに実行可能なコマンドがない場合、本フローは終了する。
【0060】
ステップ606では、ステップ605で検索された、実行可能な複数のコマンドの各々の使用頻度を調べ、これが最も高いコマンドを実行(置換)する。ユーザが頻繁に使用するコマンドは、各コマンドの使用頻度から予め特定できる。関連コマンドリストに実行可能な複数のコマンドがある場合は、各コマンドの使用頻度を参照して、ユーザが頻繁に使用するコマンドへ置換することにより、ユーザが本来意図したコマンドに置換できる確率を高めることができるのである。
【0061】
ステップ607では、関連コマンドリストのコマンドを取り出して実行(置換)する。
【0062】
ステップ608では、ステップ606もしくはステップ607において実行したコマンドの名称と動作とをスピーカ4によってユーザに通知する。
【0063】
ステップ609では、ステップ602で決定されたコマンドの正しい使用方法をスピーカ4によってユーザに通知する。
【0064】
次に、図6のフローチャートに示す処理によって、ユーザが誤ったコマンドを発話した際の処理過程を具体的に説明する。ここでは、カーナビゲーション装置2に既に設定した目的地を取り消して新たな目的地を設定する場合を想定する。目的地設定のためのコマンドは、初めて目的地を設定する「設定」コマンドと、既に設定した目的地を取り消して新たな目的地を設定する「新規設定」コマンドがある。また、関連コマンドリストには、「設定」コマンドと関連のあるコマンドとして、「新規設定」コマンドと「追加設定」コマンドが記載されている。「追加設定」コマンドは通過点を設定するコマンドであり、目的地の設定とは関係ないが、カーナビゲーション装置2の動作状態において、「新規設定」コマンドと選択的に使用できるコマンドとして、関連コマンドリストに記載されている。また、各コマンドの使用頻度は、「新規設定」がX回、「追加設定」コマンドがY回(ただし、X>Y)となっている。
【0065】
ユーザが目的地を変更する際に、「新規設定」コマンドを発話するつもりが、誤って「設定」コマンドを発話したとする。しかし、既に目的地が設定されているため、「設定」コマンドを実行することはできない。そこで、「設定」コマンドに対応する関連コマンドリストから、これに関連するコマンドである「新規設定」コマンドと「追加設定」コマンドを取り出す。これらのコマンドはどちらも実行可能であるため、さらに、これらのコマンドの使用頻度を調べる。各コマンドの使用頻度は、「新規設定」コマンドがX回、「追加設定」コマンドがY回となっているため、使用頻度の高い「新規設定」コマンドが実行される。以降の動作は、第2実施形態の場合と同様なので、説明を省略する。ユーザによっては、通常目的地を1か所だけに設定して、通過点は設定しないユーザもいる。このような場合には、使用頻度の高いコマンドを優先的に実行することで、ユーザにとって使い勝手の良いものとなるのである。
(第4実施形態)
図7は、本発明の第4実施形態における音声制御装置の全体構成を示すブロック図である。
【0066】
図7に示すように、第4実施形態では、上述の第2実施形態の置換判定部1Gに代えて、置換判定確認部1Jを設けた点が第2実施形態と異なる。
【0067】
置換判定確認部1Jは、音声認識部1Bがユーザの発話内容として決定したコマンドが、システム状況検出部1Cが検出したカーナビゲーション装置2の動作状態において実行可能であるかどうかを判定する。実行可能である場合は、機能実行部1Dに対して、そのコマンドを実行するための信号をカーナビゲーション装置2へ出力するよう指示する。実行不可の場合は、関連コマンドリスト記憶部1Eから、ユーザの発話したコマンドの関連コマンドリストを取り出して参照し、ユーザの発話したコマンドと関連があり、かつ、実行可能なコマンドを取り出す。そして、取り出したコマンドを実行して良いかをスピーカ4によってユーザに通知し、確認を行う。ユーザがマイク3に「YES」や「実行」等の発話を行うと、実行が許可されたものとして、そのコマンドを実行(置換)する。
【0068】
図8は、第4実施形態の音声制御装置が、ユーザの発話によってカーナビゲーション装置2の動作状態を変更するフローチャートである。
【0069】
ステップ801では、マイク3からユーザの発話を入力する。
【0070】
ステップ802では、ステップ801で入力した発話と、認識語記憶部1Aに記憶された音声認識辞書に含まれる各コマンドとの合致度を算出し、最も合致度の高いコマンドをユーザの発話したコマンドとして決定する。
【0071】
ステップ803では、ステップ802で決定されたコマンドが、現在のカーナビゲーション装置2の動作状態において実行可能であるかを判定する。実行可能であると判定された場合は、ステップ804へ進む。そうでない場合は、ステップ805へ進む。
【0072】
ステップ804では、ステップ802で決定されたコマンドの機能を実行するための信号を、カーナビゲーション装置2へ出力する。これにより、ユーザの所望した動作が実行され、処理は終了する。
【0073】
ステップ805では、ステップ802で決定されたコマンドの関連コマンドリストから実行可能なコマンドを取り出し、これを実行(置換)してよいかをユーザに確認する。関連コマンドリストのコマンドを実行することにより、ユーザが発話したコマンドとは異なるコマンドが実行されることとなるため、ユーザの混乱を招きやすい。そこで、ユーザに対してこれを実行してよいかの確認を行うことで、ユーザの混乱を回避することができる。ユーザがこれを許可した場合は、ステップ806へ進む。そうでない場合は、ステップ808へ進む。
【0074】
ステップ806では、ステップ805でユーザが実行を許可したコマンドを実行(置換)する。
【0075】
ステップ807では、ステップ806で実行したコマンドの名称と動作とをスピーカ4によってユーザに通知する。
【0076】
ステップ808では、ステップ602で決定されたコマンドの正しい使用方法をスピーカ4によってユーザに通知する。
【0077】
次に、図8のフローチャートに示す処理によって、ユーザが誤ったコマンドを発話した際の処理過程を具体的に説明する。ここでは、前述の第2実施形態の場合と同様、既に設定された目的地へ到達するための通過点を設定する場合を想定する。通過点を設定するコマンドは「追加設定」である。なお、関連コマンドリストには、「設定」コマンドと関連のあるコマンドとして「追加設定」が記載されている。
【0078】
ユーザが通過点を設定する際に、「追加設定」コマンドを発話するつもりが、誤って「設定」コマンドを発話したとする。しかし、カーナビゲーション装置2には既に目的地が設定されているため、「設定」コマンドを実行することはできない。そこで、関連コマンドリストから、「設定」コマンドと関連があり、なおかつ実行可能な「追加設定」コマンドを取り出して、これを実行してよいかをユーザに確認する。その際には、スピーカ4によって「『追加設定』コマンドを実行してもよいですか」と通知する。ユーザがマイク3に「YES」や「実行」などの発話を行うと、これが許可されたものとして、「追加設定」コマンドが実行(置換)される。以降の動作は、第2実施形態の場合と同様なので、説明を省略する。
【0079】
次に、第4実施形態の変形例について説明する。
【0080】
図9は、第4実施形態の変形例における音声制御装置の全体構成を示すブロック図である。図9に示すように、本変形例では、上述の第4実施形態の置換判定確認部1Jに代えて置換コマンド確認部1Kを設け、さらに、確認コマンドリスト記憶部1Lを設けた点が異なる。
【0081】
置換コマンド確認部1Kは、音声認識部1Bがユーザの発話内容として決定したコマンドが、システム状況検出部1Cが検出したカーナビゲーション装置2の動作状態において実行可能であるかどうかを判定する。実行可能である場合は、機能実行部1Dに対して、そのコマンドを実行するための信号をカーナビゲーション装置2へ出力するよう指示する。実行不可の場合は、関連コマンドリスト記憶部1Eから、ユーザの発話したコマンドの関連コマンドリストを取り出して参照し、ユーザの発話したコマンドと関連があり、かつ、実行可能なコマンドを取り出す。取り出したコマンドがユーザに確認を要するものである場合には、これを実行して良いかをスピーカ4によってユーザに通知し、確認を行う。ユーザがマイク3に「YES」や「実行」等の発話を行うと、実行が許可されたものとして、そのコマンドを実行(置換)する。
【0082】
確認コマンドリスト記憶部1Lは、認識語記憶部1Aに記憶されている音声認識辞書に含まれるコマンドのうち、実行(置換)に際して確認を要するコマンドを確認コマンドリストとして記憶している。確認コマンドリストに記載されているコマンドは、一旦実行した場合に訂正が容易でないものであり、実行に際してユーザが特に注意を払う必要のあるコマンドである。
【0083】
図10は、本実施例の音声制御装置が、ユーザの発話によってカーナビゲーション装置2の動作状態を変更するフローチャートである。
【0084】
ステップ1001では、マイク3からユーザの発話を入力する。
【0085】
ステップ1002では、ステップ1001で入力した発話と、認識語記憶部1Aに記憶された音声認識辞書に含まれる各コマンドとの合致度を算出し、最も合致度の高いコマンドをユーザの発話したコマンドとして決定する。
【0086】
ステップ1003では、ステップ1002で決定されたコマンドが、現在のカーナビゲーション装置2の動作状態において実行可能であるかを判定する。実行可能であると判定された場合は、ステップ1004へ進む。そうでない場合は、ステップ1005へ進む。
【0087】
ステップ1004では、ステップ1002で決定されたコマンドの機能を実行するための信号を、カーナビゲーション装置2へ出力する。これにより、ユーザの所望した動作が実行され、処理は終了する。
【0088】
ステップ1005では、ステップ1002で決定されたコマンドの関連コマンドリストから実行可能なコマンドを取り出し、これを実行するに際してユーザに確認が必要であるかを、確認コマンドリストを参照して判定する。関連コマンドリストのコマンドの中には、実行後にこれを訂正することが容易でないものも含まれている。このようなコマンドを実行する場合のみユーザに対して確認を行うことにより、確認の回数が減り、音声操作におけるユーザの煩わしさを低減することができる。関連コマンドリストから取り出したコマンドを実行するに際して、ユーザに確認が必要である場合には、ステップ1006へ進む。そうでない場合は、ステップ1007へ進む。
【0089】
ステップ1006では、ステップ1005で関連コマンドリストから取り出されたコマンドを実行(置換)してよいかをユーザに確認する。ユーザがこれを許可したら、ステップ1007へ進む。そうでない場合は、ステップ1009へ進む。
【0090】
ステップ1007では、ステップ1005でユーザが実行を許可したコマンドを実行(置換)する。
【0091】
ステップ1008では、ステップ1007で実行したコマンドの名称と動作とをスピーカ4によってユーザに通知する。
【0092】
ステップ1009では、ステップ1002で決定されたコマンドの正しい使用方法をスピーカ4によってユーザに通知する。
【0093】
次に、図10のフローチャートに示す処理によって、ユーザが誤ったコマンドを発話した際の処理過程を具体的に説明する。ここでは、既に設定した目的地を取り消して、新たな目的地を設定する場合を想定する。目的地設定のためのコマンドは、初めて目的地を設定する「設定」コマンドと、既に設定した目的地を取り消して新たな目的地を設定する「新規設定」コマンドがある。関連コマンドリストには、「設定」コマンドに関連のあるコマンドとして、「新規設定」コマンドが記載されている。また、「新規設定」コマンドは、実行の際にユーザに確認を要するコマンドとして確認コマンドリストに記載されている。
【0094】
ユーザが目的地を変更する際に、「新規設定」コマンドを発話するつもりが、誤って「設定」コマンドを発話したとする。しかし、カーナビゲーション装置2には既に目的地が設定されているため、「設定」コマンドを実行することはできない。そこで、関連コマンドリストから、「設定」コマンドと関連があり、なおかつ実行可能な「新規設定」コマンドを取り出す。そして、「新規設定」コマンドを実行するに際し、確認が必要であるかを判定する。「新規設定」コマンドは、実行の際にユーザに確認を要するコマンドとして確認コマンドリストに記載されているため、これを実行してよいかをユーザに確認する。その際には、スピーカ4によって「既に設定された目的地が取り消されますが、『新規設定』コマンドを実行してもよいですか」等と通知する。ユーザがマイク3に「YES」や「実行」などの発話を行うと、これが許可されたものとして、「新規設定」コマンドが実行(置換)される。これ以降の動作は、第4実施形態の場合と同様なので、説明を省略する。
【0095】
なお、上述した第1実施形態から第4実施形態(変形例を含む)は、そのまま単独で用いてもよいし、各々を複合して用いてもよい。
【0096】
最後に、本音声制御装置は、音声操作機能を有したカーナビゲーション装置に対して好適に用いることができることを再度言及しておく。
【図面の簡単な説明】
【図1】本発明の第1実施形態における音声制御装置の全体構成を示すブロック図である。
【図2】第1実施形態の音声制御装置が、ユーザの発話によってカーナビゲーション装置の動作状態を変更するフローチャートである。
【図3】本発明の第2実施形態における音声制御装置の全体構成を示すブロック図である。
【図4】第2実施形態の音声制御装置が、ユーザの発話によってカーナビゲーション装置の動作状態を変更するフローチャートである。
【図5】本発明の第3実施形態における音声制御装置の全体構成を示すブロック図である。
【図6】第3実施形態の音声制御装置が、ユーザの発話によってカーナビゲーション装置の動作状態を変更するフローチャートである。
【図7】本発明の第4実施形態における音声制御装置の全体構成を示すブロック図である。
【図8】第4実施形態の音声制御装置が、ユーザの発話によってカーナビゲーション装置の動作状態を変更するフローチャートである。
【図9】本発明の第4実施形態の変形例における音声制御装置の全体構成を示すブロック図である。
【図10】第4実施形態の変形例の音声制御装置が、ユーザの発話によってカーナビゲーション装置の動作状態を変更するフローチャートである。
【図11】従来技術において、ユーザの発話内容を認識し、これに基づいて制御対象機器を操作する音声制御装置である。
【符号の説明】
1…音声制御装置、1A…認識語記憶部、1B…音声認識部、1C…システム状況検出部、1D…機能判定部、1E…機能実行部、1F…関連コマンドリスト記憶部、2…カーナビゲーション装置、3…マイク、4…スピーカ
Claims (8)
- ユーザの発話内容を認識し、その発話内容に応じた制御対象機器の操作を行う音声制御装置であって、
前記制御対象機器の操作を行うために用いられる、発話されるべき複数のコマンドを音声認識データとして記憶する記憶手段と、
前記記憶手段に記憶されている複数のコマンドを用いて、ユーザの発話内容をその中の1つのコマンドとして認識する音声認識手段と、
音声制御装置の各種動作をユーザに報知する報知手段と、
前記制御対象機器の動作状態を検出する検出手段と、
前記音声認識手段によって認識されたコマンドが、前記検出手段によって検出された前記制御対象機器の動作状態において実行可能か否かを判別するとともに、実行不可と判別した場合には、そのコマンドの正しい使用方法を前記報知手段によって報知させる判別手段とを備えることを特徴とする音声制御装置。 - 前記判別手段は、コマンド毎に、そのコマンドと関連のあるコマンドを集めた関連コマンドリストを有し、
前記コマンドの正しい使用方法を前記報知手段に報知させる場合は、前記関連コマンドリストを参照して、前記検出手段によって検出された前記制御対象機器の動作状態において実行可能なコマンドも前記報知手段に報知させることを特徴とする請求項1記載の音声制御装置。 - 前記判別手段によって実行不可と判別されたコマンドを、前記検出手段によって検出された前記制御対象機器の動作状態において実行可能な他のコマンドに置換する置換手段を設け、
前記置換手段がコマンドを置換する際には、その旨の内容を前記報知手段によって報知することを特徴とする請求項1記載の音声制御装置。 - 前記置換手段は、コマンド毎に、そのコマンドと関連のあるコマンドを集めた関連コマンドリストを有し、
前記関連コマンドリストを参照して、置換すべきコマンドを決定することを特徴とする請求項3記載の音声制御装置。 - 前記置換手段は、各コマンドの使用頻度を記憶するものであり、
前記使用頻度を参照して、置換すべきコマンドを決定することを特徴とする請求項3または請求項4記載の音声制御装置。 - 前記置換手段は、コマンドを置換する際に、ユーザに対して確認を行うことを特徴とする請求項3から請求項5のいずれかに記載の音声制御装置。
- 前記置換手段は、コマンドを置換する際に、ユーザに対して確認を行うべきコマンドを集めた確認コマンドリストを有し、
前記確認コマンドリストを参照して、ユーザに対して確認を行うことを特徴とする請求項6記載の音声制御装置。 - 音声操作機能を有したカーナビゲーション装置に適用されることを特徴とする請求項1〜7のいずれか1項に記載の音声制御装置。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002216070A JP3724461B2 (ja) | 2002-07-25 | 2002-07-25 | 音声制御装置 |
| US10/625,845 US7516077B2 (en) | 2002-07-25 | 2003-07-24 | Voice control system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002216070A JP3724461B2 (ja) | 2002-07-25 | 2002-07-25 | 音声制御装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2004061576A JP2004061576A (ja) | 2004-02-26 |
| JP3724461B2 true JP3724461B2 (ja) | 2005-12-07 |
Family
ID=31937926
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002216070A Expired - Fee Related JP3724461B2 (ja) | 2002-07-25 | 2002-07-25 | 音声制御装置 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US7516077B2 (ja) |
| JP (1) | JP3724461B2 (ja) |
Families Citing this family (40)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20050137877A1 (en) * | 2003-12-17 | 2005-06-23 | General Motors Corporation | Method and system for enabling a device function of a vehicle |
| JP2005331882A (ja) * | 2004-05-21 | 2005-12-02 | Pioneer Electronic Corp | 音声認識装置、音声認識方法、および音声認識プログラム |
| JP2006170769A (ja) * | 2004-12-15 | 2006-06-29 | Aisin Aw Co Ltd | 案内情報提供方法、案内情報提供システム、ナビゲーション装置及び入出力装置 |
| US8694322B2 (en) * | 2005-08-05 | 2014-04-08 | Microsoft Corporation | Selective confirmation for execution of a voice activated user interface |
| JP4887911B2 (ja) * | 2006-05-31 | 2012-02-29 | 船井電機株式会社 | 電子機器 |
| US20070297581A1 (en) * | 2006-06-26 | 2007-12-27 | Microsoft Corporation | Voice-based phone system user interface |
| US7899673B2 (en) * | 2006-08-09 | 2011-03-01 | Microsoft Corporation | Automatic pruning of grammars in a multi-application speech recognition interface |
| KR101556594B1 (ko) * | 2009-01-14 | 2015-10-01 | 삼성전자 주식회사 | 신호처리장치 및 신호처리장치에서의 음성 인식 방법 |
| US20100250253A1 (en) * | 2009-03-27 | 2010-09-30 | Yangmin Shen | Context aware, speech-controlled interface and system |
| US8700405B2 (en) * | 2010-02-16 | 2014-04-15 | Honeywell International Inc | Audio system and method for coordinating tasks |
| JP2011209787A (ja) * | 2010-03-29 | 2011-10-20 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
| US8738377B2 (en) | 2010-06-07 | 2014-05-27 | Google Inc. | Predicting and learning carrier phrases for speech input |
| JP5271330B2 (ja) * | 2010-09-29 | 2013-08-21 | 株式会社東芝 | 音声対話システム、方法、及びプログラム |
| JP5158174B2 (ja) * | 2010-10-25 | 2013-03-06 | 株式会社デンソー | 音声認識装置 |
| US20120192096A1 (en) * | 2011-01-25 | 2012-07-26 | Research In Motion Limited | Active command line driven user interface |
| US8819555B2 (en) * | 2011-04-07 | 2014-08-26 | Sony Corporation | User interface for audio video display device such as TV |
| CN102332265B (zh) * | 2011-06-20 | 2014-04-16 | 浙江吉利汽车研究院有限公司 | 一种提高汽车声控系统语音识别率的方法 |
| USD708273S1 (en) | 2012-11-20 | 2014-07-01 | Kevork G. Kouyoumjian | Remotely-controlled, impact-resistant model helicopter |
| KR102019719B1 (ko) * | 2013-01-17 | 2019-09-09 | 삼성전자 주식회사 | 영상처리장치 및 그 제어방법, 영상처리 시스템 |
| US9641885B2 (en) * | 2014-05-07 | 2017-05-02 | Vivint, Inc. | Voice control component installation |
| JPWO2016174955A1 (ja) * | 2015-04-28 | 2018-02-15 | クラリオン株式会社 | 情報処理装置、及び、情報処理方法 |
| CN108701456A (zh) * | 2016-02-26 | 2018-10-23 | 三菱电机株式会社 | 语音识别装置 |
| US10019996B2 (en) * | 2016-08-29 | 2018-07-10 | Lenovo (Singapore) Pte. Ltd. | Orienting a microphone array to a user location |
| WO2018073907A1 (ja) * | 2016-10-19 | 2018-04-26 | 三菱電機株式会社 | 音声認識装置及び音声認識方法 |
| US10521723B2 (en) | 2016-12-14 | 2019-12-31 | Samsung Electronics Co., Ltd. | Electronic apparatus, method of providing guide and non-transitory computer readable recording medium |
| WO2018155810A1 (ko) * | 2017-02-21 | 2018-08-30 | 삼성전자 주식회사 | 전자 장치, 이의 제어 방법 및 비일시적인 컴퓨터 판독가능 기록매체 |
| KR101924963B1 (ko) * | 2017-03-30 | 2018-12-04 | 엘지전자 주식회사 | 홈 어플라이언스의 동작 방법 |
| KR20180110974A (ko) * | 2017-03-30 | 2018-10-11 | 엘지전자 주식회사 | 음성 서버, 음성 인식 서버 시스템 및 그 동작 방법 |
| KR20180118461A (ko) | 2017-04-21 | 2018-10-31 | 엘지전자 주식회사 | 음성 인식 장치 및 음성 인식 방법 |
| WO2019009889A1 (en) | 2017-07-05 | 2019-01-10 | Hewlett-Packard Development Company, L.P. | APPLICATION SPECIFIC PROFILE MANAGERS |
| KR102441067B1 (ko) * | 2017-10-12 | 2022-09-06 | 현대자동차주식회사 | 차량의 사용자 입력 처리 장치 및 사용자 입력 처리 방법 |
| JP7003720B2 (ja) * | 2018-02-19 | 2022-01-21 | コニカミノルタ株式会社 | 画像処理装置、画像処理装置の制御方法、およびプログラム |
| US11240057B2 (en) * | 2018-03-15 | 2022-02-01 | Lenovo (Singapore) Pte. Ltd. | Alternative output response based on context |
| JP7195851B2 (ja) * | 2018-10-02 | 2022-12-26 | シャープ株式会社 | システム及び処理装置 |
| KR102913790B1 (ko) * | 2019-04-03 | 2026-01-19 | 현대자동차주식회사 | 대화 시스템 및 대화 처리 방법 |
| KR102219800B1 (ko) * | 2019-06-13 | 2021-02-23 | 엘지전자 주식회사 | 음성 서버, 음성 인식 서버 시스템 및 그 동작 방법 |
| KR102219799B1 (ko) * | 2019-06-13 | 2021-02-23 | 엘지전자 주식회사 | 음성 서버, 음성 인식 서버 시스템 및 그 동작 방법 |
| JP7229906B2 (ja) * | 2019-12-06 | 2023-02-28 | Tvs Regza株式会社 | コマンド制御装置、制御方法および制御プログラム |
| WO2022259776A1 (ja) * | 2021-06-07 | 2022-12-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 音声認識装置、音声認識方法、及び音声認識プログラム |
| CN114724566B (zh) * | 2022-04-18 | 2024-12-27 | 中国第一汽车股份有限公司 | 语音处理方法、装置、存储介质及电子设备 |
Family Cites Families (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US3586261A (en) * | 1969-02-27 | 1971-06-22 | T O Paine | Voice operated controller |
| US4162400A (en) * | 1977-09-09 | 1979-07-24 | Texaco Inc. | Fiber optic well logging means and method |
| JPS61107397A (ja) | 1984-10-31 | 1986-05-26 | 株式会社東芝 | 音声認識応答装置 |
| JPS61223923A (ja) | 1985-03-29 | 1986-10-04 | Toshiba Corp | 情報処理装置 |
| US4827520A (en) * | 1987-01-16 | 1989-05-02 | Prince Corporation | Voice actuated control system for use in a vehicle |
| JPH0485616A (ja) | 1990-07-30 | 1992-03-18 | Matsushita Electric Ind Co Ltd | コマンド入力添削装置 |
| DE69101527T2 (de) * | 1990-08-16 | 1994-07-14 | Fujitsu Ten Ltd | Spracherkennungseinrichtung für ein Fahrzeug mit einer Mikrophonanordnung zur Lokalisierung des Sitzes, von welchem ein Befehl kommt. |
| DE4324215C2 (de) * | 1992-07-20 | 1999-05-12 | Aisin Aw Co | Sprach-Navigationssystem für Fahrzeuge |
| JPH07249033A (ja) | 1994-03-11 | 1995-09-26 | Fujitsu Ltd | 操作補助実行装置 |
| JP3468824B2 (ja) * | 1994-03-29 | 2003-11-17 | 本田技研工業株式会社 | 車両誘導装置 |
| KR100201256B1 (ko) * | 1996-08-27 | 1999-06-15 | 윤종용 | 음성을 이용한 차량 시동 제어장치 |
| US6072567A (en) * | 1997-02-12 | 2000-06-06 | Cidra Corporation | Vertical seismic profiling system having vertical seismic profiling optical signal processing equipment and fiber Bragg grafting optical sensors |
| US6281489B1 (en) * | 1997-05-02 | 2001-08-28 | Baker Hughes Incorporated | Monitoring of downhole parameters and tools utilizing fiber optics |
| JPH11119792A (ja) | 1997-10-20 | 1999-04-30 | Toyota Motor Corp | 音声認識機能付き機器制御装置および音声認識装置 |
| JPH11237895A (ja) | 1998-02-24 | 1999-08-31 | Clarion Co Ltd | 音声認識による制御装置及び方法、制御対象ユニット、音声認識による制御を用いるシステム並びに音声認識による制御用プログラムを記録した記録媒体 |
| US6271766B1 (en) * | 1998-12-23 | 2001-08-07 | Cidra Corporation | Distributed selectable latent fiber optic sensors |
| JP2000259180A (ja) | 1999-03-05 | 2000-09-22 | Nec Corp | 連続音声文章入力装置及び連続音声文章入力方法 |
| JP2000259172A (ja) | 1999-03-11 | 2000-09-22 | Canon Inc | 音声認識装置と音声データの認識方法 |
| US6355928B1 (en) * | 1999-03-31 | 2002-03-12 | Halliburton Energy Services, Inc. | Fiber optic tomographic imaging of borehole fluids |
| US6345254B1 (en) * | 1999-05-29 | 2002-02-05 | International Business Machines Corp. | Method and apparatus for improving speech command recognition accuracy using event-based constraints |
| JP3662780B2 (ja) | 1999-07-16 | 2005-06-22 | 日本電気株式会社 | 自然言語を用いた対話システム |
| US6598020B1 (en) * | 1999-09-10 | 2003-07-22 | International Business Machines Corporation | Adaptive emotion and initiative generator for conversational systems |
| JP2001216129A (ja) | 2000-02-02 | 2001-08-10 | Denso Corp | コマンド入力装置 |
| DE10008226C2 (de) | 2000-02-22 | 2002-06-13 | Bosch Gmbh Robert | Vorrichtung zur Sprachsteuerung und Verfahren zur Sprachsteuerung |
| US6230138B1 (en) * | 2000-06-28 | 2001-05-08 | Visteon Global Technologies, Inc. | Method and apparatus for controlling multiple speech engines in an in-vehicle speech recognition system |
| JP2002205445A (ja) | 2001-01-11 | 2002-07-23 | Ricoh Co Ltd | 印刷処理装置 |
| US20030101060A1 (en) * | 2001-11-29 | 2003-05-29 | Bickley Corine A. | Use of historical data for a voice application interface |
| JP4363076B2 (ja) * | 2002-06-28 | 2009-11-11 | 株式会社デンソー | 音声制御装置 |
-
2002
- 2002-07-25 JP JP2002216070A patent/JP3724461B2/ja not_active Expired - Fee Related
-
2003
- 2003-07-24 US US10/625,845 patent/US7516077B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| US7516077B2 (en) | 2009-04-07 |
| US20040172256A1 (en) | 2004-09-02 |
| JP2004061576A (ja) | 2004-02-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3724461B2 (ja) | 音声制御装置 | |
| US6795806B1 (en) | Method for enhancing dictation and command discrimination | |
| JP2004086150A (ja) | 音声制御装置 | |
| JP2001517815A (ja) | 言語認識上の類似発声識別方法及び装置 | |
| US20140074473A1 (en) | Navigation apparatus | |
| JP2005148151A (ja) | 音声操作装置 | |
| JP2008097082A (ja) | 音声対話装置 | |
| JP2008203296A (ja) | 音声認識装置及びナビゲーション装置 | |
| US11164578B2 (en) | Voice recognition apparatus, voice recognition method, and non-transitory computer-readable storage medium storing program | |
| CN112805734A (zh) | 用于唤起对发言禁止用语的注意的演讲辅助装置 | |
| JP5217838B2 (ja) | 車載機器の操作装置及び車載機器の操作方法 | |
| JP2010039099A (ja) | 音声認識および車載装置 | |
| JP2002278588A (ja) | 音声認識装置 | |
| JP2000338993A (ja) | 音声認識装置、その装置を用いたナビゲーションシステム | |
| JP2004226698A (ja) | 音声認識装置 | |
| JP3718088B2 (ja) | 音声認識修正方式 | |
| JP3624698B2 (ja) | 音声認識装置、その装置を用いたナビゲーションシステム及び自動販売システム | |
| US10832675B2 (en) | Speech recognition system with interactive spelling function | |
| JP2006208486A (ja) | 音声入力装置 | |
| US20150192425A1 (en) | Facility search apparatus and facility search method | |
| JP2006039954A (ja) | データベース検索装置、プログラム及びナビゲーション装置 | |
| JP2005215474A (ja) | 音声認識装置、プログラム、記憶媒体及びナビゲーション装置 | |
| JP3911835B2 (ja) | 音声認識装置及びナビゲーションシステム | |
| JP2006208905A (ja) | 音声対話装置及び音声対話方法 | |
| JP2009098201A (ja) | 音声認識装置及び音声認識方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050524 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050607 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050801 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050830 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050912 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110930 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110930 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120930 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120930 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130930 Year of fee payment: 8 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |