JP2000089780A - Voice recognition method and voice recognition device - Google Patents
Voice recognition method and voice recognition deviceInfo
- Publication number
- JP2000089780A JP2000089780A JP10254418A JP25441898A JP2000089780A JP 2000089780 A JP2000089780 A JP 2000089780A JP 10254418 A JP10254418 A JP 10254418A JP 25441898 A JP25441898 A JP 25441898A JP 2000089780 A JP2000089780 A JP 2000089780A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- voice
- data
- input
- model data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Abstract
(57)【要約】
【課題】 不特定話者を対象とした音声認識技術を安価
な製品に適用しようとする場合、メモリの容量やCPU
の処理能力の面から考えると、規模の大きい標準話者音
声モデルデータを用いるのは困難である。
【解決手段】 話者の年齢や性別などに基づいて予め設
定した範囲に絞り、その範囲に属する不特定の話者群の
音声データから特定話者者音声モデルデータ92を作成
する。そして、この特定話者者音声モデルデータ92を
用いて音声認識対象とする話者の入力した音声を認識す
る。
(57) [Summary] [Problem] To apply speech recognition technology for unspecified speakers to inexpensive products, the memory capacity and CPU
It is difficult to use large-scale standard speaker voice model data from the viewpoint of the processing capability of. SOLUTION: A specific speaker voice model data 92 is created from voice data of an unspecified speaker group belonging to the predetermined range based on a speaker's age, gender, or the like. Then, using the specific speaker voice model data 92, the voice input by the speaker to be subjected to voice recognition is recognized.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、話者の発話する音
声を音声認識する音声認識方法に係わり、特に、認識対
象話者をある範囲に絞って音声認識を行うようにした音
声認識方法および音声認識装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech recognition method for recognizing speech uttered by a speaker, and more particularly to a speech recognition method for performing speech recognition by narrowing a speaker to be recognized to a certain range. The present invention relates to a voice recognition device.
【0002】[0002]
【従来の技術】近年、音声認識技術を利用した電子機器
が様々な分野で用いられ、その一つとして、音声時計と
呼ばれる時計がある。この音声時計は、音声によって現
在時刻の設定やアラーム時刻の設定が可能であり、ま
た、装置側からは現在時刻を音声によって知らせること
ができるようになっている。2. Description of the Related Art In recent years, electronic devices using voice recognition technology have been used in various fields, and one of them is a clock called a voice clock. The audio clock can set the current time and the alarm time by voice, and the apparatus can notify the current time by voice.
【0003】このような音声時計は、実用品としてだけ
でななく、子供向けの玩具として用いられることも多
く、装置自体のコストをできるだけ低く押さえることが
望まれる。このため、使用するCPUの処理能力やメモ
リの容量などには大きな制約があり、その制約のもとで
如何に高性能な機能を持たせるかが重要な課題の一つと
なっている。[0003] Such an audio timepiece is often used not only as a practical product but also as a toy for children, and it is desired to keep the cost of the device itself as low as possible. For this reason, there are great restrictions on the processing capacity of the CPU to be used, the capacity of the memory, and the like, and one of the important issues is how to provide high-performance functions under the restrictions.
【0004】[0004]
【発明が解決しようとする課題】従来、この種の音声認
識を用いた装置は、不特定話者を対象とした音声認識を
可能とするものも多いが、この不特定話者を対象とした
音声認識を可能とするには、規模の大きい標準話者音声
モデルデータが必要となり、大容量のROMを必要とし
たり、処理能力の高いCPUが必要となって、結局はコ
ストの高いものとなってしまうのが実情であった。Conventionally, many devices using this type of speech recognition can perform speech recognition for an unspecified speaker. To enable speech recognition, large-scale standard speaker speech model data is required, which requires a large-capacity ROM or a CPU with a high processing capability, which results in high costs. Was the fact.
【0005】また、不特定話者を対象とするといって
も、装置の種類によっては、実際に使用する年代や男女
の性別などは、ある程度は限られたものとなることも多
く、結果的には、ある範囲に限られた標準話者モデルデ
ータがあれば済むということにもなる。このため、規模
の大きな標準話者音声モデルデータを持っていても無駄
が多く、また、広い範囲の不特定話者に対応できるとい
うことは、逆に言えば、それぞれの範囲の話者に対して
平均的に対応できるということでもあり、認識率の面で
も問題があった。[0005] In addition, even though it is intended for unspecified speakers, the age of use and the gender of men and women are often limited to some extent depending on the type of device. Means that standard speaker model data limited to a certain range is sufficient. For this reason, even if large-scale standard speaker voice model data is held, there is a lot of waste, and it is possible to cope with a wide range of unspecified speakers. This means that they can respond on average, and there was also a problem with the recognition rate.
【0006】そこで本発明は、メモリの容量やCPUの
処理能力に大きな制約のある装置に音声認識技術を適用
する場合、標準音声モデルデータを小規模なものとし
て、しかも高い認識率で認識を可能とする音声認識方法
及び音声認識装置を提供することを目的としている。Accordingly, the present invention makes it possible to reduce the size of standard speech model data and to perform recognition at a high recognition rate when the speech recognition technology is applied to a device having a large restriction on the memory capacity and CPU processing capacity. It is an object of the present invention to provide a voice recognition method and a voice recognition device.
【0007】[0007]
【課題を解決するための手段】前述した目的を達成する
ために、本発明の音声認識方法は、不特定複数話者を認
識対象とし、予め定められた複数の単語を認識可能とす
る音声認識方法において、前記不特定複数話者のうち認
識対象話者を年齢や性別などに基づいて予め設定した範
囲に絞り込み、その範囲に属する不特定複数話者の音声
データから特定話者群音声モデルデータを作成し、この
特定話者群音声モデルデータを用いて前記認識対象話者
の入力した音声を認識するようにしている。In order to achieve the above-mentioned object, a speech recognition method according to the present invention is intended for speech recognition in which a plurality of unspecified speakers are recognized and a plurality of predetermined words can be recognized. In the method, among the unspecified plural speakers, the recognition target speaker is narrowed down to a predetermined range based on age, gender, etc., and specific speaker group voice model data is obtained from the voice data of the unspecified plural speakers belonging to the range. Is created, and the voice input by the recognition target speaker is recognized using the specific speaker group voice model data.
【0008】また、前記認識対象話者は、音声の特徴に
基づく複数の話者群から構成され、それぞれの話者群に
属する不特定複数話者の音声データから前記複数の話者
群対応の特定話者群音声モデルデータを作成するように
している。The speaker to be recognized is composed of a plurality of speaker groups based on voice characteristics, and speech data corresponding to the plurality of speaker groups is obtained from voice data of unspecified plural speakers belonging to each speaker group. Specific speaker group voice model data is created.
【0009】また、本発明の音声認識装置は、不特定複
数話者を対象とし、予め定められた複数の単語を認識可
能とする音声認識装置において、少なくとも、話者の発
話して得られた音声を分析する音声分析手段と、前記不
特定複数話者のうち認識対象話者を年齢や性別などに基
づいて予め設定した範囲に絞り込むことによって、その
範囲に属する不特定複数話者の音声データから作成され
た特定話者群音声モデルデータと、この特定話者群音声
モデルデータを用いて前記認識対象話者の入力した音声
を認識する制御手段とを有する構成としている。Further, the speech recognition apparatus of the present invention is intended for an unspecified plurality of speakers and is capable of recognizing a plurality of predetermined words. Voice analysis means for analyzing voice, and voice data of unspecified plural speakers belonging to the range by narrowing down the recognition target speaker among the unspecified plural speakers to a preset range based on age, gender, etc. And a control means for recognizing the voice input by the recognition target speaker using the specific speaker group voice model data created from the above.
【0010】また、前記認識対象話者は、音声の特徴に
基づく複数の話者群から構成され、前記特定話者群音声
モデルデータは、それぞれの話者群に属する不特定複数
話者の音声データから作成された前記複数の話者群対応
の特定話者群音声モデルデータで構成されている。Further, the recognition target speaker is composed of a plurality of speaker groups based on voice characteristics, and the specific speaker group voice model data includes voices of unspecified plural speakers belonging to each speaker group. It is composed of specific speaker group voice model data corresponding to the plurality of speaker groups created from the data.
【0011】このように、本発明は、メモリの容量やC
PUの処理能力に大きな制約のある装置に適用されるこ
とで大きな効果を発揮するものである。特に、装置の使
用者が、たとえば、主に子供であるとか、主に女性であ
るというようにある範囲に限られている場合に効果を発
揮する。As described above, according to the present invention, the memory capacity and C
The present invention exerts a great effect when applied to an apparatus having a great restriction on the processing capacity of the PU. In particular, the present invention is effective when the user of the device is limited to a certain range, for example, mainly a child or mainly a woman.
【0012】このように認識対象話者をある範囲に絞る
ことができる場合には、あらゆる範囲の話者に対応でき
る標準話者音声モデルデータを用いても無駄が多く、認
識率もあまり期待できない。そこで、不特定複数話者の
うち認識対象話者を年齢や性別などに基づいて予め設定
した範囲に絞り込み、その範囲に属する複数の話者の音
声データから特定話者群音声モデルデータを作成し、こ
の特定話者群音声モデルデータを用いて前記音声認識対
象話者の入力した音声を認識するようにしている。In the case where the number of speakers to be recognized can be narrowed down to a certain range, even if standard speaker voice model data that can support speakers in all ranges is used, there is much waste and the recognition rate cannot be expected much. . Therefore, among the unspecified multiple speakers, the recognition target speaker is narrowed down to a preset range based on age, gender, etc., and specific speaker group voice model data is created from voice data of a plurality of speakers belonging to the range. The specific speaker group voice model data is used to recognize the voice input by the target speaker for voice recognition.
【0013】これにより、ある範囲の話者群に対応する
特定話者群音声モデルデータを持てばよいので、音声モ
デルデータのデータ量を大幅に少なくすることができ
る。これにより、それを保存する記憶手段の記憶容量は
小さいもので済み、また、CPUにかかる認識処理の負
担も少なくすることができる。しかも、特定の話者群に
対応した特定話者群音声モデルデータであるので、認識
性能も大幅に向上する。[0013] Thus, since it is sufficient to have the specific speaker group voice model data corresponding to a certain range of speaker groups, the data amount of the voice model data can be significantly reduced. As a result, the storage capacity of the storage means for storing the data can be small, and the load of the recognition processing on the CPU can be reduced. In addition, since the data is specific speaker group voice model data corresponding to a specific speaker group, recognition performance is greatly improved.
【0014】また、このようなある範囲の話者群に対応
する特定話者群音声モデルデータを、幾つか用意するこ
ともできる。たとえば、成人男性用、成人女性用、子供
用など幾つかの話者群に対応して用意することも可能で
ある。これによれば、1つの装置を家族で使用するよう
な場合にも対応できる。このように、幾つかの話者群対
応の特定話者群音声モデルデータを持ったとしても、あ
らゆる範囲の話者に対応できるように作成された標準話
者音声モデルデータを持つよりは、音声モデルデータの
規模をを小さくでき、しかも、それぞれの話者群に対応
した特定話者群音声モデルデータであるので、認識性能
も大幅に向上する。Further, some specific speaker group voice model data corresponding to such a certain range of speaker group can be prepared. For example, it is also possible to prepare corresponding to several speaker groups such as for adult men, adult women, and children. According to this, it is possible to cope with a case where one device is used by a family. In this way, even if we have specific speaker group voice model data corresponding to several speaker groups, rather than having standard speaker voice model data created to support all ranges of speakers, Since the scale of the model data can be reduced, and since it is the specific speaker group voice model data corresponding to each speaker group, the recognition performance is greatly improved.
【0015】[0015]
【発明の実施の形態】以下、本発明の実施の形態を図面
を参照しながら説明する。なお、この実施の形態では、
音声認識装置の1つの例として、音声時計装置を例にし
て説明する。この音声時計装置(以下では単に装置と表
現する場合もある)は、現在時刻やアラーム時刻の設定
を話者の発話する音声によって行うことが可能で、か
つ、装置側からの時刻の告知も音声によって行うことが
でき、さらに、話者との間で簡単な内容の会話をも可能
とする玩具的な要素の強い装置であるとする。Embodiments of the present invention will be described below with reference to the drawings. In this embodiment,
As one example of the voice recognition device, a voice clock device will be described as an example. This audio clock device (hereinafter sometimes simply referred to as a device) can set a current time and an alarm time by a voice spoken by a speaker, and can also notify the time from the device side by a voice. It is assumed that the device has a strong toy-like element that enables simple content conversation with a speaker.
【0016】図1は本発明の実施の形態である音声時計
装置を構成するに必要な各構成要素を示すブロック図で
ある。まず、図1に示される構成を概略的に説明し、そ
のあとで、本発明の実施の形態を説明する上で特に必要
な部分について詳細に説明する。FIG. 1 is a block diagram showing components necessary for constituting an audio clock device according to an embodiment of the present invention. First, the configuration shown in FIG. 1 will be schematically described, and thereafter, portions particularly necessary for describing the embodiment of the present invention will be described in detail.
【0017】この音声時計装置は、大きく分けると、音
声入力部としてのマイクロホン1と音声入力用アンプ
(マイクアンプという)2、A/D変換部3、音声分析
部4、各種処理を行う制御部(CPU)5、D/A変換
部6、音声出力部としての音声出力用アンプ7とスピー
カ8、第1の記憶手段としてのROM9、第2の記憶手
段としてのRAM10、ユーザが装置に対して各種の設
定を行うための操作部11、時刻信号を発生する計時手
段12などから構成されている。This audio clock device can be roughly divided into a microphone 1 as an audio input unit, an audio input amplifier (referred to as a microphone amplifier) 2, an A / D conversion unit 3, an audio analysis unit 4, and a control unit for performing various processes. (CPU) 5, a D / A converter 6, an audio output amplifier 7 and a speaker 8 as an audio output unit, a ROM 9 as a first storage unit, a RAM 10 as a second storage unit, It comprises an operation unit 11 for performing various settings, a clock unit 12 for generating a time signal, and the like.
【0018】音声分析部4は、A/D変換された音声信
号を演算機を用いて短時間ごとに分析し、ピッチ周期な
どを得るとともに、音声の特徴を表す特徴データ(LP
Cケプストラム係数が一般的)を時系列データとして出
力する。The voice analysis unit 4 analyzes the A / D-converted voice signal at short intervals by using an arithmetic unit to obtain a pitch cycle and the like, and also obtains feature data (LP) representing voice characteristics.
C cepstrum coefficient is generally output as time-series data.
【0019】制御部5は、音声認識、学習、登録、音声
出力など以下に説明する各種の処理を行うもので、これ
らの処理については、のちに行う動作説明のなかで順次
説明する。The control unit 5 performs various processes described below, such as voice recognition, learning, registration, and voice output. These processes will be sequentially described in the description of operations to be performed later.
【0020】ROM9は、出力音声データ91、特定話
者群音声モデルデータ92、この特定話者群音声モデル
データ92を基にして作成されたコードブック(特定話
者群コードブックという)93、さらにはユニバーサル
コードブック94などを格納する。The ROM 9 stores output voice data 91, specific speaker group voice model data 92, a codebook (referred to as a specific speaker group codebook) 93 created based on the specific speaker group voice model data 92, and further. Stores a universal codebook 94 and the like.
【0021】前記出力音声データ91は装置側から話者
に対しての応答や問いかけを行うための発話内容に対す
る音声データであり、この具体的な内容についても後述
する動作例のなかで説明する。The output voice data 91 is voice data for utterance contents for making a response or inquiry to the speaker from the apparatus side. The specific contents will be described in an operation example described later.
【0022】また、特定話者群音声モデルデータ92
は、ある範囲に絞られた認識対象話者に対する標準話者
音声モデルデータである。たとえば、認識対象話者を子
供に絞った場合は、不特定多数の子供の音声データから
作成された標準話者音声モデルデータである。The specific speaker group voice model data 92
Is standard speaker voice model data for the recognition target speaker narrowed down to a certain range. For example, when the speaker to be recognized is narrowed down to children, it is standard speaker voice model data created from voice data of an unspecified number of children.
【0023】ただし、この実施の形態では、成人男性、
成人女性、子供の3つの話者群を設定し、成人男性を話
者群A、成人女性を話者群B、子供を話者群Cというよ
うに区分する。そして、話者群Aに属する不特定多数の
成人男性の音声データから作成した第1の特定話者群音
声モデルデータMD1、話者群Bに属する不特定多数の
成人女性の音声データから作成した第2の特定話者群音
声モデルデータMD2、話者群Cに属する不特定多数の
子供の音声データから作成した第3の特定話者群音声モ
デルデータMD3を有しているものとする。However, in this embodiment, an adult male
Three speaker groups of adult women and children are set, and adult men are classified as speaker group A, adult women as speaker group B, and children as speaker group C. The first specific speaker group voice model data MD1 created from the voice data of an unspecified number of adult men belonging to the speaker group A, and the speech data of an unspecified number of adult women belonging to the speaker group B are generated. It is assumed that there are second specific speaker group voice model data MD2 and third specific speaker group voice model data MD3 created from voice data of an unspecified number of children belonging to the speaker group C.
【0024】そして、これら第1〜第3の特定話者群音
声モデルデータMD1,MD2,MD3は、予め定めら
れた認識可能単語からなる幾つかの単語セットw1,w
2,w3,・・・からなっており、単語セットw1に格
納されている特定話者群音声モデルデータは、装置との
間で交わされる会話のなかで、特に使用される頻度の高
いと思われる単語(この場合、「おはよう」、「ただい
ま」、「こんにちは」、「おやすみ」、「何時」、「ア
ラーム」といった単語であるとする)に対する特定話者
群音声モデルデータである。この単語セットw1内のそ
れぞれの単語に対する特定話者群音声モデルデータは、
のちに説明する話者学習処理を行うためとしても用いら
れる。The first to third specific speaker group voice model data MD1, MD2, MD3 are composed of several word sets w1, w composed of predetermined recognizable words.
The specific speaker group voice model data stored in the word set w1 is considered to be particularly frequently used in conversations with the device. word (in this case, "good morning", "I'm home", "Hello", "Good night", "when", and is a word such as "alarm") that is a specific speaker group sound model data for. The specific speaker group voice model data for each word in this word set w1 is:
It is also used for performing a speaker learning process described later.
【0025】単語セットw2に格納されている特定話者
群音声モデルデータは、ここでは、「1時」、「2
時」、「3時」、・・・、「12時」といった時間の単
位を表す単語に対する特定話者群音声モデルデータで
り、また、単語セットw3に格納されている特定話者群
音声モデルデータは、ここでは、「1分」、「2分」、
「3分」、・・・、「59分」といった分の単位を表す
単語に対する特定話者群音声モデルデータであるとす
る。The specific speaker group voice model data stored in the word set w2 is "1 o'clock", "2 o'clock",
Specific speaker group voice model data for words representing time units such as "hour", "3 o'clock", ..., "12:00", and a specific speaker group voice model stored in word set w3. The data here is "1 minute", "2 minutes",
It is assumed that the specific speaker group voice model data is for a word representing a minute unit such as “3 minutes”,..., “59 minutes”.
【0026】この他、「はい」や「いいえ」といった肯
定・否定を表す単語や、話者と装置との間で会話を行う
に必要な単語に対する特定話者群音声モデルデータなど
もここでは図示されていない単語セットとして設けられ
ている。In addition, words indicating affirmative / negative such as "yes" and "no", and specific speaker group voice model data for words necessary for having a conversation between the speaker and the device are also illustrated here. It is provided as an unset word set.
【0027】また、特定話者群コードブック93は、第
1の特定話者群音声モデルデータMD1に基づいて作成
された第1の特定話者群コードブックCB1、第2の特
定話者群音声モデルデータMD2に基づいて作成された
第2の特定話者群コードブックCB2、第3の特定話者
群音声モデルデータMD3に基づいて作成された第3の
特定話者群コードブックCB3を有している。The specific speaker group codebook 93 is composed of a first specific speaker group codebook CB1 and a second specific speaker group voice created based on the first specific speaker group voice model data MD1. It has a second specific speaker group codebook CB2 created based on the model data MD2 and a third specific speaker group codebook CB3 created based on the third specific speaker group voice model data MD3. ing.
【0028】ところで、前述の単語セットw1に属する
「おはよう」、「ただいま」、「こんにちは」、「おや
すみ」、「何時」、「アラーム」といった単語は、ここ
では、登録単語としても用いられ、認識対象話者、つま
り、この装置を使用するそれぞれの話者(ここでは、話
者#1、話者#2、話者#3の3人の話者とする)が、
上述の登録単語を発話することによって、それぞれの特
徴データを登録単語データ101としてRAM10に保
存することができるようになっている。[0028] By the way, belongs to the word set w1 of the above-mentioned "good morning", "I'm home", "Hello", "Good night", "when", the words such as "alarm", as used herein, is also used as a registered word, recognition The target speakers, that is, the respective speakers (here, three speakers, speaker # 1, speaker # 2, and speaker # 3) using this device,
By uttering the above-mentioned registered words, each feature data can be stored in the RAM 10 as the registered word data 101.
【0029】この登録単語データ101は、話者#1用
の登録単語データRD1、話者#2用の登録単語データ
RD2、話者#3用の登録単語データRD3というよう
に、その装置を使用すると思われる各話者ごとに保存さ
れる。The registered word data 101 uses the registered word data RD1 for speaker # 1, the registered word data RD2 for speaker # 2, and the registered word data RD3 for speaker # 3. It is stored for each speaker who is likely to do so.
【0030】なお、このように、装置を使用すると思わ
れる各話者ごとに、幾つかの単語について登録単語デー
タを作成する機能は、ユーザによって任意に行うことが
できる。したがって、その機能を用いて登録単語データ
を作成して保存することも可能であるが、必ずしも、そ
の機能を用いる必要はない。この機能を実行するには操
作部11によって所定のモード設定を行って登録する
が、その登録方法などについてはのちに説明する。As described above, the function of creating registered word data for some words for each speaker who is likely to use the apparatus can be arbitrarily performed by the user. Therefore, it is possible to create and store the registered word data using the function, but it is not always necessary to use the function. To execute this function, a predetermined mode setting is performed by the operation unit 11 for registration. The registration method and the like will be described later.
【0031】RAM10にはこの他に、話者#1用とし
て作成された量子化後の入力話者コードブックVQ1、
話者#2用として作成された量子化後の入力話者コード
ブックVQ2、話者#3用として作成された量子化後の
入力話者コードブックVQ3が格納されるが、これらの
各コードブックについてはのちに説明する。The RAM 10 additionally stores the quantized input speaker codebooks VQ1 and VQ1 created for speaker # 1.
The input speaker codebook VQ2 after quantization created for speaker # 2 and the input speaker codebook VQ3 after quantization created for speaker # 3 are stored. Will be described later.
【0032】本発明の実施の形態における装置の特徴の
一つとして、装置を使用する使用者をある範囲に絞り、
その範囲内に属する不特定多数の話者の音声データから
作った特定話者群音声モデルデータを作成し、その特定
話者群音声モデルデータを用いて装置の使用者の発する
音声を認識処理するということが挙げられる。One of the features of the apparatus according to the embodiment of the present invention is that a user who uses the apparatus is limited to a certain range,
A specific speaker group voice model data created from voice data of an unspecified number of speakers belonging to the range is created, and the voice of a user of the apparatus is recognized and processed using the specific speaker group voice model data. It is mentioned.
【0033】これを実現するために、この実施の形態で
は、使用者を話者群A(成人男性)、話者群B(成人女
性)、話者群C(子供)に分けて、それぞれの話者群に
属する不特定多数の話者の音声データから作った第1〜
第3の特定話者群音声モデルデータMD1,MD2,M
D3を有している。In order to realize this, in this embodiment, the users are divided into a speaker group A (adult male), a speaker group B (adult female), and a speaker group C (child). 1st to 1st data created from voice data of an unspecified number of speakers belonging to a speaker group
Third specific speaker group voice model data MD1, MD2, M
D3.
【0034】このように、装置を使用する使用者をある
範囲に絞って、その範囲に属する不特定多数の話者の音
声データから作った標準話者音声モデルデータ(この実
施の形態では第1〜第3の特定話者群音声モデルデータ
MD1,MD2,MD3)を用いることにより、あらゆ
る話者を想定した不特定話者用の標準話者音声モデルデ
ータを持つ場合に比べて標準話者音声モデルデータの規
模を大幅に小さくすることができ、ROM9のメモリサ
イズを小さくすることができ、また、制御部(CPU)
5の処理負担を小さくすることができる。As described above, the number of users who use the apparatus is narrowed down to a certain range, and the standard speaker voice model data (first data in this embodiment) is created from voice data of an unspecified number of speakers belonging to the range. To the third specific speaker group voice model data MD1, MD2, MD3), the standard speaker voice is compared with the case where the standard speaker voice model data for an unspecified speaker is assumed for all speakers. The size of the model data can be significantly reduced, the memory size of the ROM 9 can be reduced, and the control unit (CPU)
5 can reduce the processing load.
【0035】しかも、それぞれの話者群に対応した特定
話者群音声モデルデータ(第1〜第3の特定話者群音声
モデルデータMD1,MD2,MD3)を用いての音声
認識を行うので、あらゆる話者を想定した不特定話者用
の標準話者音声モデルデータを用いた場合に比べて高い
認識率が得られる。In addition, since speech recognition is performed using the specific speaker group voice model data (first to third specific speaker group voice model data MD1, MD2, MD3) corresponding to each speaker group, A higher recognition rate can be obtained as compared with the case of using standard speaker voice model data for an unspecified speaker assuming all speakers.
【0036】なお、その時点で発話する話者に対してど
の特定話者群音声モデルデータを選択するかは、たとえ
ば、操作部11に話者群を指定するためのボタンを用意
し、装置の使用者がたとえば子供であれば、話者群Cを
指定するためのボタンを操作してから音声の入力を行う
ようにすることもできる。The specific speaker group voice model data to be selected for the speaker speaking at that time can be determined by, for example, preparing a button for designating the speaker group on the operation unit 11 and using the device. If the user is a child, for example, the user may input a voice after operating a button for designating the speaker group C.
【0037】このように、話者群の指定操作がなされる
と、制御部5がそれを判断して、対応する特定話者群音
声モデルデータを用いて音声認識を行うようにする。た
とえば、話者群Cを指定するためのボタンが操作された
場合には、制御部5がそれを判断して、特定話者群音声
モデルデータMD3を用いて音声認識を行うようにす
る。As described above, when the operation of designating the speaker group is performed, the control unit 5 judges the operation and performs speech recognition using the corresponding specific speaker group speech model data. For example, when a button for designating the speaker group C is operated, the control unit 5 determines the operation and performs speech recognition using the specific speaker group speech model data MD3.
【0038】また、これとは別に、装置の使用者が話者
群の設定操作を行うことなく、入力された音声のピッチ
周期情報(音声分析部4が音声分析する際に得られるピ
ッチ周期情報)を基に、制御部5が入力音声の話者群を
判定して、その判定結果に基づいて対応する特定話者群
音声モデルデータを用いて音声認識を行うようにするこ
とも可能である。Separately from this, the pitch cycle information of the input voice (the pitch cycle information obtained when the voice analysis unit 4 analyzes the voice) without the user of the apparatus performing the setting operation of the speaker group. ), The control unit 5 may determine the speaker group of the input voice, and perform the voice recognition using the corresponding specific speaker group voice model data based on the determination result. .
【0039】図2はこのように話者に応じた音声モデル
データを用いて音声認識処理を行うフローチャートを示
すもので、話者の発話した音声の入力を行い(ステップ
s1)、音声入力があるか否かを判断し(ステップs
2)、音声入力があれば、音声分析部4によって、入力
音声に対して音声分析を行う(ステップs3)。そし
て、その分析結果に基づき制御部5によって、その音声
がどの話者群に属するかを判定し(ステップs4)、判
定された話者群に対応する音声モデルデータを選択して
(ステップs5)、音声認識処理を行う(ステップs
6)。そして、その認識結果に基づく所定の処理を行う
(ステップs7)。この所定の処理というのは、時刻設
定やアラーム設定などその装置の行うべき様々な処理で
ある。FIG. 2 shows a flowchart for performing the voice recognition process using the voice model data corresponding to the speaker as described above. The voice uttered by the speaker is input (step s1), and there is a voice input. Is determined (step s
2) If there is a voice input, the voice analysis unit 4 performs voice analysis on the input voice (step s3). Then, based on the analysis result, the control unit 5 determines to which speaker group the voice belongs (step s4), and selects voice model data corresponding to the determined speaker group (step s5). , Perform voice recognition processing (step s
6). Then, a predetermined process based on the recognition result is performed (step s7). The predetermined process is various processes to be performed by the device, such as time setting and alarm setting.
【0040】また、この実施の形態では、ある特定の単
語については、その装置を使用する使用者がその特定の
単語を発話してその音声データを登録し、この登録デー
タと前述の特定話者群音声モデルデータを用いて話者学
習処理を行うことも可能としている。以下、これについ
て説明する。Also, in this embodiment, for a specific word, a user using the device speaks the specific word and registers the voice data, and the registered data and the specific speaker described above are registered. It is also possible to perform speaker learning processing using group voice model data. Hereinafter, this will be described.
【0041】この話者学習処理を行うために、この実施
の形態では、特定の単語として、「おはよう」、「ただ
いま」、「こんにちは」、「おやすみ」、「何時」、
「アラーム」といった前述の単語セットw1に属する単
語(これらの単語を登録単語という)を、使用者(話
者)に発話してもらい、話者の発話して得られた各登録
単語に対する音声データによって登録単語データを作成
しそれをRAM10に登録する。このとき、たとえば、
その装置を1つの家族で使用するような場合は、その家
族(たとえば、父親、母親、その子供)が一人ずつ複数
の登録単語について順次発話して得られたそれぞれの音
声データによって登録単語データを作成してそれぞれ登
録する。[0041] In order to perform this speaker learning processing, in this embodiment, as a specific word, "Good morning", "I'm home", "Hello", "Good night", "when",
A user (speaker) utters words belonging to the above word set w1 such as "alarm" (these words are referred to as registered words), and voice data for each registered word obtained by uttering the speaker is obtained. To create registered word data and register it in the RAM 10. At this time, for example,
In the case where the device is used by one family, the family (for example, father, mother, and child) utters the registered word data by voice data obtained by sequentially uttering a plurality of registered words one by one. Create and register each.
【0042】具体的には、たとえば、父親(話者#1と
する)が発話して得られた各登録単語に対するそれぞれ
の音声データによって作成された各登録単語対応の登録
単語データは、話者#1用の登録単語データRD1とし
て保存され、母親(話者#2とする)が発話して得られ
た各登録単語に対する音声データによって作成された各
登録単語対応の登録単語データは、話者#2用の登録単
語データRD2として保存され、子供(話者#3とす
る)が発話して得られた各登録単語に対するそれぞれの
音声データによって作成された各登録単語対応の登録単
語データは、話者#3用の登録単語データRD3として
保存される。この登録は次のようにして行う。Specifically, for example, the registered word data corresponding to each registered word created by the respective voice data for each registered word obtained by uttering the father (supposed to be speaker # 1) is the speaker The registered word data corresponding to each registered word, which is stored as registered word data RD1 for # 1 and is created by voice data for each registered word obtained by uttering the mother (supposed to be speaker # 2), is the speaker The registered word data corresponding to each registered word, which is stored as the registered word data RD2 for # 2 and created by the respective voice data for each registered word obtained by uttering a child (speaker # 3), It is stored as registered word data RD3 for speaker # 3. This registration is performed as follows.
【0043】まず、操作部11によって登録単語を登録
するためのモード設定を行う。そして、話者#1の指定
を行い、話者#1が前述したそれぞれの登録単語を順次
発話する。そして、この話者#1が発話して得られた各
登録単語に対する音声データによって各登録単語対応の
登録単語データRD1を作成する。そして、この登録単
語データRD1と特定話者群音声モデルデータ(この場
合は、特定話者群音声モデルデータMD1)に基づい
て、話者#1に対する写像関数を作成する。First, a mode setting for registering a registered word is performed by the operation unit 11. Then, the speaker # 1 is designated, and the speaker # 1 utters the above-described registered words sequentially. Then, the registered word data RD1 corresponding to each registered word is created by voice data for each registered word obtained by uttering the speaker # 1. Then, a mapping function for speaker # 1 is created based on the registered word data RD1 and the specific speaker group voice model data (in this case, the specific speaker group voice model data MD1).
【0044】続いて、話者#2の指定を行い、話者#2
が前述したそれぞれの登録単語を順次発話する。そし
て、この話者#2が発話して得られた各登録単語に対す
る音声データによって、各登録単語対応の登録単語デー
タRD2を作成する。そして、この登録単語データRD
2と特定話者群音声モデルデータ(この場合は、特定話
者群音声モデルデータMD2)に基づいて、話者#2に
対する写像関数を作成する。Subsequently, the speaker # 2 is designated and the speaker # 2 is designated.
Utters each of the above-mentioned registered words sequentially. Then, the registered word data RD2 corresponding to each registered word is created from the voice data for each registered word obtained by uttering the speaker # 2. Then, this registered word data RD
2 and a specific speaker group voice model data (in this case, specific speaker group voice model data MD2), a mapping function for speaker # 2 is created.
【0045】さらに、続いて、話者#3の指定を行い、
話者#3が前述したそれぞれの登録単語を順次発話す
る。そして、この話者#3が発話して得られた各登録単
語に対する音声データによって各登録単語対応の登録単
語データRD1を作成する。そして、この登録単語デー
タRD3と特定話者群音声モデルデータ(この場合は、
特定話者群音声モデルデータMD3)に基づいて、話者
#3に対する写像関数を作成する。Subsequently, the speaker # 3 is designated.
Speaker # 3 sequentially utters each of the registered words described above. Then, the registered word data RD1 corresponding to each registered word is created by the voice data for each registered word obtained by uttering the speaker # 3. Then, the registered word data RD3 and the specific speaker group voice model data (in this case,
A mapping function for speaker # 3 is created based on the specific speaker group voice model data MD3).
【0046】このようにして、登録すべき話者の音声デ
ータの登録が終了する。そして、それぞれの写像関数と
第1〜第3の特定話者群コードブックCB1,CB2,
CB3(コードブックサイズはそれぞれ256サイズと
する)を用いて、話者#1、話者#2、話者#3それぞ
れの入力話者コードブックを作成する。このようにして
入力話者コードブックを作成する方法をコードブックマ
ッピングと呼ぶ。Thus, the registration of the voice data of the speaker to be registered is completed. Then, the respective mapping functions and the first to third specific speaker group codebooks CB1, CB2,
Using CB3 (codebook size is 256 size), input speaker codebooks for speaker # 1, speaker # 2, and speaker # 3 are created. The method of creating the input speaker codebook in this way is called codebook mapping.
【0047】この場合、話者#1は父親、話者#2は母
親、話者#3はその子供であるので、父親用の入力話者
コードブック、母親用の入力話者コードブック、子供用
の入力話者コードブックが作成されることになる。な
お、この実施の形態では、さらにこれら入力話者コード
ブックのデータ量を少なくするために、予め用意された
ユニバーサルコードブック94を使用してベクトル量子
化を行う。In this case, since the speaker # 1 is the father, the speaker # 2 is the mother, and the speaker # 3 is the child, the input speaker codebook for the father, the input speaker codebook for the mother, the child An input speaker codebook is created. In this embodiment, in order to further reduce the data amount of the input speaker codebook, vector quantization is performed using a universal codebook 94 prepared in advance.
【0048】このユニバーサルコードブック94は、大
人から子供まで全ての話者を含むような幅広い層の話者
から得られたコードブックであり、たとえば、1024
あるいは2048といった大きなサイズを有しており、
このユニバーサルコードブック94でベクトル量子化
し、そのユニバーサルコードブック94のコード番号の
みによるコードブック(256サイズ)を作成する。The universal code book 94 is a code book obtained from a wide range of speakers including all speakers from adults to children.
Or have a large size such as 2048,
Vector quantization is performed by the universal codebook 94 to create a codebook (256 size) using only the code number of the universal codebook 94.
【0049】このように、ユニバーサルコードブック9
4のコード番号のみによるコードブックとすることによ
り、大幅にデータ量の削減が図れる。As described above, the universal code book 9
By using a code book with only the code number of 4, the data amount can be greatly reduced.
【0050】ちなみに、装置に使用されるRAM10と
して32キロバイト程度のRAMを使うとすると、前述
の入力話者コードブックでは、1つのコードブックにつ
いて、256×10(この10はLPCケプストラム係
数の次元数であって、ここでは10次元とした場合であ
る)で、2560個の係数を保存する必要があり、1つ
の係数をショート型で保存した場合、2バイト×256
0の合計約5キロバイトが必要となる。By the way, assuming that a RAM of about 32 kilobytes is used as the RAM 10 used in the apparatus, in the above-mentioned input speaker codebook, 256 × 10 (10 is the number of dimensions of the LPC cepstrum coefficient) for one codebook. Therefore, it is necessary to store 2560 coefficients, and when one coefficient is stored in a short type, 2 bytes × 256
A total of about 0 kilobytes is required.
【0051】したがって、このコードブックを仮りに4
つ作るとなると、それだけで約20キロバイトの容量を
必要とすることになり、RAM10の多くを占有してし
まい、その他の処理に支障をきたすことになる。Therefore, this code book is assumed to be 4
If it is made, it alone requires a capacity of about 20 kilobytes, occupies much of the RAM 10, and interferes with other processes.
【0052】これに対処するために、前述したように、
ユニバーサルコードブック94でベクトル量子化して、
そのユニバーサルコードブック94のコード番号のみに
よるベクトル量子化された入力話者コードブックを作成
する。なお、以下では、このベクトル量子化された入力
話者コードブックを量子化コードブックと呼び、話者#
1に対応する量子化されたコードブックを量子化コード
ブックVQ1、話者#2に対応する量子化された入力話
者コードブックを量子化コードブックVQ2、話者#3
に対応する量子化された入力話者コードブックを量子化
コードブックVQ3と呼ぶことにする。To cope with this, as described above,
Vector quantization by the universal codebook 94,
An input speaker codebook that is vector-quantized using only the code number of the universal codebook 94 is created. In the following, this vector-quantized input speaker codebook is called a quantization codebook, and the speaker #
1 is a quantized codebook VQ1, a quantized input speaker codebook corresponding to speaker # 2 is a quantized codebook VQ2, and speaker # 3.
Is referred to as a quantized codebook VQ3.
【0053】これによって、ある一人の話者に対する量
子化入力話者コードブック(たとえば、量子化入力話者
コードブックVQ1)は、256個のコード番号を保存
すればよく、各コード番号をショート型で保存させたば
あい、2バイト×256の合計約0.5キロバイトの容量
で済むため、コードブックとして必要なメモリ容量は、
前述した量子化前の入力話者コードブックに比べて1/
10となる。Thus, the quantized input speaker codebook (for example, the quantized input speaker codebook VQ1) for a certain speaker only needs to store 256 code numbers, and each code number is stored in a short type. If it is saved in, the capacity of about 0.5 kilobytes in total of 2 bytes × 256 is enough, so the memory capacity required as a codebook is
1 / compared to the input speaker codebook before quantization described above.
It becomes 10.
【0054】なお、このユニバーサルコードブック94
は、前述した各入力話者ごとの登録単語データRD1,
RD2,RD3の量子化にも用いることができる。The universal code book 94
Is the registered word data RD1 for each input speaker described above.
It can also be used for quantization of RD2 and RD3.
【0055】図3はこの実施の形態である音声時計装置
の外観構成を示すものである。前述したようにこの実施
の形態における音声時計装置は、玩具的な要素の強いも
のであり、実際には、その外観は人気アニメーションの
キャラクタなどが用いられるが、その外観は本発明とは
直接関係しないので、ここでは、単純な形状のもので説
明を行う。FIG. 3 shows the external configuration of the audio clock device according to this embodiment. As described above, the audio timepiece device according to the present embodiment has a strong toy-like element. Actually, the appearance of the audio timepiece device is a character of a popular animation, but the appearance is directly related to the present invention. Here, the description will be made with a simple shape.
【0056】図3において、音声時計装置の筺体50に
は、図1で示されたマイクロホン1、スピーカ8、装置
に対して様々な設定を行ったり、何らかの動作を行うた
めにその都度操作される各種操作ボタン(詳細は後述す
る)を有する操作部11が設けられる。In FIG. 3, the housing 50 of the audio clock device is operated each time to make various settings for the microphone 1, the speaker 8, and the device shown in FIG. An operation unit 11 having various operation buttons (details will be described later) is provided.
【0057】この操作部11は、たとえば、電源スイッ
チSW、話者群指定ボタンBT1,BT2,BT3、話
者指定ボタンBT11,BT12,BT13、認識モー
ドか登録モードかを切り替えるモード切替スイッチ(機
能については後述する)MSW、装置側からの問いかけ
に対して話者がボタンの操作で肯定(「はい」)または
否定(「いいえ」)の入力が可能な肯定ボタンBT21
と否定ボタンBT22(これの具体的な動作例について
はのちに説明する)、音量調節スイッチVSWなどが設
けられている。The operation unit 11 includes, for example, a power switch SW, speaker group designation buttons BT1, BT2, BT3, speaker designation buttons BT11, BT12, BT13, and a mode changeover switch (for function) for switching between a recognition mode and a registration mode. The affirmation button BT21 that allows the speaker to input affirmative (“yes”) or negative (“no”) by operating the button in response to an inquiry from the MSW or the device side.
And a negative button BT22 (a specific operation example of which will be described later), a volume control switch VSW, and the like.
【0058】なお、話者群指定ボタンBT1,BT2,
BT3は、その装置を使用する使用者の話者群を指定す
るもので、話者群指定ボタンBT1は話者群として成人
男性(話者群A)を指定し、話者群指定ボタンBT2は
話者群として成人女性(話者群B)を指定し、話者群指
定ボタンBT3は話者群として子供(話者群C)を指定
するものである。The speaker group designation buttons BT1, BT2,
BT3 designates a speaker group of a user who uses the apparatus, a speaker group designation button BT1 designates an adult male (speaker group A) as a speaker group, and a speaker group designation button BT2 designates An adult woman (speaker group B) is designated as a speaker group, and a speaker group designation button BT3 is for designating a child (speaker group C) as a speaker group.
【0059】また、話者指定ボタンBT11,BT1
2,BT13は、その装置を使用する使用者を話者とし
て指定するもので、ここでは、3人の使用者(話者#
1、話者#2、話者#3)を指定できるようになってい
る。Also, speaker designation buttons BT11, BT1
2, the BT 13 designates a user who uses the device as a speaker. Here, three users (speaker #)
1, speaker # 2, and speaker # 3).
【0060】なお、図3で示される操作部11には上述
したような各種スイッチや、各種操作ボタンが設けられ
るが、これは、この実施の形態を説明する上で必要なス
イッチ類や操作ボタンをすべて設けた例であるが、これ
らは全て設ける必要はなく、装置の有する機能などに応
じて適宜必要なスイッチや操作ボタンのみを設ければよ
い。また、電源スイッチswなどのスイッチ類は、操作
部11内ではなく、操作ボタン類とは別にして設けるよ
うにしてもよい。The operation unit 11 shown in FIG. 3 is provided with various switches and various operation buttons as described above. These are switches and operation buttons necessary for describing this embodiment. However, it is not necessary to provide all of them, and only necessary switches and operation buttons may be provided as appropriate according to the functions of the device. Further, switches such as the power switch sw may be provided separately from the operation buttons instead of inside the operation unit 11.
【0061】また、この図3で示される構成は説明を行
う上での一例であって、マイクロホン1やスピーカ8、
操作部11の配置、さらには、操作部11内の各種スイ
ッチ類や操作ボタンなどの配置もこれに限られるもので
はない。The configuration shown in FIG. 3 is an example for explanation, and the microphone 1, the speaker 8,
The arrangement of the operation unit 11 and the arrangement of various switches and operation buttons in the operation unit 11 are not limited thereto.
【0062】ここで、登録モードと認識モードについて
の説明を行う。この登録モードと認識モードのいずれか
のモード設定は、モード切替スイッチMSWによって行
う。Here, the registration mode and the recognition mode will be described. Any one of the registration mode and the recognition mode is set by the mode change switch MSW.
【0063】登録モードは、その装置を使用する各話者
(この場合、話者#1,#2,#3)が予め決められた
複数の登録単語を発話し、それぞれの音声データから作
成した登録単語データを登録単語データRD1,RD
2,RD3として登録するとともに、この登録単語デー
タRD1,RD2,RD3を用いて話者学習処理を行
い、最終的に話者#1用の量子化コードブックVQ1、
話者#2用の量子化コードブックVQ2、話者#3用の
量子化コードブックVQ3の作成を行う。In the registration mode, each speaker (in this case, speakers # 1, # 2, and # 3) using the device speaks a plurality of predetermined registration words, and is created from each voice data. Register registered word data Registered word data RD1, RD
2, RD3, and a speaker learning process is performed using the registered word data RD1, RD2, RD3. Finally, a quantization codebook VQ1,
A quantization codebook VQ2 for speaker # 2 and a quantization codebook VQ3 for speaker # 3 are created.
【0064】登録モードとした場合の具体的な処理につ
いて説明する。ここでは、前述したように、父親(話者
#1)、母親(話者#2)、その子供(話者#3)がそ
れぞれの登録単語を発話して得られた登録単語データを
登録するものとする。The specific processing in the case of the registration mode will be described. Here, as described above, the registered word data obtained by the father (speaker # 1), the mother (speaker # 2), and the child (speaker # 3) speaking each registered word are registered. Shall be.
【0065】まず、操作部11の話者指定ボタンBT1
1を操作し、話者#1の登録モードとして、話者#1
(父親)が前述した登録単語を順次発話する。これによ
り、話者#1に対する登録単語の登録データRD1が作
成されるとともに、写像関数が作成され、さらに、ユニ
バーサルコードブック94でベクトル量子化され、その
ユニバーサルコードブック94のコード番号による話者
#1の量子化入力話者コードブックVQ1が作成され
る。First, the speaker designation button BT1 of the operation unit 11
1 for the registration mode of the speaker # 1, the speaker # 1
(Father) utters the above-mentioned registered words sequentially. As a result, registered data RD1 of the registered word for speaker # 1 is created, a mapping function is created, and further, vector quantization is performed by universal codebook 94, and speaker # is determined by the code number of universal codebook 94. One quantized input speaker codebook VQ1 is created.
【0066】続いて、操作部11の話者指定ボタンBT
12を操作し、話者#2の登録モードとして、話者#2
(母親)が前述した登録単語を順次発話する。これによ
り、話者#2に対する登録単語の登録データRD2が作
成されるとともに、写像関数が作成され、さらに、ユニ
バーサルコードブック94でベクトル量子化され、その
ユニバーサルコードブック94のコード番号による話者
#2の量子化入力話者コードブックVQ2が作成され
る。Subsequently, the speaker designation button BT of the operation unit 11
12 to set the speaker # 2 registration mode to the speaker # 2.
(Mother) utters the above-mentioned registered words sequentially. As a result, registered data RD2 of the registered word for speaker # 2 is created, a mapping function is created, and further, vector quantization is performed by universal codebook 94, and speaker # is determined by the code number of universal codebook 94. A second quantized input speaker codebook VQ2 is created.
【0067】さらに続いて、話者指定ボタンBT13を
操作し、話者#3の登録モードとして、話者#3(子
供)が前述した登録単語を順次発話する。これにより、
話者#3に対する登録単語の登録データRD3が作成さ
れるとともに、写像関数が作成され、さらに、ユニバー
サルコードブック94でベクトル量子化され、そのユニ
バーサルコードブック94のコード番号による話者#3
の量子化入力話者コードブックVQ3が作成される。Subsequently, the speaker designation button BT13 is operated, and in the registration mode of the speaker # 3, the speaker # 3 (child) sequentially utters the above-described registered words. This allows
Registered data RD3 of the registered word for speaker # 3 is created, a mapping function is created, and vector quantization is performed by universal codebook 94, and speaker # 3 based on the code number of universal codebook 94 is generated.
Of the input speaker codebook VQ3 is generated.
【0068】なお、このとき、登録単語データRD1,
RD2,RD3もこのユニバーサルコードブック94を
用いてベクトル量子化され、以下では、登録単語データ
RD1,RD2,RD3も量子化されたデータであると
する。At this time, the registered word data RD1,
RD2 and RD3 are also vector-quantized using this universal codebook 94, and hereinafter, it is assumed that registered word data RD1, RD2 and RD3 are also quantized data.
【0069】次に認識モードについて説明する。この認
識モードは、この場合、第1〜第3の特定話者群音声モ
デルデータMD1,MD2,MD3、話者#1〜話者#
3用の登録単語データRD1,RD2,RD3、話者#
1〜話者#3用の量子化コードブックVQ1,VQ2,
VQ3のいずれかを、状況に応じて用いて音声認識する
モードである。Next, the recognition mode will be described. In this case, the recognition mode is the first to third specific speaker group voice model data MD1, MD2, MD3, speaker # 1 to speaker #
3 registered word data RD1, RD2, RD3, speaker #
Quantization codebooks VQ1, VQ2 for speakers 1 to # 3
This is a mode in which any one of VQ3 is used for voice recognition depending on the situation.
【0070】たとえば、モード切替スイッチMSWを認
識モードとした場合、まず、使用する話者がどの話者群
であるかの設定を行う。たとえば、使用する話者がたと
えば話者#3(子供)であれば、話者群Cを指定するた
めの話者群指定ボタンBT3を操作してから音声の入力
を行う。これにより、制御部5では第3の特定話者群音
声モデルデータMD3を用いて音声認識を行う。For example, when the mode changeover switch MSW is set to the recognition mode, first, a speaker group to be used is set. For example, if the speaker to be used is, for example, speaker # 3 (child), a voice is input after operating a speaker group designation button BT3 for designating the speaker group C. As a result, the control unit 5 performs voice recognition using the third specific speaker group voice model data MD3.
【0071】このように、使用する話者によって話者群
の指定操作がなされると、制御部5がそれを判断して、
対応する特定話者群音声モデルデータを用いて音声認識
を行うことができる。As described above, when the speaker group is designated by the speaker to be used, the control unit 5 determines the operation, and
Speech recognition can be performed using the corresponding specific speaker group speech model data.
【0072】このように、使用者をある特定の話者群に
絞り、その話者群に属する話者の音声データから作った
特定話者群音声モデルデータを用いて音声認識すること
により、あらゆる話者を想定した大規模な標準話者音声
モデルデータを用いて音声認識を行う場合に比べて、高
い認識率での音声認識が可能となる。また、幾つかの話
者群だけの特定話者群音声モデルデータを持てばよいの
で、音声モデルデータそのものの規模を大幅に小さくす
ることができ、ROM9のメモリサイズを小さくするこ
とができ、また、制御部(CPU)5にかかる処理負担
を小さくすることができる。As described above, the user is narrowed down to a specific speaker group, and the voice recognition is performed using the specific speaker group voice model data created from the voice data of the speaker belonging to the speaker group, so that all the users can be recognized. Compared with the case where speech recognition is performed using large-scale standard speaker speech model data assuming a speaker, speech recognition at a higher recognition rate can be performed. Also, since it is sufficient to have specific speaker group voice model data of only some speaker groups, the scale of the voice model data itself can be significantly reduced, and the memory size of the ROM 9 can be reduced. In addition, the processing load on the control unit (CPU) 5 can be reduced.
【0073】また、話者がどの話者群であるかの判定
は、入力音声を音声分析して得られるピッチ周期情報に
より装置側で自動的に知ることが可能であり、さらに、
入力された音声データと登録単語データとのマッチング
をとることにより得られる類似度を用いて話者がどの話
者群であるかの判定を行う方法もある。なお、ここで
は、ピッチ周期情報のみにより話者群を判定する場合に
ついて述べる。The determination of which speaker group the speaker belongs to can be automatically made on the device side based on pitch period information obtained by analyzing the input voice.
There is also a method of determining which speaker group a speaker belongs to by using a similarity obtained by matching input voice data with registered word data. Here, a case where the speaker group is determined based only on the pitch cycle information will be described.
【0074】つまり、父親、母親、子供の3人の話者で
考えたとき、子供のピッチ周期が最も短く、次に母親が
短く、父親のピッチ周期はこの3人の中では最も長くな
るのが普通であり、そのピッチ周期情報から、その入力
話者が話者#1、話者#2、話者#3のうちのどの話者
であるかを特定することができる。That is, when three speakers, father, mother and child, are considered, the pitch cycle of the child is shortest, the mother is shortest, and the pitch cycle of the father is longest among the three. Is normal, and from the pitch period information, it is possible to specify which of the speaker # 1, the speaker # 2, and the speaker # 3 the input speaker is.
【0075】このようにして、たとえば、入力話者が話
者#1であると判定された場合には、その話者#1に対
応する登録単語データRD1や、話者学習処理によって
作成された量子化入力話者コードブックVQ1を用いて
音声認識を行う。つまり、話者#1の発話した単語が登
録単語である場合には、話者#1に対応する登録単語デ
ータRD1によって音声認識され、それ以外の単語につ
いては、量子化入力話者コードブックVQ1を用いて音
声認識される。また、登録単語データが作成されてな
く、話者学習処理がなされていない場合には、 特定話
者群音声モデルデータ92を用いて音声認識する。As described above, for example, when it is determined that the input speaker is the speaker # 1, the registered word data RD1 corresponding to the speaker # 1 and the speaker data are created by the speaker learning process. Speech recognition is performed using the quantized input speaker codebook VQ1. In other words, if the word spoken by speaker # 1 is a registered word, the word is recognized by registered word data RD1 corresponding to speaker # 1, and the other words are quantized input speaker codebook VQ1. Is used for speech recognition. If the registered word data has not been created and the speaker learning process has not been performed, speech recognition is performed using the specific speaker group speech model data 92.
【0076】なお、本発明では、装置と話者の間で行わ
れる会話の手順として、最初に、話者が前述した登録単
語のうちいずれかの登録単語を発話するようにしてい
る。つまり、装置側では、最初に、単語セットw1に属
する登録単語を認識するような会話手順が設定されてい
る。このように、本発明では、装置側はその時点の動作
場面に応じ、現時点ではどの単語セットの単語を入力す
る場面かを把握している。そして、そのときの場面にて
入力された単語の認識処理を行う。In the present invention, as a procedure of a conversation performed between the apparatus and the speaker, first, the speaker speaks one of the above-described registered words. That is, on the device side, first, a conversation procedure that recognizes a registered word belonging to the word set w1 is set. As described above, according to the present invention, the apparatus side knows which word set of a word input scene at present, according to the operation scene at that time. Then, recognition processing of the word input in the scene at that time is performed.
【0077】したがって、会話の始まりとして、装置に
対し、たとえば、話者#1がまず登録単語の一つとして
の「アラーム」と発話したとすると、その「アラーム」
についての音声分析を行い、それによって得られるピッ
チ周期情報により装置側では話者の特定を行う。この場
合は、入力話者は話者#1であると判定し、入力音声に
対し話者#1用の登録単語データRD1を用いて音声認
識処理することにより、発話された音声が「アラーム」
であったことが認識される。Therefore, assuming that, for example, the speaker # 1 first utters “Alarm” as one of the registered words to the device at the beginning of the conversation, the “Alarm”
Is analyzed, and the device side identifies the speaker based on the pitch period information obtained thereby. In this case, it is determined that the input speaker is the speaker # 1, and the input voice is subjected to voice recognition processing using the registered word data RD1 for the speaker # 1, so that the uttered voice is an "alarm".
It is recognized that it was.
【0078】このようにして、入力話者が登録単語を入
力することにより、装置側では、その入力話者がどの話
者であるかを判定し、その登録単語についての認識を行
う。そして、それ以降に入力される音声が登録単語以外
の単語(単語セットw1以外の単語)である場合は、話
者判定を行うことなく音声認識動作を行う。As described above, when the input speaker inputs the registered word, the apparatus determines which speaker the input speaker is and recognizes the registered word. Then, when the voice input thereafter is a word other than the registered word (word other than the word set w1), the voice recognition operation is performed without performing the speaker determination.
【0079】たとえば、現在の装置側の動作場面が登録
単語を認識する場面であって、この場面において登録単
語の認識処理が終了したあと、次の場面として、単語セ
ットw2やw3などを(単語セットw2とする)認識す
る場面に移るというように設定されていたとすれば、そ
の単語セットw2の認識は、話者適応による音声認識処
理として、話者#1用の量子化コードブックVQ1と第
1の特定話者群コードブックCB1と第1の特定話者群
音声モデルデータMD1(単語セットw2に対応する音
声モデルデータ)を用いて行いての音声認識処理を行
う。For example, the current operation scene on the device side is a scene for recognizing a registered word, and after the recognition process of the registered word is completed in this scene, the word set w2 or w3 is set as the next scene. If it is set so as to move to a scene to be recognized, the recognition of the word set w2 is performed as a speech recognition process by speaker adaptation, and the quantization codebook VQ1 for speaker # 1 and the The speech recognition process is performed by using one specific speaker group codebook CB1 and the first specific speaker group speech model data MD1 (speech model data corresponding to the word set w2).
【0080】図4はこれまで説明した話者学習処理を可
能とした音声認識処理の全体的な処理手順を説明するフ
ローチャートである。なお、この図4で示されるフロー
チャートは、話者をある一人の話者に限定した場合の処
理手順を示すものである。FIG. 4 is a flowchart for explaining the overall processing procedure of the speech recognition processing enabling the above-described speaker learning processing. The flowchart shown in FIG. 4 shows a processing procedure in a case where the number of speakers is limited to one speaker.
【0081】図4において、まず、認識モードか登録モ
ードかを判定し(ステップs11)、登録モードである
場合には、話者の発話した登録単語に対する音声入力を
行い(ステップs12)、音声入力があるか否かを判断
し(ステップs13)、音声入力があれば、入力された
音声の音声分析を行い(ステップs14)、入力音声デ
ータを登録単語データとして登録する(ステップs1
5)。In FIG. 4, first, it is determined whether the mode is the recognition mode or the registration mode (step s11). If the mode is the registration mode, voice input for the registered word spoken by the speaker is performed (step s12), and voice input is performed. Is determined (step s13). If there is a voice input, voice analysis of the input voice is performed (step s14), and the input voice data is registered as registered word data (step s1).
5).
【0082】そして、登録すべき単語についての音声デ
ータの入力が終了したか否かを判断し(ステップs1
6)、終了していれば、入力された音声に対する音声デ
ータがどの話者群に属するかを判断し(ステップs1
7)、前述したような話者学習処理(入力話者コードブ
ックを作成し、最終的には量子化コードブックの作成)
を行う(ステップs18)。Then, it is determined whether or not the voice data input for the word to be registered has been completed (step s1).
6) If completed, it is determined to which speaker group the voice data for the input voice belongs (step s1).
7), speaker learning processing as described above (creating an input speaker codebook and finally creating a quantization codebook)
Is performed (step s18).
【0083】一方、ステップs11において認識モード
であると判定した場合には、話者の発話した音声入力を
行い(ステップs19)、音声入力があるか否かを判断
し(ステップs20)、音声入力があれば、入力された
音声の音声区間を検出して音声分析を行う(ステップs
21)。On the other hand, if it is determined in step s11 that the recognition mode is set, the voice input by the speaker is performed (step s19), and it is determined whether or not there is a voice input (step s20). If there is, the voice section of the input voice is detected and voice analysis is performed (step s).
21).
【0084】そして、話者学習処理が行われているか否
かを判定し(ステップs22)、話者学習処理が行われ
ていなければ不特定話者音声認識(この実施の形態では
特定話者群音声モデルデータ92(このときの入力話者
に対応して用意された特定話者群音声モデルデータであ
り、入力話者が話者#1であれば第1の特定話者群音声
モデルデータ)よる音声認識処理を行い(ステップs2
3)、話者学習処理が行われていればステップs24以
降の処理を行う。Then, it is determined whether or not the speaker learning process has been performed (step s22). If the speaker learning process has not been performed, the unspecified speaker speech recognition (in this embodiment, the specific speaker group) Speech model data 92 (specific speaker group speech model data prepared corresponding to the input speaker at this time, and if the input speaker is speaker # 1, first specific speaker group speech model data) (Step s2)
3) If the speaker learning processing has been performed, the processing after step s24 is performed.
【0085】ステップs24では入力された音声に対す
る音声データが登録単語データであるか否かを判定し、
登録単語データである場合には登録型の音声認識処理と
してここでは登録単語データ101(このときの入力話
者の音声により作成された登録単語データであり、入力
話者が話者#1であれば話者#1用の登録単語データR
D1)を使用しての音声認識処理を行う(ステップs2
5)。In step s24, it is determined whether or not the voice data for the input voice is registered word data.
If the input word data is registered word data, the registered word data 101 (registered word data created by the input speaker's voice at this time, and the input speaker is speaker # 1) is used as registration type speech recognition processing. Registered word data R for speaker # 1
Perform voice recognition processing using D1) (step s2)
5).
【0086】また、登録単語データでない場合には話者
適応型の音声認識処理として、ここでは当該入力話者の
音声に基づいて作成された量子化コードブック(入力話
者が話者#1であれば話者#1用の量子化コードブック
VQ1)と特定話者群コードブック(入力話者が話者#
1であれば第1の特定話者群コードブックCB1)と特
定話者群音声モデルデータ(入力話者が話者#1であれ
ば第1の特定話者群音声モデルデータMD1)を使用し
ての音声認識処理を行う(ステップs26)。If the input word is not registered word data, a quantization codebook (based on the input speaker # 1 and the input speaker # 1) created based on the input speaker's voice is used as speaker-adaptive speech recognition processing. If so, the quantization codebook VQ1 for speaker # 1) and the specific speaker group codebook (input speaker is speaker #)
If the input speaker is 1, the first specific speaker group codebook CB1) and the specific speaker group voice model data (first specific speaker group voice model data MD1 if the input speaker is speaker # 1) are used. All voice recognition processing is performed (step s26).
【0087】ところで、この装置の場合、認識可能な単
語は、前述したように、単語セットw1,w2,w3と
いうように複数の単語セットからなり、前述したよう
に、装置側では、現在、どの単語セットが入力される場
面であるかを把握している。たとえば、単語セットw1
(登録単語)を入力する場面が終わって、現在は、単語
セットw2(「1時」、「2時」など時の単位)を入力
する場面であるというように、現在、どのような場面で
あるかを把握している。By the way, in the case of this device, the recognizable words are composed of a plurality of word sets such as the word sets w1, w2 and w3, as described above. You know whether the word set is input. For example, the word set w1
After the scene for inputting the (registered word) is over, the scene for inputting the word set w2 (the unit of time such as "1 o'clock" or "2 o'clock") is the current scene. I know what it is.
【0088】したがって、前述のステップs24におい
て、入力された音声に対する音声データが登録単語デー
タであるか否かの判定は、現在、どのような場面である
かにより、登録単語が入力される場面であれば、入力さ
れる単語データは登録単語データであるとして、それに
対応した処理を行う。Therefore, in step s24 described above, it is determined whether or not the voice data corresponding to the input voice is registered word data, depending on what kind of scene is currently at which the registered word is input. If there is, it is determined that the input word data is registered word data, and the corresponding processing is performed.
【0089】そして、このように音声認識処理が終了す
るとその認識結果に基づく所定の処理を行う(ステップ
s27)。Then, when the speech recognition processing is completed, a predetermined processing based on the recognition result is performed (step s27).
【0090】なお、図4で示した処理はある特定の一人
の話者についての処理であったが、たとえば、前述した
ように話者#1、話者#2、話者#3というように複数
の話者が存在する場合には、図5のフローチャートで示
されるように、登録モード時においては、音声入力のス
テップs1の前段に話者指定(たとえば、話者#1、話
者#2、話者#3の指定)を行うステップs28を追加
する。したがって、この場合は、登録単語データは、図
1に示されるように、話者#1〜#3用の登録単語デー
タRD1,RD2,RD3が作成され、量子化コードブ
ックも話者#1〜#3用の量子化コードブックVQ1,
VQ2,VQ3が作成される。Although the process shown in FIG. 4 is a process for one specific speaker, for example, as described above, for example, speaker # 1, speaker # 2, and speaker # 3 When there are a plurality of speakers, as shown in the flowchart of FIG. 5, in the registration mode, a speaker is specified before the voice input step s1 (for example, speaker # 1, speaker # 2). Step s28 for specifying the speaker # 3) is added. Therefore, in this case, as shown in FIG. 1, registered word data RD1, RD2, and RD3 for speakers # 1 to # 3 are created as registered word data, and quantization code books are also written for speakers # 1 to # 3. # 3 quantization codebook VQ1,
VQ2 and VQ3 are created.
【0091】一方、認識モード時においては、ステップ
s21の音声分析処理の後段に、入力話者がたとえば、
話者#1、話者#2、話者#3のどの話者であるかを判
定する話者判定処理(ステップs29)を追加する。On the other hand, in the recognition mode, after the speech analysis processing in step s21, the input speaker
A speaker determination process (step s29) for determining which of speaker # 1, speaker # 2, and speaker # 3 is a speaker is added.
【0092】そして、このときの音声認識処理は、登録
単語の場合には、話者#1、話者#2、話者#3の音声
データを基に作成された話者#1、話者#2、話者#3
用の登録単語データRD1,RD2,RD3のいずれか
を用いて音声認識し、登録単語でない場合には、話者#
1用の量子化コードブックVQ1と第1の特定話者群コ
ードブックCB1と第1の特定話者群音声モデルデータ
MD1、話者#2用の量子化コードブックVQ2と第2
の特定話者群コードブックCB2と第2の特定話者群音
声モデルデータMD2、話者#3用の量子化コードブッ
クVQ3と第3の特定話者群コードブックCB3と第3
の特定話者群音声モデルデータMD3のいずれかの組を
用いて音声認識する。In the speech recognition process at this time, in the case of a registered word, the speaker # 1, the speaker # 1 created based on the speech data of the speaker # 1, the speaker # 2, and the speaker # 3, and the speaker # 2, speaker # 3
Voice recognition using any of the registered word data RD1, RD2, and RD3 for the
1, the first specific speaker group codebook CB1 and the first specific speaker group voice model data MD1, the quantized codebook VQ2 for the speaker # 2 and the second
Specific speaker group codebook CB2, second specific speaker group speech model data MD2, quantization codebook VQ3 for speaker # 3, third specific speaker group codebook CB3, and third specific speaker group codebook CB3.
Using any set of the specific speaker group voice model data MD3.
【0093】なお、以上説明した認識モードにおける処
理は、登録単語を登録した場合の処理であるが、登録単
語の登録を行わない状態でも同様に認識処理が可能とな
る。この場合は、登録単語データRD101が作成され
ないので、特定話者群音声モデルデータ92を使用して
の音声認識となる。Although the processing in the recognition mode described above is a processing in the case where a registered word is registered, the recognition processing can be similarly performed even when the registered word is not registered. In this case, since the registered word data RD101 is not created, speech recognition is performed using the specific speaker group speech model data 92.
【0094】次に、アラーム時刻の設定を行う際の装置
と話者との会話例を、図6の状態遷移図を参照しながら
説明する。なお、図6において、括弧内の発話内容は装
置を使用する話者の発話する内容である。まず、装置側
からは、「アラーム時刻を、午前、7時、30分という
ように発話して下さい」というように、発話する内容の
一例を挙げて話者に発話を促す(ステップs31)。こ
れにより、話者(ここでは話者#1)が、設定したい時
刻として「午前」、「1時」、「20分」と発話したと
する(ステップs32)。Next, an example of a conversation between a device and a speaker when setting an alarm time will be described with reference to a state transition diagram of FIG. In FIG. 6, the utterance content in parentheses is the content uttered by the speaker using the device. First, the apparatus urges the speaker to utter an example of the uttered content, such as "Please utter the alarm time at 7:00 am, 30 minutes, etc." (step s31). Thus, it is assumed that the speaker (here, speaker # 1) has uttered “AM”, “1:00”, and “20 minutes” as the times to be set (step s32).
【0095】ここでの発話内容は、「午前」、「1
時」、「20分」というように、3つの単語を1つのセ
ットとして、各単語間にわずかな間をおいて連続的な発
話がなされる。そして、装置側では、それぞれの単語に
ついて連続的に音声認識を行う。その認識結果として、
装置側から、「午前、1時、20分ですか? ハイかイ
イエで答えて下さい」というように応答する(ステップ
s33)。The utterance contents here are "morning", "1"
As a set of three words, such as "hour" and "20 minutes", continuous utterances are made with a slight interval between words. Then, the device performs speech recognition continuously for each word. As a result of the recognition,
The device responds as follows: "Is it 1 am, 20 minutes? Answer yes or no?" (Step s33).
【0096】この認識結果が正しければ、話者#1は
「はい」と応答し(ステップs34)、装置側からは、
「アラーム時刻を午前1時20分にセットしました」と
いうような発話内容を発する(ステップs35)。一
方、認識結果が間違っていれば、話者#1は「いいえ」
と応答し(ステップs36)、装置側からは、「それで
は順番に聞きます」というような内容の発話を行う(ス
テップs37)。If the recognition result is correct, the speaker # 1 responds with "yes" (step s34), and from the apparatus side,
An utterance content such as "alarm time set to 1:20 am" is issued (step s35). On the other hand, if the recognition result is wrong, the speaker # 1 is “No”.
(Step s36), and the apparatus utters a content such as "I will listen in order" (step s37).
【0097】そして、まず、「午前ですか?」というよ
うに「午前」か「午後」かを確かめる内容を発話する
(ステップs38)。Then, the user first utters a content such as "Are you in the morning?" To confirm whether it is "AM" or "PM" (step s38).
【0098】それに対して、話者#1は、午前でよけれ
ば、「はい」と応答し(ステップs39)、間違ってい
れば(午前でなければ)、「いいえ」と応答する(ステ
ップs40)。この「午前」と「午後」の場合は、二者
択一であるので、もし、話者#1側の応答が「いいえ」
であった場合には、もう一方の単語で確定することがで
きる。つまり、装置側による最初の問いかけが「午前」
であって、話者側が「いいえ」と応答した場合には、
「午後」が確定される。On the other hand, the speaker # 1 replies “yes” if it is all right in the morning (step s39), and replies “no” if it is wrong (if not in the morning) (step s40). . In the case of "morning" and "afternoon", since the choice is an alternative, if the response of the speaker # 1 is "No"
If it is, it can be determined with the other word. In other words, the first question asked by the device is "morning"
And if the speaker responds “No”,
"Afternoon" is determined.
【0099】なお、「午前」と「午後」の他に、たとえ
ば、「正午」が加わって、「午前」、「午後」、「正
午」の3つのうち、いずれかを確定する場合に、たとえ
ば、装置側「午前ですか」、話者側「いいえ」、装置側
「午後ですか」、話者側「いいえ」となって、「正午」
が確定されることになる。このように、3単語程度であ
れば、話者側からの「はい」または「いいえ」の応答を
2〜3回繰り返すことで、短時間に所望の単語の確定を
行うことができる。[0099] In addition to "am" and "pm", for example, when "noon" is added to determine one of three "am", "pm", and "noon", for example, , The device side is "AM", the speaker side is "NO", the device side is "PM", and the speaker side is "NO" and "noon"
Is determined. As described above, if the number of words is about three, by repeating the "yes" or "no" response from the speaker two or three times, a desired word can be determined in a short time.
【0100】このようにして、「午前」か「午後」かの
確定が行われると、次に、「時」の単位の確定を行う。
この場合、話者#1の入力した単語は「1時」である。
これに対して、装置側から、たとえば、「1時」に対す
る認識候補の第1位から第n位までのうち、ステップs
41にて第1位候補として「1時ですか」が発話された
とすれば、話者#1は「はい」と応答し(ステップs4
2)、「1時」が確定し、分の単位の確認処理(ステッ
プs51)に入る。After the determination of “am” or “pm” is performed in this way, the unit of “hour” is determined next.
In this case, the word input by speaker # 1 is "1 o'clock".
On the other hand, from the apparatus side, for example, among the first to n-th recognition candidates for "1 o'clock", step s
Assuming that "1 o'clock?" Is uttered as the first candidate at 41, speaker # 1 responds with "Yes" (step s4).
2) "1 o'clock" is determined, and the process enters a minute unit confirmation process (step s51).
【0101】しかし、ステップs41にて装置側から第
1位候補として、たとえば、「7時」が出力されたとす
れば、話者#1は「いいえ」と応答する(ステップs4
3)。これにより、装置側から、第2位候補が出力され
(ステップs44)、その第2位候補として、たとえ
ば、「8時」が出力されたとすると、それが正しけれ
ば、話者#1は「はい」と応答し(ステップs45)、
間違っていれば、「いいえ」と応答する(ステップs4
6)。However, if, for example, "7 o'clock" is output as the first candidate from the device side in step s41, speaker # 1 replies "no" (step s4).
3). Thereby, the second candidate is output from the device side (step s44). For example, assuming that "8:00" is output as the second candidate, if it is correct, the speaker # 1 determines "Yes". (Step s45),
If wrong, reply "No" (step s4
6).
【0102】ここでは、「いいえ」であるので、さら
に、装置側からは第3位候補として、たとえば、「1
時」が出力されたとする(ステップs47)。それが正
しければ、話者#1は「はい」と応答し(ステップs4
8)、間違っていれば、「いいえ」と応答する(ステッ
プs49)。ここでは、話者#1は「はい」と応答する
ので、その時点で「1時」が確定し、分の単位の確認処
理(ステップs51)に入る。Here, since it is “No”, the device side further selects “1” as a third candidate, for example, “1”.
Is output (step s47). If it is correct, the speaker # 1 answers "yes" (step s4).
8) If wrong, reply "No" (step s49). Here, since speaker # 1 responds with "yes", "1 o'clock" is determined at that time, and the process proceeds to the minute unit confirmation process (step s51).
【0103】また、もし、第3位候補でも、「いいえ」
であった場合には、装置側から話者#1に対して、たと
えば、「もう一度、何時か言ってください」というよう
に、再度、「時」の単位の音声入力を促すようにする
(ステップs50)。これによって、話者#1は再度、
時の単位の発話(この場合「1時」)を行い、ステップ
41に戻る。Also, if the third place candidate is “No”
In this case, the apparatus prompts the speaker # 1 to input a voice in the unit of "hour" again, for example, "Please say something again." s50). Thus, speaker # 1 again
The utterance of the unit of time (in this case, "1 o'clock") is performed, and the process returns to step 41.
【0104】なお、再度、「時」の単位について音声入
力を行ってそれを認識するとき、すでに、「いいえ」で
否定された単語(前述の場合、「7時」、「8時」な
ど)は、認識候補から外すようにする。When the speech is input again for the unit of "hour" and it is recognized, the word already denied by "no" (in the above case, "7 o'clock", "8 o'clock", etc.) Is to be excluded from recognition candidates.
【0105】また、「分」の単位についても「時」の単
位で説明したステップs31〜s50と同様の処理にて
行うことができる。そして、最終的に確定したら、装置
側からは「アラーム時刻を午前1時20分にセットしま
した」というような発話がなされる(ステップs3
5)。Also, the unit of "minute" can be performed by the same processing as steps s31 to s50 described in the unit of "hour". Then, when finally determined, the apparatus utters an utterance such as "alarm time set to 1:20 am" (step s3).
5).
【0106】このような処理は、アラーム設定だけでは
なく、現在時刻の設定も同様の処理で行える。Such processing can be performed not only for the alarm setting but also for the current time setting in the same manner.
【0107】なお、前述の処理のなかで第1候補が話者
によって否定された場合、装置側からは、第2候補、第
3候補、・・・というように認識候補順に発話するので
はなく、たとえば、「1時」が否定された場合には、
「2時」、「3時」、・・・というように認識候補順と
は無関係に時刻を表す数字の順番に従って発話すること
もできる。When the first candidate is denied by the speaker in the above-described processing, the apparatus does not utter the second candidate, the third candidate,... For example, if "1 o'clock" is denied,
.., "2 o'clock", "3 o'clock",...
【0108】このような処理を行うことにより、時刻設
定などを行う際、話者は「午前」、「何時」、「何分」
を1まとまりの音声として連続的に発話することがで
き、これにより、時刻設定のための音声入力操作が簡単
なものとなる。しかも、これらの一連の音声が正しく音
声認識されれば、その時点で時刻設定が終了し、もし、
間違っていた場合は、一つ一つの単語ごとに正否を確か
めながら、正しく認識されるまで、認識動作が行われる
ので、最終的には確実に正しい時刻の設定が行え、利便
性と確実性の両方を兼ね備えた時刻設定が行える。By performing such processing, when performing time setting or the like, the speaker can select “am”, “what time”, “what minute”.
Can be continuously uttered as a group of voices, thereby simplifying a voice input operation for time setting. Moreover, if these series of voices are correctly recognized, the time setting ends at that point,
If it is incorrect, the recognition operation will be performed until it is correctly recognized, while checking the correctness of each word, so that finally the correct time can be set, and convenience and certainty Time setting that combines both can be performed.
【0109】このような連続した単語を認識する処理
は、時刻だけではなく、複数の単語から構成されていて
それぞれの単語間にわずかな間をおいて連続的に発話さ
れるような音声を認識する場合に広く適用できる。The processing of recognizing such a continuous word is not limited to the time, but also recognizes a speech composed of a plurality of words and continuously uttered with a slight interval between the words. Widely applicable when you do.
【0110】図7は、複数の単語として第1番目〜第n
番目までのn個の単語から構成され、それぞれの単語間
にわずかな間をおいて連続的に発話されるような音声を
認識(ここでは連続単語認識という)する際の処理手順
を説明するフローチャートである。この図7に示す処理
手順について簡単に説明する。なお、ここでは、n個か
らなる連続単語として、3つの単語(第1番目の単語、
第2番目の単語、第3番目の単語という)から構成され
ているものとする。また、これら第1番目の単語、第2
番目の単語、第3番目の単語それぞれの認識を行う際、
認識候補は第m位までの認識候補を出力するが、ここで
は、mは1から3までの値をとるものとする。FIG. 7 shows the first to n-th words as a plurality of words.
Is a flowchart for explaining a processing procedure for recognizing a speech composed of n words up to the first word and continuously uttered with a slight interval between the words (herein referred to as continuous word recognition). It is. The processing procedure shown in FIG. 7 will be briefly described. Here, three words (the first word, the first word,
The second word and the third word). Also, these first words, second words
When recognizing the 3rd word and the 3rd word,
As the recognition candidates, m-th recognition candidates are output. Here, it is assumed that m takes a value from 1 to 3.
【0111】図7において、まず、話者の発話した複数
の単語からなる連続単語について認識を行う(ステップ
s61)。そして、認識結果を出力し(ステップs6
2)、その認識結果に対する話者からの「はい」または
「いいえ」の認識を行う(ステップs63)。ここで、
話者の応答が「はい」であれば(ステップs64)、そ
の認識結果を連続単語全体として確定し(ステップs6
5)、その時点で認識処理は終了する。In FIG. 7, first, recognition is performed on a continuous word composed of a plurality of words spoken by the speaker (step s61). Then, the recognition result is output (step s6).
2) The speaker recognizes "yes" or "no" for the recognition result (step s63). here,
If the response of the speaker is "Yes" (step s64), the recognition result is determined as the whole continuous word (step s6).
5) At that point, the recognition process ends.
【0112】一方、話者の応答が「いいえ」であれば、
第1番目の単語の認識処理に入る。この第1番目の単語
の認識処理は、まず、第m位候補(ここではm=1)を
出力し(ステップs66)、それに対する話者の「は
い」または「いいえ」を認識する(ステップs67)。
ここで、話者の応答が「はい」であれば(ステップs6
8)、その第1位候補を第1番目の単語として確定し
(ステップs69)、第2番目の単語についての処理に
入る(ステップs70)。On the other hand, if the response of the speaker is “No”,
The first word recognition process starts. In the recognition processing of the first word, first, an m-th candidate (here, m = 1) is output (step s66), and "yes" or "no" of the speaker corresponding thereto is recognized (step s67). ).
Here, if the response of the speaker is “yes” (step s6)
8), the first-place candidate is determined as the first word (step s69), and the process for the second word is started (step s70).
【0113】一方、話者の応答が「いいえ」であれば、
mが設定値(この場合は、設定値はm=3)であるか否
かを判断する(ステップs71)。ここでは、まだ、設
定値でないので、ステップs66に処理が戻り、今度
は、m=2として第2位の候補を出力する。On the other hand, if the response of the speaker is "no",
It is determined whether or not m is a set value (in this case, the set value is m = 3) (step s71). Here, since it is not the set value yet, the process returns to step s66, and the second candidate is output this time as m = 2.
【0114】そして、それに対する話者の「はい」また
は「いいえ」を認識する(ステップs67)。ここで、
話者の応答が「はい」であれば(ステップs68)、第
2位候補を第1番目の単語として確定し(ステップs6
9)、第2番目の単語についての処理に入る(ステップ
s70)。また、話者の応答が「いいえ」であれば、ス
テップs71の判断を行う。Then, "YES" or "NO" of the speaker corresponding thereto is recognized (step s67). here,
If the speaker's response is "yes" (step s68), the second candidate is determined as the first word (step s6).
9), the process for the second word is started (step s70). If the response from the speaker is "No", the determination in step s71 is performed.
【0115】このように、話者の応答が「はい」であれ
ばその時点における認識候補によって第1番目の単語が
確定されるが、話者の応答が「いいえ」であれば、次の
認識候補について同様の処理を行う。そして、この場
合、第3位の候補でも正しく認識されなかった場合は、
その第1番目の単語をもう一度発話してもらうように話
者に対して要求する(ステップs72)。そして、話者
が、再度、その第1番目の単語を発話した内容につい
て、同様の動作を繰り返す。As described above, if the response of the speaker is "Yes", the first word is determined by the recognition candidate at that time, but if the response of the speaker is "No", the next recognition is performed. A similar process is performed for the candidate. Then, in this case, if the third candidate is not correctly recognized,
It requests the speaker to speak the first word again (step s72). Then, the same operation is repeated for the content in which the speaker uttered the first word again.
【0116】なお、前述の図6の例で説明したように、
話者が再度、第1番目の単語を発話してその音声入力を
行い、それを認識するとき、すでに、「いいえ」で否定
された単語は、認識候補から外すようにする。As described in the example of FIG. 6 described above,
When the speaker utters the first word again and performs speech input thereof, and recognizes it, words that have already been denied “No” are excluded from recognition candidates.
【0117】このようにして、第1番目の単語について
の認識処理が終了すると、次は、第2番目の単語につい
ての認識処理(ステップs70)に入り、この第2番目
の単語についての認識処理が終了すると、次は、第3番
目の単語についての認識処理(ステップs73)に入
る。なお、これら、第2番目と第3番目の単語について
の認識処理は、第1番目の単語の認識処理と同様である
ので、その説明は省略する。When the recognition process for the first word is completed in this way, the process then proceeds to the recognition process for the second word (step s70), where the recognition process for the second word is performed. Is completed, the process enters a recognition process for the third word (step s73). Note that the recognition processing for the second and third words is the same as the recognition processing for the first word, and a description thereof will be omitted.
【0118】ところで、以上のような音声入力操作を行
う際、話者と装置側の音声入力部(マイクロホン)との
距離は、認識性能という面から考えると重要な要素とな
る。そこで、この実施の形態では、話者の音声入力操作
の状況に応じて、音声入力部の音声入力ゲイン、つま
り、マイクアンプ2の音声入力ゲインを切り替える制御
を行う。この制御は、前述した各種処理の制御とともに
制御部5で行う。以下、これについて説明する。When performing the above-described voice input operation, the distance between the speaker and the voice input unit (microphone) on the device side is an important factor from the viewpoint of recognition performance. Therefore, in this embodiment, control is performed to switch the voice input gain of the voice input unit, that is, the voice input gain of the microphone amplifier 2, according to the status of the voice input operation of the speaker. This control is performed by the control unit 5 together with the control of the various processes described above. Hereinafter, this will be described.
【0119】このマイクアンプ2の音声入力ゲイン(以
下では、単にゲインという)制御は、音声入力を行う場
面がどのような場面であるかを判断して、その場面に応
じてゲインを大きくしたり小さくしたりする制御であ
る。The control of the audio input gain (hereinafter simply referred to as gain) of the microphone amplifier 2 is performed by judging what kind of scene the sound input is to be performed, and increasing the gain according to the scene. This is control to make it smaller.
【0120】たとえば、装置が動作をなす上で特に高い
認識率を要求される音声が入力される場面か、それ以外
の音声の入力される場面かを判断して、装置が動作をな
す上で特に高い認識率を要求される音声が入力される場
面である場合には、それ以外の音声が入力される場面に
比べて、音声入力ゲインを小さくするというような制御
を行う。For example, it is determined whether a scene requiring a particularly high recognition rate is input when the apparatus operates, or a scene other than that is input. In particular, in the case where a voice requiring a high recognition rate is input, control is performed such that the voice input gain is reduced as compared with the case where other voices are input.
【0121】具体的には、音声の特徴量が複数の単語間
で相互に類似していて誤認識されやすい単語に対する音
声が入力される場面、単語登録を行う場面、話者学習を
行う場面などが考えられ、このような場面では、音声入
力ゲインを小さくするような制御を行う。More specifically, a scene in which a speech is input for a word whose speech feature amount is similar to a plurality of words and is likely to be erroneously recognized, a case where word registration is performed, a case where speaker learning is performed, and the like. In such a situation, control is performed to reduce the voice input gain.
【0122】誤認識されやすい単語に対する音声が入力
される場面というのは、この装置の場合、アラーム時刻
や現在時刻の設定時において、時刻入力(午前、何時、
何分)を行う場面が考えられる。このような時刻設定
は、たとえば、「1時」と「7時」などのように、音声
の特徴量が類似していて誤認識され易い音声が多く、し
かも、時刻設定は正確になされることが要求される。In the case of this apparatus, a voice input for a word that is likely to be erroneously recognized is made by inputting a time (am, what time,
Minutes). For such time setting, for example, there are many voices such as "1 o'clock" and "7 o'clock" which have similar feature amounts of voice and are easily erroneously recognized, and the time is set accurately. Is required.
【0123】したがって、このような音声入力を行う際
は、マイクアンプ2のゲインを小さくして、話者にマイ
クに近づいて発話してもらう。Therefore, when performing such a voice input, the gain of the microphone amplifier 2 is reduced, and the speaker approaches the microphone and speaks.
【0124】一方、装置に対して呼びかけを行ったりす
る場面では、ゲインを大きくして、話者が装置から離れ
たところから音声の入力を可能とする。これは、装置に
対して少し距離を置いた状態で、装置との会話を行うよ
うな場合に便利なものとするためである。On the other hand, in a situation where a call is made to the device, the gain is increased so that a voice can be input from a position far away from the device. This is to make it convenient when a conversation with the device is performed at a distance from the device.
【0125】このゲインを大きくする場面は、たとえ
ば、「おはよう」、「ただいま」、「おやすみ」、「何
時」、「アラーム」といった登録されている単語(単語
セットw1に属する単語)などを入力するような場面で
あり、このような場面において入力されるこの種の単語
は、前述の時刻情報(単語セットw2やw1)に比べる
と、同じ単語セットw1に属する他の単語間で誤認識さ
れにくく、認識対象単語数も、この場合、数単語である
ためそれほど多くはない。また、装置に対して気軽に呼
びかけるような内容であることから、ゲインを高くして
装置から離れた位置からでも入力できる法が好ましいも
のとなる。In the scene where the gain is increased, for example, registered words (words belonging to the word set w1) such as “good morning”, “now”, “good night”, “what time”, and “alarm” are input. Such a scene, and such a word input in such a scene is less likely to be erroneously recognized among other words belonging to the same word set w1 as compared with the above-described time information (word set w2 or w1). In this case, the number of words to be recognized is not so large because it is only a few words. In addition, since the content is such that the device can be easily called, it is preferable to use a method in which the gain can be increased and the input can be performed even from a position away from the device.
【0126】このように、どのような単語が入力される
場面であるかによって、それに適した音声入力ゲインを
設定する。As described above, an appropriate speech input gain is set depending on what kind of word is inputted.
【0127】前述したように、誤認識されやすい単語に
対する音声が入力される場面、単語登録を行う場面、話
者学習を行う場面などでは、マイクアンプ2のゲインを
小さくし、話者にマイクロホン1の近くで発話させるこ
とによって、話者の口元とマイクロホン1の距離は、話
者によってあまり大きくは変化しないで、ほぼ同じよう
な距離となることが多い。これにより、S/N比がよく
なるとともに、ダイナミックレンジが小さくなり、この
状況での発話内容は高い認識率で認識される。As described above, the gain of the microphone amplifier 2 is reduced in a case where a voice is input for a word that is easily misrecognized, a case where a word is registered, or a case where speaker learning is performed. , The distance between the mouth of the speaker and the microphone 1 does not change much depending on the speaker, and is almost the same in many cases. As a result, the S / N ratio is improved and the dynamic range is reduced, and the utterance content in this situation is recognized with a high recognition rate.
【0128】このように、音声入力を行うときの状況に
よって、マイクアンプ2のゲインを制御し、それに応じ
た音声入力を行うようにするために、装置側から何らか
の通知を行う。その通知内容としては、たとえば、「も
う少しマイクロホンに近づいて話して下さい」とか「も
う少し大きな声で話して下さい」、あるいは、「もう少
し小さな声で話して下さい」といった内容であり、これ
らの内容を装置側から出力するようにする。As described above, in order to control the gain of the microphone amplifier 2 and perform the voice input according to the situation when the voice input is performed, some notification is given from the device side. The notification may be, for example, "speak closer to the microphone", "speak a little louder", or "speak a little lower". Output from the side.
【0129】制御部5は、現在の音声入力がどのような
状況での音声入力であるか(たとえば、話者が単に装置
に呼びかけを行っているのか、登録単語を入力している
のか、時刻設定を行っているのかなど)を把握すること
ができるので、それに応じて、マイクアンプ2のゲイン
を切り替え制御するとともに、話者に対してマイクアン
プ2のゲインに応じた発話を行わせるような内容を出力
することが可能となる。The control unit 5 determines in what situation the current voice input is a voice input (for example, whether the speaker is simply calling the device, whether the registered word is being input, or the time). Setting, etc.) can be grasped, so that the gain of the microphone amplifier 2 is switched and controlled accordingly, and the speaker can speak in accordance with the gain of the microphone amplifier 2. The contents can be output.
【0130】たとえば、誤認識されやすい単語に対する
音声が入力される場面、単語登録を行う場面、話者学習
を行う場面などでは、マイクアンプ2のゲインを小さく
するとともに、装置側から、「もう少しマイクロホンに
近づいて話して下さい」といった内容を出力する。これ
により、話者は自然にマイクロホンに近づいて発話する
ようになり、これによってS/N比が良くなるととも
に、ダイナミックレンジが小さくなるので、認識性能を
高めることができる。For example, in a case where a speech for a word that is likely to be misrecognized is input, a case where a word is registered, a case where speaker learning is performed, etc., the gain of the microphone amplifier 2 is reduced, and the apparatus side outputs “a little more microphone”. Please talk closer to "." As a result, the speaker naturally comes closer to the microphone and speaks, thereby improving the S / N ratio and reducing the dynamic range, thereby improving the recognition performance.
【0131】図8は以上説明した話者の音声入力操作の
状況に応じてマイクアンプ2のゲインを切り替える制御
を行う例を説明するフローチャートであり、ここでは、
前述の図4の処理を行う際にゲインを切り替える例につ
いて説明する。FIG. 8 is a flowchart for explaining an example in which the control for switching the gain of the microphone amplifier 2 is performed in accordance with the situation of the above-described speaker's voice input operation.
An example in which the gain is switched when performing the processing of FIG. 4 will be described.
【0132】図8において、認識モードであるか登録モ
ードであるかの判定を行う(ステップs81)。この判
定において、登録モードである場合、マイクアンプ2の
ゲインを小さくするようにゲイン切り替えを行い(ステ
ップs82)、切り替えられたゲインによって音声入力
を行う(ステップs83)。この音声入力を行うステッ
プs83から話者学習処理までのステップs89は、図
4の音声入力を行うステップs12から話者学習処理ま
でのステップs18と同じであるので、ここではその説
明は省略する。In FIG. 8, it is determined whether the mode is the recognition mode or the registration mode (step s81). In this determination, if the mode is the registration mode, gain switching is performed so as to reduce the gain of the microphone amplifier 2 (step s82), and voice input is performed using the switched gain (step s83). Step s89 from the voice inputting step s83 to the speaker learning processing is the same as step s18 from the voice inputting step s12 to the speaker learning processing in FIG. 4, so that the description is omitted here.
【0133】一方、認識モードである場合には、場面に
応じてマイクアンプ2のゲインを切り替える。その切り
替えは、音声入力を行う場面がゲインを大きくする場面
であるか否かを判定し(ステップs90)、ゲインを大
きくする場面であれば、マイクアンプ2のゲインを大き
くするようにゲイン切り替えを行い(ステップs9
1)、ゲインを小さくする場面であれば、マイクアンプ
2のゲインを小さくするようにゲイン切り替えを行う
(ステップs92)。On the other hand, when the recognition mode is set, the gain of the microphone amplifier 2 is switched according to the scene. For the switching, it is determined whether or not the scene in which the voice input is performed is a scene in which the gain is increased (step s90). If the gain is to be increased, the gain is switched so that the gain of the microphone amplifier 2 is increased. (Step s9
1) When the gain is to be reduced, the gain is switched so that the gain of the microphone amplifier 2 is reduced (step s92).
【0134】なお、ステップs90におけるゲインを大
きくする場面というのは、前述したように、呼びかけを
行うような音声入力を行う場面であり、これに対して、
ゲインを小さくする場面というのは、登録単語を入力す
る際や、アラーム時刻や現在時刻の設定時において、時
刻入力(午前、何時、何分)を行うような誤認識される
可能性が高かったり、特に高い認識率を得ようとする場
合などである。Note that the scene where the gain is increased in step s90 is a scene where a voice input for making a call is made, as described above.
When the gain is reduced, there is a high possibility that a mistake is made when entering a registered word or when setting an alarm time or current time, such as when entering a time (am, what time, how many minutes). , Especially when trying to obtain a high recognition rate.
【0135】そして、このように、そのときの場面に応
じてゲインの設定を行って音声入力を行う(ステップs
93)。この音声入力(ステップs93)から所定の処
理(ステップs101)までは、図4の音声入力(ステ
ップs19)から所定の処理(ステップ27)までと同
じであるので、ここではその説明は省略する。As described above, the voice is input by setting the gain according to the scene at that time (step s).
93). The process from the voice input (step s93) to the predetermined process (step s101) is the same as the process from the voice input (step s19) to the predetermined process (step 27) in FIG. 4, and a description thereof will be omitted.
【0136】また、このような音声によるコマンドを装
置が受け付けて、そのコマンドに応じた動作を行うもの
にあって、個々の話者の声質や話し方の特徴によって良
好に認識される話者と認識率が低い話者が存在すること
が多い。The apparatus receives such a command by voice and performs an operation in accordance with the command. The speaker is recognized as a speaker which is well recognized by the voice quality and the characteristics of the way of speaking. There are often speakers with low rates.
【0137】このように、特に認識率の悪い話者のため
に、装置側からは質問形式の発話内容を出力し、話者は
それを聞いて、肯定する場合は肯定を意味するボタンを
操作し、否定する場合は否定を意味するボタンを操作す
ることにより、「はい」または「いいえ」を認識させる
のと同等の動作を行うことを可能とする。As described above, especially for a speaker having a low recognition rate, the apparatus outputs the utterance content in the form of a question, and the speaker listens to the utterance content. In the case of denial, by operating a button that means negative, it is possible to perform an operation equivalent to recognizing “yes” or “no”.
【0138】すなわち、話者が装置に対して設定したい
情報(設定情報という)に対し、装置側から質問形式で
その設定情報としての候補を1つ1つ順番に出力し、1
つの候補が出力される都度、出力された候補について肯
定を意味するボタンまたは否定を意味するボタンのいず
れかのボタン入力を受け付け、肯定を意味するボタン入
力を受け付けたときは、当該候補を前記設定情報として
確定し、否定を意味するボタン入力を受け付けたとき
は、次の候補を出力する。That is, for the information that the speaker wants to set for the device (called setting information), the device side sequentially outputs candidates as setting information in the form of a question, one by one.
Whenever one of the candidates is output, a button input of either a button indicating affirmation or a button indicating negation is received for the output candidate, and when the button input indicating affirmation is received, the candidate is set to the above-described setting. When the information is determined and a button input meaning negative is received, the next candidate is output.
【0139】このボタン操作による肯定または否定の入
力を可能とするのは、認識率の悪い話者に対しての助け
とするためであり、これをここではヘルプモードとい
う。以下、このヘルプモードについて説明する。The reason why the affirmative or negative input can be performed by the button operation is to assist a speaker with a poor recognition rate, and is referred to as a help mode here. Hereinafter, the help mode will be described.
【0140】装置側の操作部11には、肯定を意味する
肯定ボタンBT21と否定を意味する否定ボタンBT2
2を設ける。つまり、話者によって肯定ボタンBT21
が押されると、制御部5では肯定であると判断し、否定
ボタンBT22が押されると制御部5では否定であると
判断する。An affirmation button BT21 meaning affirmation and a negation button BT2 meaning negation are provided on the operation unit 11 of the apparatus.
2 is provided. That is, the affirmation button BT21 depends on the speaker.
Is pressed, the control unit 5 determines that the answer is affirmative, and when the negative button BT22 is pressed, the control unit 5 determines that the answer is negative.
【0141】そして、ヘルプモードとするには、これま
で説明してきた通常の認識モードにおいて、たとえば、
肯定ボタンBT21と否定ボタンBT22が同時に数秒
(2秒程度)以上押されることにより、制御部5がそれ
を検出してヘルプモードの設定がなされたと判定し、ヘ
ルプモードへの移行を行う。なお、このヘルプモードへ
の移行は、肯定ボタンBT21と否定ボタンBT22が
同時に数秒以上押されるという条件に限られるものでは
なく、他の方法でもよい。To set the help mode, in the ordinary recognition mode described so far, for example,
When the affirmation button BT21 and the negation button BT22 are pressed simultaneously for several seconds (about 2 seconds) or more, the control unit 5 detects this and determines that the help mode has been set, and shifts to the help mode. Note that the transition to the help mode is not limited to the condition that the affirmation button BT21 and the negation button BT22 are simultaneously pressed for several seconds or more, but may be another method.
【0142】このようにして、ヘルプモードに入ると、
装置側では音声認識動作は行わず、話者によって、肯定
ボタンBT21か否定ボタンBT22のいずれかが押さ
れたことを検知して、それに応じて処理を進行して行
く。Thus, when the help mode is entered,
The apparatus does not perform the voice recognition operation, detects that the speaker has pressed either the affirmation button BT21 or the denial button BT22, and proceeds with the processing accordingly.
【0143】図9はこのヘルプモードを備えた場合の認
識処理を説明するフローチャートである。図9におい
て、M1は通常の認識モード時における処理手順、M2
はヘルプモード時における処理手順であり、通常の認識
モードM1からヘルプモードM2への移行は肯定ボタン
BT21と否定ボタンBT22が同時に数秒(2秒程
度)以上押されるボタン割り込み(ステップs110)
によって移行する。なお、この図9に示される通常の認
識モードM1における音声入力(ステップs121)か
ら所定の処理(ステップs127)まで処理は、図2で
示したステップs1〜s7までの処理と同様であるので
ここではその説明は省略する。FIG. 9 is a flowchart for explaining the recognition processing when the help mode is provided. In FIG. 9, M1 is a processing procedure in a normal recognition mode, and M2 is a processing procedure.
Is a processing procedure in the help mode. The transition from the normal recognition mode M1 to the help mode M2 is a button interruption in which the positive button BT21 and the negative button BT22 are simultaneously pressed for several seconds (about two seconds) or more (step s110).
Transition by The processing from the voice input (step s121) to the predetermined processing (step s127) in the normal recognition mode M1 shown in FIG. 9 is the same as the processing from steps s1 to s7 shown in FIG. Then, the description is omitted.
【0144】今、通常の認識モードにより認識を行って
いるとし、この通常の認識モードにおいて、肯定ボタン
BT21と否定ボタンBT22による割り込みが発生し
たとする(ステップs110)。Now, it is assumed that recognition is being performed in the normal recognition mode, and an interrupt by the affirmation button BT21 and the denial button BT22 has occurred in this normal recognition mode (step s110).
【0145】これにより、ヘルプモードの設定がなされ
たか否かを判断し(ステップs111)、ヘルプモード
の設定であれば、ヘルプモードであることを話者に通知
する(ステップs112)。なお、ステップs112に
よるヘルプモードの設定か否かは、ここでは、肯定ボタ
ンBT21と否定ボタンBT22が同時に数秒(2秒程
度)以上押されたか否かによって判断する。Thus, it is determined whether or not the help mode has been set (step s111). If the help mode has been set, the speaker is notified of the help mode (step s112). Whether or not the help mode is set in step s112 is determined here based on whether or not the affirmation button BT21 and the denial button BT22 are simultaneously pressed for several seconds (about two seconds).
【0146】このようにして、ヘルプモードM2への移
行がなされると、肯定ボタンBT21または否定ボタン
BT22の入力待ち状態となり(ステップs113)、
肯定ボタンBT21または否定ボタンBT22のいずれ
かが押されたか否かを判断し(ステップs114)、押
されたボタンが肯定ボタンBT21または否定ボタンB
T22のいずれかであるか、あるいは、押された状態が
どの程度継続しているかなどの判断を行い(ステップs
115)、それに対する所定の処理を行う(ステップs
116)。When the mode is shifted to the help mode M2 in this manner, the input button BT21 or the negative button BT22 is in a state of waiting for input (step s113).
It is determined whether either the affirmation button BT21 or the denial button BT22 has been pressed (step s114), and the pressed button is determined to be the affirmation button BT21 or the denial button B
It is determined whether the current state is any of T22 or how long the pressed state is continued (step s).
115), and perform a predetermined process for the process (step s).
116).
【0147】たとえば、話者が装置に対して設定したい
情報としての候補を、それでよいかどうかを話者に問い
かける質問形式で装置側から1つ1つ出力し、1つの候
補が出力される都度、出力された候補について肯定ボタ
ンBT21または否定ボタンBT22のいずれかのボタ
ン入力を受け付け、肯定ボタンBT21の入力を受け付
けたときは、当該候補を前記設定情報として確定し、否
定ボタンBT22の入力を受け付けたときは、次の候補
を出力する。なお、この具体的な処理内容についてはの
ちに説明する。For example, each candidate is output from the device side in the form of a question for asking the speaker whether the speaker wants information to be set for the device, and each time one candidate is output. When the button input of either the affirmation button BT21 or the denial button BT22 is received for the output candidate, and when the input of the affirmation button BT21 is received, the candidate is determined as the setting information, and the input of the denial button BT22 is received. , The next candidate is output. The specific processing content will be described later.
【0148】そして、ヘルプモードが終了かどうかを判
断し(ステップs117)、終了していなければステッ
プs113に戻り、終了していれば、通常の認識モード
M1に戻る。Then, it is determined whether or not the help mode is completed (step s117). If not completed, the process returns to step s113. If completed, the process returns to the normal recognition mode M1.
【0149】以下に具体的な操作例について図10の状
態遷移図を参照しながら説明する。なお、図10におい
て、括弧内の操作は話者の行う操作である。A specific operation example will be described below with reference to the state transition diagram of FIG. In FIG. 10, the operations in parentheses are operations performed by the speaker.
【0150】装置側からは、まず、「ヘルプモードとな
りました」というように、ヘルプモードとなったことを
話者に知らせる(ステップs131)。つづいて、装置
側からは、「現在時刻の設定ですか」というように、話
者が装置に対して設定したい情報を発話する(ステップ
s132)。この発話内容を話者が肯定する場合は、肯
定ボタンBT21を押し(ステップs133)、それに
よって、現在時刻設定モードに入る(ステップs13
4)。The apparatus first notifies the speaker that the help mode has been entered, such as "Help mode has been entered" (step s131). Next, the speaker utters information that the speaker wants to set for the device, such as "Is the current time set?" (Step s132). When the speaker affirms the utterance content, the affirmation button BT21 is pressed (step s133), whereby the current time setting mode is entered (step s13).
4).
【0151】また、現在時刻設定でなければ、否定ボタ
ンBT22を押す(ステップs135)。これにより、
装置側からは、「アラーム時刻の設定ですか」というよ
うな内容を発話する(ステップs136)。この発話内
容を話者が肯定する場合は、肯定ボタンBT21を押し
(ステップs137)、それによって、アラーム時刻設
定モードに入る(ステップs138)。また、アラーム
時刻設定でなければ、否定ボタンBT22を押す(ステ
ップs139)。If the current time is not set, the negative button BT22 is pressed (step s135). This allows
The device utters a content such as "Is alarm time set?" (Step s136). When the speaker affirms the utterance content, the affirmative button BT21 is pressed (step s137), whereby the alarm time setting mode is entered (step s138). If the alarm time has not been set, the negation button BT22 is pressed (step s139).
【0152】このように、装置側からの1つ1つの質問
について、話者は「はい」または「いいえ」と応答する
代わりに、肯定ボタンBT21または否定ボタンBT2
2を押す。これにより、装置側では、そのボタン操作に
応じて処理を進めて行く。質問内容は、以上の2つだけ
ではなく、その他にも、たとえば、「登録単語入力を行
いますか」などがあるが、この図10ではこれらの処理
についての図示は省略されている。As described above, for each question from the device side, instead of responding “yes” or “no”, the speaker does not respond to the affirmation button BT21 or the denial button BT2.
Press 2. Thus, the device proceeds with the process according to the button operation. The contents of the question are not only the above two, but also, for example, "Do you want to input a registered word?", But these processes are not shown in FIG.
【0153】また、肯定ボタンBT21と否定ボタンB
T22を誤って操作したときは、肯定ボタンBT21と
否定ボタンBT22を瞬間的に同時操作することによっ
て、1つ前の質問に戻れるようにする。The affirmation button BT21 and the denial button B
When T22 is operated by mistake, the affirmation button BT21 and the negation button BT22 are simultaneously operated so that the user can return to the previous question.
【0154】前述した現在時刻設定モード(ステップs
134)について簡単に説明する。肯定ボタンBT21
または否定ボタンBT22を用いての現在時刻設定は、
まず、装置側から、「午前」か否かを質問する。これに
対して、話者が肯定ボタンBT21を押せば午前が確定
し、否定ボタンBT22を押せば「午後」が確定する。The current time setting mode (step s
134) will be briefly described. Affirmation button BT21
Or the current time setting using the negative button BT22 is
First, the device asks whether it is "morning". On the other hand, when the speaker presses the affirmation button BT21, the morning is determined, and when the negation button BT22 is pressed, “afternoon” is determined.
【0155】午前または午後が確定した後は、装置側か
らは、まず、「1時ですか」と質問し、話者の設定した
い時刻の時間の単位が「1時」であれば、肯定ボタンB
T21を押し、これにより、1時が確定する。また、1
時でなければ否定ボタンBT22を押す。これにより、
装置側から「2時ですか」と質問し、話者の設定したい
時刻の時間の単位が「2時」であれば、肯定ボタンBT
21を押し、これにより、2時が確定する。また、2時
でなければ否定ボタンBT22を押す。After the morning or afternoon is determined, the apparatus first asks "Is it one o'clock?". If the time unit of the time that the speaker wants to set is "1:00", the affirmation button is pressed. B
Press T21, thereby confirming 1:00. Also, 1
If not, press the negative button BT22. This allows
The device asks “2 o'clock?”, And if the time unit of the time that the speaker wants to set is “2 o'clock”, the affirmation button BT
Press 21 to confirm 2 o'clock. If it is not 2 o'clock, the negative button BT22 is pressed.
【0156】このような手順は時間の単位が確定するま
で行われる。そして、時間の単位が確定すると、次に、
分の単位の処理に入る。Such a procedure is performed until the time unit is determined. Then, once the time unit is determined,
Start processing in minutes.
【0157】分の単位の動作も基本的には、前述した時
の単位の動作と同じであるのでここではその説明は省略
する。ただし、分の単位は、1分から始まって1分刻み
に59分まですべて発話するのは操作が面倒であるし、
多くの時間がかかる。特に、話者の設定したい分単位に
時刻が分台の終わりの方(たとえば、59分)である
と、多くの時間がかかる。The operation in the unit of minute is basically the same as the operation in the unit described above, and the description thereof is omitted here. However, as for the unit of minute, it is troublesome to operate all of the minutes starting from 1 minute up to 59 minutes every minute.
It will take a long time. In particular, if the time is toward the end of the minute unit (for example, 59 minutes) in the minute unit desired by the speaker, much time is required.
【0158】そこで、分の単位の設定モード時おいて
は、否定ボタンBT22が押され続けた場合には、装置
側からは、たとえば、「10分」、(1秒おいて)、
「20分」、(1秒おいて)、「30分」、・・・とい
うように、1秒ごとに、10分単位で音声出力し、装置
側から「50分」と発話したところで、話者が否定ボタ
ンBT22の操作をやめると50分を基点に、通常の動
作に戻り、装置側が「51分」と発話すると、否定ボタ
ンBT22を押して、次に「52分」と発話すると、否
定ボタンBT22を押すという動作を行って、「59
分」で肯定ボタンBT21を押して、59分を設定する
というような設定方法としてもよい。Therefore, in the setting mode in units of minutes, if the negative button BT22 is kept pressed, the apparatus will send, for example, "10 minutes", (after one second),
"20 minutes", (after 1 second), "30 minutes", etc., voice is output every 10 seconds in units of 1 minute, and "50 minutes" is spoken from the device side. When the user stops operating the negation button BT22, the operation returns to the normal operation based on 50 minutes. When the device utters "51 minutes", the user presses the negation button BT22 and then utters "52 minutes". By performing the operation of pressing the BT22, “59”
The setting method may be such that the affirmation button BT21 is pressed with "minute" to set 59 minutes.
【0159】以上のように、時刻設定は、設定に多くの
時間を要する場合もあり、少しでも設定に要する時間を
短縮するために、装置側から音声の出力中にも肯定ボタ
ンBT21、否定ボタンBT22の入力を受け付けるよ
うにする。その他、使い勝手をよくするために、肯定ボ
タンBT21、否定ボタンBT22の押し方(連続押
し、同時押しなど)でそれに対応した機能をなすような
設定としておき、装置側から、音声による使い方の説明
などを行うようにすることもできる。As described above, the time setting may take a long time in some cases. In order to shorten the time required for the setting even a little, the affirmation button BT21 and the negation button BT21 are output during the sound output from the apparatus side. The input of the BT 22 is received. In addition, in order to improve the usability, the setting is made so that the function corresponding to the pressing method of the affirmation button BT21 and the denial button BT22 (continuous pressing, simultaneous pressing, etc.) is performed, and a description of how to use the sound from the device side. Can be performed.
【0160】このように、話者が装置に対して設定した
い情報(設定情報)を発話したときその設定情報が装置
側で正しく認識されない場合には、ヘルプモードの設定
を可能とすることによって、装置側から質問形式で前記
設定情報としての候補を1つ1つ順番に出力し、1つの
候補が出力される都度、肯定ボタンBT21の入力を受
け付けたときは、当該候補を前記設定情報として確定
し、否定ボタンBT22の入力を受け付けたときは、次
の候補を出力することで、話者が装置に対して設定した
い情報をボタン操作で設定することができる。As described above, when the speaker utters the information (setting information) to be set to the apparatus and the setting information is not correctly recognized on the apparatus side, the help mode can be set. The candidates as the setting information are sequentially output one by one from the device side in the form of a question. When an input of the affirmation button BT21 is received each time one candidate is output, the candidate is determined as the setting information. However, when the input of the negative button BT22 is received, the next candidate is output, so that the information that the speaker wants to set for the device can be set by button operation.
【0161】これにより、個々の話者の声質や話し方の
特徴によって良好に認識されない場合でも、時刻設定な
どある程度の情報設定は十分可能となる。また、話すこ
とが不自由な人でも時刻設定などを容易に行うことがで
きる。As a result, even if the voice is not well recognized due to the voice quality or the way of speaking of each speaker, it is possible to set some information such as time setting sufficiently. Further, even a person who has difficulty speaking can easily set the time and the like.
【0162】ところで、これまで説明したこの実施の形
態における音声時計装置は、現在時刻が話者の設定した
アラーム時刻になったとき、話者が鳴り止めを行うま
で、装置側からは現在時刻を出力し続けるようにする。
たとえば、設定されたアラームが、午前1時20分であ
るとし、その時刻に到達すると、装置側からは、「午前
1時20分です」と発話し、その1分経過後に、「午前
1時21分です」と発話し、さらに、1分経過後に、
「午前1時22分です」というように、1分刻みで現在
時刻を発話する。これを話者が鳴り止め操作を行うまで
続ける。なお、1分刻みでなくてもよく、たとえば10
秒ごとに現在時刻を発話するようにしてもよい。By the way, in the audio clock device according to this embodiment described above, when the current time reaches the alarm time set by the speaker, the current time is transmitted from the device until the speaker stops ringing. Keep output.
For example, suppose that the set alarm is at 1:20 am, and when the time reaches that time, the device utters “1:20 am”, and after one minute, “1 am” 21 minutes. "
The current time is spoken in one minute intervals, such as "1:22 am." This is continued until the speaker performs the silencing operation. In addition, it is not necessary to be in 1 minute increments.
The current time may be spoken every second.
【0163】さらに、このアラームを発するとき、時刻
だけではなく「早くおきなさい」といった言葉や、言葉
と音楽を合成して出力することも可能である。Further, when this alarm is issued, it is possible to output not only the time but also a word such as "Please go early" or a combination of the word and music.
【0164】また、話者からの鳴り止め操作としては、
装置から前述したような時刻の発話があったあと、話者
が何らかの音声を発することにより行う方法や、ボタン
を操作する方法などがある。[0164] Also, as a sound stop operation from the speaker,
There is a method in which the speaker utters some sound after the utterance at the time as described above from the device, a method in which a button is operated, and the like.
【0165】話者が何らかの音声を発することにより鳴
り止めさせるには、話者の入力した音声のレベルが一定
以上あり、しかも、その一定以上のレベルが一定の長さ
の場合に鳴り止めとする。なお、このときは、音声認識
は行わない。また、これとは別に、話者が予め決めたあ
る特定の単語を発話し、それを装置側で認識した場合に
のみ鳴り止めとするということもできる。また、音声を
入力する代わりにボタン操作で鳴り止めを行う際は、専
用のボタンを設けることも可能であるが、前述した肯定
ボタンBT21や否定ボタンBT22で代用することも
できる。In order for the speaker to stop the sound by emitting some sound, the sound is stopped when the level of the sound input by the speaker is equal to or higher than a certain level and the level equal to or higher than the certain level is a certain length. . In this case, no voice recognition is performed. Alternatively, it is also possible that the speaker speaks a specific word determined in advance and stops the sound only when the device recognizes it. Further, when the sound is stopped by a button operation instead of inputting a voice, a dedicated button can be provided, but the above-described positive button BT21 and negative button BT22 can be used instead.
【0166】さらに、音量調節スイッチVSWが設けら
れている場合には、その音量調節スイッチVSWをオフ
とすることによって鳴り止めとすることもできる。Further, when a volume control switch VSW is provided, the sound can be stopped by turning off the volume control switch VSW.
【0167】この音量調節スイッチVSWは、装置側か
らの出力音声の音量を調整するスイッチであり、操作部
11によってこの音量調節スイッチVSWを調節するこ
とにより音声出力用アンプ7が制御され、出力音声の大
きさを設定できる。この音量調節の具体例としては、た
とえば、出力音声を「大」、「中」、「小」というよう
に切替設定することが可能であり、さらに、音声の全く
出ない状態とする「オフ」とすることもできるようにな
っている。The volume adjustment switch VSW is a switch for adjusting the volume of the output audio from the apparatus side. The audio output amplifier 7 is controlled by adjusting the volume adjustment switch VSW by the operation unit 11, and the output audio is output. Size can be set. As a specific example of the volume adjustment, for example, the output sound can be switched and set to “loud”, “medium”, “small”, and furthermore, “off” to make no sound output. You can also be.
【0168】このような音声認識機能を有した装置を家
庭内で使用する場合、テレビジョンから発せられる音
声、家庭内の人間の会話などにより、音声時計がいちい
ち反応して、不用意に音声を発するのを防止する役目を
果たしている。なお、音量調節スイッチVSWをオフし
た場合、消費電力を少なくするために、アンプなど周辺
回路への電源供給を停止して、制御部(CPU)5をス
リープ状態とする。そして、音量調節スイッチVSWが
オンとなると、CPU割り込みでCPUを動作させ、周
辺回路への電力供給を行う。When the device having such a voice recognition function is used in a home, the voice clock reacts one by one due to voices emitted from a television, conversation between humans in the home, and the like, and the voice is carelessly output. It plays a role in preventing emission. When the volume control switch VSW is turned off, in order to reduce power consumption, power supply to peripheral circuits such as an amplifier is stopped, and the control unit (CPU) 5 is put into a sleep state. Then, when the volume control switch VSW is turned on, the CPU is operated by a CPU interrupt to supply power to peripheral circuits.
【0169】さらに、本発明の実施の形態では、話者の
入力する音声に対する応答内容は、複数用意し、それを
ランダムに変えて出力することも可能としている。これ
は、ユーザを飽きさせないための配慮であり、たとえ
ば、、話者が「おはよう」と入力したときの装置側から
の応答内容を複数用意しておき、「おはよう」に対する
複数の応答内容のなかからランダムに応答内容を選択し
て出力するようにする。Further, in the embodiment of the present invention, a plurality of response contents to the voice input by the speaker are prepared, and the response contents can be changed at random and output. This is to prevent the user from getting bored. For example, a plurality of response contents from the device side when the speaker inputs "good morning" are prepared, and among the plurality of response contents to "good morning", Randomly select and output the response content.
【0170】これにより、ユーザはその装置を長期間使
用していても飽きることが少なくなる。As a result, the user is less tired of using the apparatus for a long time.
【0171】なお、本発明は以上説明した実施の形態に
限定されるものではなく、本発明の要旨を逸脱しない範
囲で種々変形実施可能となるものである。たとえば、前
述の実施の形態で示した音声時計は、前述の実施の形態
で説明したような様々な機能を有したものとすることも
勿論可能であるが、これらの機能は、すべて必要なもの
ではない。したがって、操作部11に設けられる各種の
スイッチや操作用のボタンなども、その機能を働かせる
に必要なボタンのみを設ければよい。The present invention is not limited to the embodiments described above, but can be variously modified without departing from the gist of the present invention. For example, the audio timepiece described in the above-described embodiment may have various functions as described in the above-described embodiment, but all of these functions are necessary. is not. Therefore, various switches and operation buttons provided on the operation unit 11 need only be provided with buttons necessary for operating their functions.
【0172】また、前述の実施の形態で説明した各種処
理内容は、実施の形態で説明された内容に限られるもの
ではない。たとえば、話者学習処理としては、前述の実
施の形態では、ユニバーサルコードブック94を用いて
量子化コードブックVQ1,VQ2,VQ3を作成し、
認識時にはこの量子化コードブックを用いて話者適応す
るようにしたが、これに限らず、登録単語データRD
1,RD2,RD3と第1〜第3の特定話者群者音声モ
デルデータMD1,MD2.MD3から作成した写像関
数を用いて話者適応することもでき、また、この写像関
数と第1〜第3の特定話者群コードブックCB1,CB
2,CB3により作成された入力話者コードブック(ユ
ニバーサルコードブック94を用いてベクトル量子化す
る前のコードブック)を用いて話者適応することも可能
である。Further, the contents of various processes described in the above embodiments are not limited to the contents described in the embodiments. For example, as the speaker learning processing, in the above-described embodiment, the quantization codebooks VQ1, VQ2, and VQ3 are created using the universal codebook 94,
At the time of recognition, the speaker adaptation is performed using the quantization codebook. However, the present invention is not limited to this.
, RD2, RD3 and the first to third specific speaker group speaker model data MD1, MD2. Speaker adaptation can also be performed using a mapping function created from MD3, and this mapping function and first to third specific speaker group codebooks CB1, CB
2, it is also possible to perform speaker adaptation using an input speaker codebook created by CB3 (a codebook before vector quantization using the universal codebook 94).
【0173】さらに、前述の実施の形態では、複数の話
者群に属する話者(話者#1、#2、#3)が1つの装
置を使用することを想定した例であるため、特定話者群
音声モデルデータもそれに対応して第1〜第3の特定話
者群音声モデルデータMD1,MD2.MD3を設けた
が、装置の種類によっては、使用者をある1つの話者群
に属する話者(たとえば子供)のみを対象とできる場合
もあり、このような場合には、特定話者群音声モデルデ
ータもそれに対応して1つの特定話者群音声モデルデー
タのみを持てばよく、これによれば、ROM9の容量を
より一層小さくすることができ、制御部5の処理能力も
小さいもので済み、その他、RAM10の容量も小さい
もの出よく、装置全体のコストを大幅に小さく押さえる
ことが可能となる。Further, in the above-described embodiment, since it is assumed that speakers (speakers # 1, # 2, and # 3) belonging to a plurality of speaker groups use one device, The speaker group voice model data also corresponds to the first to third specific speaker group voice model data MD1, MD2. Although the MD3 is provided, depending on the type of the device, the user may be able to target only a speaker (for example, a child) belonging to one speaker group. In such a case, the specific speaker group voice is used. The model data need only have one specific speaker group voice model data corresponding thereto, and according to this, the capacity of the ROM 9 can be further reduced, and the processing capability of the control unit 5 can be small. In addition, the capacity of the RAM 10 may be small, and the cost of the entire apparatus can be significantly reduced.
【0174】さらに、前述の実施に形態では、各種のモ
ード設定などを操作部に設けられた各種ボタンによって
行う例を示したが、ボタンは全く設けずに、全て音声に
よって設定可能とすることもできる。Further, in the above-described embodiment, an example has been described in which various modes are set by using various buttons provided on the operation unit. However, it is also possible that all buttons can be set without providing any buttons. it can.
【0175】また、以上説明した本発明の処理を行う処
理プログラムは、フロッピィディスク、光ディスク、ハ
ードディスクなどの記録媒体に記録させておくことがで
き、本発明はその記録媒体をも含むものである。また、
ネットワークから処理プログラムを得るようにしてもよ
い。The processing program for performing the processing of the present invention described above can be recorded on a recording medium such as a floppy disk, an optical disk, or a hard disk. The present invention also includes the recording medium. Also,
The processing program may be obtained from a network.
【0176】[0176]
【発明の効果】以上説明したように本発明では、認識対
象話者を、年齢や性別などに基づいて予め設定した範囲
に絞り込み、当該範囲に属する不特定複数話者の音声デ
ータから特定話者群音声モデルデータを作成して保存
し、この特定話者群音声モデルデータを用いて前記認識
対象話者の入力した音声を認識するようにしている。こ
れにより、ある範囲の話者群に対応する特定話者群音声
モデルデータのみを持てばよいので、従来のあらゆる範
囲の話者に対応できるように作成された標準話者音声モ
デルデータに比べると、そのデータ量を大幅に少なくす
ることができる。したがって、その特定話者群音声モデ
ルデータを保存するメモリ(ROM)の記憶容量は小さ
いもので済み、また、CPUにかかる認識処理の負担も
少なくすることができ、メモリの容量やCPUの処理能
力に大きな制約のある安価な製品に適した音声認識技術
であるといえる。しかも、特定の話者群に対応した特定
話者群音声モデルデータであるので、認識性能も大幅に
向上する。As described above, according to the present invention, the speaker to be recognized is narrowed down to a predetermined range based on age, gender, etc., and the specific speaker is determined from the voice data of the unspecified plural speakers belonging to the range. Group voice model data is created and stored, and the voice input by the recognition target speaker is recognized using the specific speaker group voice model data. As a result, since only the specific speaker group voice model data corresponding to a certain range of speaker groups needs to be held, compared with the conventional standard speaker voice model data created so as to be able to support all the range of conventional speakers, , The data amount can be greatly reduced. Therefore, the storage capacity of the memory (ROM) for storing the specific speaker group voice model data can be small, and the load of the recognition processing on the CPU can be reduced, and the memory capacity and the processing capacity of the CPU can be reduced. It can be said that this is a speech recognition technology suitable for inexpensive products with great restrictions. In addition, since the data is specific speaker group voice model data corresponding to a specific speaker group, recognition performance is greatly improved.
【0177】また、本発明は、このようなある特定の範
囲の話者群に対応する特定話者群音声モデルデータを、
幾つか用意することもできる。たとえば、成人男性用、
成人女性用、子供用など幾つかの話者群に対応して用意
することも可能である。これによれば、1つの装置を家
族で使用するような場合にも対応できる。このように、
幾つかの話者群対応の特定話者群音声モデルデータを持
ったとしても、あらゆる範囲の話者に対応できるように
作成された標準話者音声モデルデータを持つよりは、音
声モデルデータの規模をを小さくでき、しかも、それぞ
れの話者群に対応した音声モデルデータであるので、認
識性能も大幅に向上する。Further, according to the present invention, the specific speaker group voice model data corresponding to the speaker group in a certain specific range is
Several can also be prepared. For example, for adult men,
It is also possible to prepare corresponding to several speaker groups such as for adult women and children. According to this, it is possible to cope with a case where one device is used by a family. in this way,
Even if we have specific speaker group voice model data corresponding to several speaker groups, the size of the voice model data is larger than having standard speaker voice model data created to support speakers in all ranges. Can be reduced, and the speech model data corresponds to each speaker group, so that the recognition performance is greatly improved.
【図1】本発明の音声認識装置の実施の形態を説明する
ブロック図。FIG. 1 is a block diagram illustrating an embodiment of a speech recognition device of the present invention.
【図2】話者に対応した音声モデルデータ(特定話者群
音声モデルデータ)を用いて音声認識処理を行う例を説
明するフローチャート。FIG. 2 is a flowchart illustrating an example in which a speech recognition process is performed using speech model data (specific speaker group speech model data) corresponding to a speaker.
【図3】本発明の実施の形態である音声時計装置の外観
を概略的に示す図。FIG. 3 is a diagram schematically illustrating an appearance of an audio clock device according to an embodiment of the invention.
【図4】話者学習処理を可能とした音声認識処理の全体
的な処理手順を説明するフローチャートであり、特定の
一人の話者に対する処理手順を説明するフローチャート
である。FIG. 4 is a flowchart illustrating an overall processing procedure of a speech recognition process enabling a speaker learning process, and is a flowchart illustrating a processing procedure for a specific one speaker.
【図5】話者学習処理を可能とした音声認識処理の全体
的な処理手順を説明するフローチャートであり、複数の
話者に対する処理手順を説明するフローチャートであ
る。FIG. 5 is a flowchart illustrating an overall processing procedure of a speech recognition process enabling a speaker learning process, and is a flowchart illustrating a processing procedure for a plurality of speakers.
【図6】本発明の実施の形態における連続した3単語
(「午前」、「1時」、「20分」)の認識処理を説明
する状態遷移図。FIG. 6 is a state transition diagram illustrating recognition processing of three consecutive words (“am”, “1:00”, and “20 minutes”) according to the embodiment of the present invention.
【図7】図7で示した3単語の認識処理を一般的な連続
単語認識処理として適用する場合の処理手順を説明する
フローチャート。FIG. 7 is a flowchart illustrating a processing procedure when the three-word recognition process illustrated in FIG. 7 is applied as a general continuous word recognition process.
【図8】話者の音声入力操作の状況に応じてマイクアン
プのゲイン切り替えを含む処理手順を説明するフローチ
ャート。FIG. 8 is a flowchart for explaining a processing procedure including gain switching of a microphone amplifier according to a situation of a voice input operation of a speaker.
【図9】ヘルプモードを備えた音声認識処理手順を説明
するフローチャート。FIG. 9 is a flowchart illustrating a speech recognition processing procedure including a help mode.
【図10】音声認識処理について本発明の実施の形態に
おけるヘルプモード(肯定ボタンと否定ボタンによる
「はい」または「いいえ」の入力モード)を説明する状
態遷移図。FIG. 10 is a state transition diagram illustrating a help mode (“Yes” or “No” input mode using a positive button and a negative button) according to the embodiment of the present invention with respect to the voice recognition processing.
1 マイクロホン 2 音声入力用アンプ(マイクアンプ) 3 A/D変換部 4 音声分析部 5 制御部(CPU) 6 D/A変換部 7 音声出力用アンプ 8 スピーカ 9 ROM 10 RAM 11 操作部 12 計時手段 91 出力音声データ 92 特定話者群者音声モデルデータ 93 特定話者群コードブック 94 ユニバーサルコードブック 95 標準話者音声モデルデータ 93 標準話者コードブック 101 登録単語データ MD1,MD2,MD3 第1〜第3の特定話者群音声
モデルデータ CB1,CB2,CB3 第1〜第3の特定話者群コー
ドブック RD1,RD2,RD3 話者#1〜話者#3用の登録
単語データ VQ1,VQ2,VQ3 話者#1〜話者#3用の量子
化コードブックDESCRIPTION OF SYMBOLS 1 Microphone 2 Audio input amplifier (microphone amplifier) 3 A / D conversion part 4 Audio analysis part 5 Control part (CPU) 6 D / A conversion part 7 Audio output amplifier 8 Speaker 9 ROM 10 RAM 11 Operation part 12 Timing means 91 Output speech data 92 Specific speaker group speech model data 93 Specific speaker group codebook 94 Universal codebook 95 Standard speaker speech model data 93 Standard speaker codebook 101 Registered word data MD1, MD2, MD3 1st to 1st 3 specific speaker group voice model data CB1, CB2, CB3 First to third specific speaker group codebooks RD1, RD2, RD3 Registered word data VQ1, VQ2, VQ3 for speaker # 1 to speaker # 3 Quantization codebook for speaker # 1 to speaker # 3
───────────────────────────────────────────────────── フロントページの続き (72)発明者 長谷川 浩 長野県諏訪市大和3丁目3番5号 セイコ ーエプソン株式会社内 (72)発明者 池尻 昌久 長野県諏訪市大和3丁目3番5号 セイコ ーエプソン株式会社内 Fターム(参考) 5D015 AA02 GG01 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Hiroshi Hasegawa 3-3-5 Yamato, Suwa City, Nagano Prefecture Inside Seiko Epson Corporation (72) Inventor Masahisa Ikejiri 3-5-5 Yamato, Suwa City, Nagano Prefecture Seiko Epson Co., Ltd. F term (reference) 5D015 AA02 GG01
Claims (4)
められた複数の単語を認識可能とする音声認識方法にお
いて、 前記不特定複数話者のうち認識対象話者を年齢や性別な
どに基づいて予め設定した範囲に絞り込み、その範囲に
属する不特定複数話者の音声データから特定話者群音声
モデルデータを作成し、この特定話者群音声モデルデー
タを用いて前記認識対象話者の入力した音声を認識する
ことを特徴とする音声認識方法。1. A speech recognition method in which a plurality of unspecified speakers can be recognized, and a plurality of predetermined words can be recognized. Based on the specified speaker range, the specific speaker group voice model data is created from the voice data of the unspecified multiple speakers belonging to the range, and the specific speaker group voice model data is used for the recognition target speaker. A speech recognition method characterized by recognizing input speech.
く複数の話者群から構成され、それぞれの話者群に属す
る不特定複数話者の音声データから前記複数の話者群対
応の特定話者群音声モデルデータを作成することを特徴
とする請求項1記載の音声認識方法。2. The speaker to be recognized is composed of a plurality of speaker groups based on the characteristics of speech, and speech data corresponding to the plurality of speaker groups is obtained from speech data of unspecified plural speakers belonging to each speaker group. 2. The speech recognition method according to claim 1, wherein the specific speaker group speech model data is created.
れた複数の単語を認識可能とする音声認識装置におい
て、少なくとも、 話者の発話して得られた音声を分析する音声分析手段
と、 前記不特定複数話者のうち認識対象話者を年齢や性別な
どに基づいて予め設定した範囲に絞り込むことによっ
て、その範囲に属する不特定複数話者の音声データから
作成された特定話者群者音声モデルデータと、 この特定話者群音声モデルデータを用いて前記認識対象
話者の入力した音声を認識する制御手段と、 を有することをことを特徴とする音声認識装置。3. A speech recognition apparatus for an unspecified plural speaker and capable of recognizing a plurality of predetermined words, wherein at least a speech analyzing means for analyzing a speech obtained by uttering the speaker. A specific speaker group created from voice data of unspecified multiple speakers belonging to the range by narrowing down the recognition target speakers among the unspecified multiple speakers to a preset range based on age, gender, etc. A voice recognition device comprising: speaker voice model data; and control means for recognizing a voice input by the recognition target speaker using the specific speaker group voice model data.
く複数の話者群から構成され、前記特定話者群音声モデ
ルデータは、それぞれの話者群に属する不特定複数話者
の音声データから作成された前記複数の話者群対応の特
定話者群音声モデルデータでなることを特徴とする請求
項3記載の音声認識装置。4. The speaker to be recognized is composed of a plurality of speaker groups based on voice characteristics, and the specific speaker group voice model data is the voices of unspecified multiple speakers belonging to each speaker group. 4. The speech recognition apparatus according to claim 3, wherein the speech recognition apparatus comprises specific speaker group voice model data corresponding to the plurality of speaker groups created from data.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10254418A JP2000089780A (en) | 1998-09-08 | 1998-09-08 | Voice recognition method and voice recognition device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10254418A JP2000089780A (en) | 1998-09-08 | 1998-09-08 | Voice recognition method and voice recognition device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000089780A true JP2000089780A (en) | 2000-03-31 |
Family
ID=17264711
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP10254418A Withdrawn JP2000089780A (en) | 1998-09-08 | 1998-09-08 | Voice recognition method and voice recognition device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000089780A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2002099785A1 (en) * | 2001-06-06 | 2002-12-12 | Koninklijke Philips Electronics N.V. | Pattern processing system specific to a user group |
| JP2005005899A (en) * | 2003-06-10 | 2005-01-06 | Sharp Corp | Telephone device with automatic answering function |
| KR100533601B1 (en) * | 2002-12-05 | 2005-12-06 | 베스티안파트너스(주) | A method for deciding a gender of a speaker in a speaker-independent speech recognition system of a mobile phone |
| JP2010032763A (en) * | 2008-07-29 | 2010-02-12 | Toshiba Corp | Device and method for supporting study of language |
| CN106373564A (en) * | 2015-07-22 | 2017-02-01 | 谷歌公司 | Individualized hotword detection models |
| CN111179944A (en) * | 2020-01-03 | 2020-05-19 | 达闼科技成都有限公司 | Voice wake-up and age detection method, device and computer-readable storage medium |
-
1998
- 1998-09-08 JP JP10254418A patent/JP2000089780A/en not_active Withdrawn
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4837887B2 (en) * | 2001-06-06 | 2011-12-14 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Pattern processing system specific to user groups |
| JP2004529390A (en) * | 2001-06-06 | 2004-09-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Pattern processing system specific to user groups |
| US9424838B2 (en) | 2001-06-06 | 2016-08-23 | Nuance Communications, Inc. | Pattern processing system specific to a user group |
| WO2002099785A1 (en) * | 2001-06-06 | 2002-12-12 | Koninklijke Philips Electronics N.V. | Pattern processing system specific to a user group |
| KR100533601B1 (en) * | 2002-12-05 | 2005-12-06 | 베스티안파트너스(주) | A method for deciding a gender of a speaker in a speaker-independent speech recognition system of a mobile phone |
| JP2005005899A (en) * | 2003-06-10 | 2005-01-06 | Sharp Corp | Telephone device with automatic answering function |
| JP2010032763A (en) * | 2008-07-29 | 2010-02-12 | Toshiba Corp | Device and method for supporting study of language |
| CN106373564A (en) * | 2015-07-22 | 2017-02-01 | 谷歌公司 | Individualized hotword detection models |
| KR20180010923A (en) * | 2015-07-22 | 2018-01-31 | 구글 엘엘씨 | Individualized hotword detection models |
| KR101859708B1 (en) * | 2015-07-22 | 2018-05-18 | 구글 엘엘씨 | Individualized hotword detection models |
| US10438593B2 (en) | 2015-07-22 | 2019-10-08 | Google Llc | Individualized hotword detection models |
| US10535354B2 (en) | 2015-07-22 | 2020-01-14 | Google Llc | Individualized hotword detection models |
| KR102205371B1 (en) * | 2015-07-22 | 2021-01-20 | 구글 엘엘씨 | Individualized hotword detection models |
| CN111179944A (en) * | 2020-01-03 | 2020-05-19 | 达闼科技成都有限公司 | Voice wake-up and age detection method, device and computer-readable storage medium |
| CN111179944B (en) * | 2020-01-03 | 2022-11-08 | 达闼机器人股份有限公司 | Voice wake-up and age detection method, device and computer-readable storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3000999B1 (en) | Speech recognition method, speech recognition device, and recording medium recording speech recognition processing program | |
| JP3968133B2 (en) | Speech recognition dialogue processing method and speech recognition dialogue apparatus | |
| CN110634483B (en) | Human-computer interaction method, device, electronic device and storage medium | |
| US10943606B2 (en) | Context-based detection of end-point of utterance | |
| CN112201246B (en) | Intelligent control method and device based on voice, electronic equipment and storage medium | |
| JP3674990B2 (en) | Speech recognition dialogue apparatus and speech recognition dialogue processing method | |
| JP2019117623A (en) | Voice dialogue method, apparatus, device and storage medium | |
| US10540970B2 (en) | Architectures and topologies for vehicle-based, voice-controlled devices | |
| US6839670B1 (en) | Process for automatic control of one or more devices by voice commands or by real-time voice dialog and apparatus for carrying out this process | |
| US5960393A (en) | User selectable multiple threshold criteria for voice recognition | |
| CN111223490A (en) | Voiceprint wake-up method and device, device and storage medium | |
| JP2003202888A (en) | Headset with wireless communication function and audio processing system using the same | |
| US10629199B1 (en) | Architectures and topologies for vehicle-based, voice-controlled devices | |
| JP3001000B1 (en) | Continuous word recognition method in speech recognition device and recording medium storing continuous word recognition processing program in speech recognition device | |
| JP2000089780A (en) | Voice recognition method and voice recognition device | |
| KR100567828B1 (en) | Apparatus And Method for Enhanced Voice Recognition | |
| JPH1138863A (en) | Language information apparatus | |
| JP3050232B2 (en) | Speech recognition method, speech recognition device, and recording medium recording speech recognition processing program | |
| JP3045169B2 (en) | Continuous word recognition method in speech recognition device and recording medium storing continuous word recognition processing program in speech recognition device | |
| CN109166572A (en) | The method and reading machine people that robot is read | |
| JP3695168B2 (en) | Voice recognition device, voice input gain setting method, and storage medium storing input gain setting processing program | |
| JP3846500B2 (en) | Speech recognition dialogue apparatus and speech recognition dialogue processing method | |
| JP2000089790A (en) | Method for setting speaker input information in voice recognition device and recording medium storing speaker input information setting processing program in voice recognition device | |
| JP2004184803A (en) | Vehicle speech recognition device | |
| JP2010060729A (en) | Reception device, reception method and reception program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060110 |