JPH0764763A - Information provision terminal - Google Patents
Information provision terminalInfo
- Publication number
- JPH0764763A JPH0764763A JP5212693A JP21269393A JPH0764763A JP H0764763 A JPH0764763 A JP H0764763A JP 5212693 A JP5212693 A JP 5212693A JP 21269393 A JP21269393 A JP 21269393A JP H0764763 A JPH0764763 A JP H0764763A
- Authority
- JP
- Japan
- Prior art keywords
- output
- output characteristic
- time
- voice
- date
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
(57)【要約】
【目的】利用者が利用している際の環境に応じた合成音
声の出力特性を動的に決定して、その特性の合成音声を
出力することができるようにする。
【構成】合成音声出力要求Rが入力された時点の時刻を
時刻検知部1にて検知して出力特性決定部3に通知する
と、その通知された時刻により、時刻範囲とその範囲内
の時刻のときの最適な合成音声出力レベルとの対応関係
が登録された出力特性記憶部2を参照して、通知された
時刻に見合った出力レベルを決定し、出力特性Cとして
出力特性決定部3から音声合成出力部4に出力する。音
声合成出力部4は、合成音声選択信号Sで指定される単
語の列の合成音声を合成し、出力特性決定部3からの出
力特性Cで示される出力レベルで音響信号Aとして出力
する。
(57) [Summary] [Purpose] To dynamically determine the output characteristic of synthetic speech according to the environment in which the user is using and to be able to output the synthetic speech with that characteristic. When a time point at which a synthetic voice output request R is input is detected by a time detection unit 1 and is notified to an output characteristic determination unit 3, a time range and a time within the range are set according to the notified time. The output characteristic storage unit 2 in which the correspondence relationship with the optimum synthetic speech output level at that time is registered is used to determine an output level commensurate with the notified time, and the output characteristic determination unit 3 outputs the output level C as the output characteristic C. Output to the synthesis output unit 4. The speech synthesis output unit 4 synthesizes the synthesized speech of the word string designated by the synthesized speech selection signal S, and outputs it as the acoustic signal A at the output level indicated by the output characteristic C from the output characteristic determination unit 3.
Description
【0001】[0001]
【産業上の利用分野】本発明は、合成された音声を用い
て利用者に情報を提供する情報提供端末に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information providing terminal for providing information to a user by using a synthesized voice.
【0002】[0002]
【従来の技術】近時、合成音声によって利用者に情報を
提供する情報提供端末は、利用者に分かりやすく情報を
提供できるため、広く使われるようになってきている。
この種の情報提供端末の内部で用いられている音声合成
方式は、以下に述べる録音編集方式、パラメータ編集方
式および規則合成方式に大別される。2. Description of the Related Art Recently, information providing terminals that provide information to users by means of synthetic speech have become widely used because they can provide information to users in an easy-to-understand manner.
The voice synthesizing method used inside the information providing terminal of this kind is roughly classified into a recording editing method, a parameter editing method, and a rule synthesizing method described below.
【0003】まず録音編集方式は、アナウンサ等が発声
した音声を或る単位で記録しておき、この記録された単
位音声を編集して音声を出力する合成法である。音声を
記録する方法としては、テープレコーダにアナログ信号
で録音したり、サンプリング、量子化、符号化を経てデ
ィジタル信号として記録するPCM、或いはそれに類す
る方法が知られている。First, the recording / editing method is a synthesizing method in which the voice uttered by an announcer or the like is recorded in a certain unit, and the recorded unit voice is edited to output the voice. As a method of recording voice, there is known a method of recording an analog signal on a tape recorder, a PCM for recording a digital signal through sampling, quantization, and encoding, or a method similar thereto.
【0004】次にパラメータ編集方式は、予めアナウン
サ等が発声した音声を分析し、音源およびスペクトル包
括パラメータの形で蓄えておき、合成器により合成出力
する方式である。この方式は、波形をそのまま蓄える録
音編集方式と比較した場合、合成音声の自然性は若干低
下するが、大幅な情報圧縮が図れる。分析・合成方法と
してはPARCOR,LSP、ケプストラム分析などが
用いられている。Next, the parameter editing method is a method in which the voice uttered by an announcer or the like is analyzed in advance, stored in the form of a sound source and a spectrum comprehensive parameter, and synthesized and output by a synthesizer. Compared with the recording / editing method in which the waveform is stored as is, this method slightly lowers the naturalness of the synthesized speech, but can achieve a large amount of information compression. PARCOR, LSP, cepstrum analysis and the like are used as analysis / synthesis methods.
【0005】最後に規則合成方式は、分析によって得ら
れたパラメータを単に接続するだけでなく、その接続法
やピッチ、振幅などの韻律情報を規則により制御して、
あらゆる単語、文章などを合成するものである。Finally, the rule synthesizing method not only simply connects the parameters obtained by the analysis, but also controls the connection method and prosody information such as pitch and amplitude according to the rules.
It combines all words and sentences.
【0006】以上のような音声合成方式が従来から用い
られてきたが、このような音声合成方式を用いた情報提
供端末では、出力される音声の特性は最初に設定された
特性であり、同じ単語を合成させれば、常に同じ特性
(例えば同じ音量、音質)の合成音声が得られる。The above-described voice synthesizing method has been conventionally used, but in an information providing terminal using such a voice synthesizing method, the characteristics of the output voice are the characteristics set at the beginning and are the same. By synthesizing words, a synthetic voice with the same characteristics (for example, the same volume and sound quality) can always be obtained.
【0007】[0007]
【発明が解決しようとする課題】このように従来の情報
提供端末では、予め設定された特性の合成音声を出力す
る。したがって、環境ノイズの大きい場所に情報提供端
末を設置する場合には、情報提供端末の利用者が合成音
声を聴取しやすいように、合成音声の出力レベルを高く
するなど、情報提供端末の出力特性を設定する必要があ
る。As described above, the conventional information providing terminal outputs the synthesized voice having the preset characteristic. Therefore, when the information providing terminal is installed in a place where the environmental noise is large, the output characteristics of the information providing terminal should be increased, for example, by increasing the output level of the synthesized voice so that the user of the information providing terminal can easily hear the synthesized voice. Need to be set.
【0008】しかし、環境ノイズは変動するため常に一
定レベルであるとは限らず、環境ノイズが大きい状態に
合わせて情報提供端末の出力特性を設定した場合には、
環境ノイズが小さくなった状態で情報提供端末を使用す
ると、出力される合成音声が周囲に対して騒音となって
しまう。また、逆に環境ノイズが小さい状態に合わせて
情報提供端末の出力特性を設定した場合には、環境ノイ
ズが大きくなった状態で情報提供端末を使用すると、出
力される合成音声が利用者に対して聞き取りにくいもの
となってしまう。However, since the environmental noise fluctuates, it is not always at a constant level, and when the output characteristics of the information providing terminal are set according to the state where the environmental noise is large,
If the information providing terminal is used in a state where the environmental noise is reduced, the output synthetic voice becomes noise to the surroundings. On the contrary, if the output characteristics of the information providing terminal are set according to the state where the environmental noise is small, if the information providing terminal is used in the state where the environmental noise is large, the output synthetic voice will be presented to the user. It becomes difficult to hear.
【0009】以上のように、常に同じ出力特性を持つ従
来の情報提供端末では、どのような環境でも利用しやす
くすることは困難であるという問題があった。本発明は
このような事情を考慮してなされたもので、その目的と
するところは、利用者が利用している際の環境に応じた
合成音声の出力特性を動的に決定して、その特性の合成
音声を出力することができる情報提供端末を提供するこ
とにある。As described above, the conventional information providing terminal having the same output characteristics has a problem that it is difficult to make it easy to use in any environment. The present invention has been made in view of such circumstances, and an object of the present invention is to dynamically determine the output characteristic of synthetic speech according to the environment when the user is using the An object of the present invention is to provide an information providing terminal capable of outputting a synthesized voice having characteristics.
【0010】[0010]
【課題を解決するための手段】本発明は、環境ノイズ
が、時刻、或いは日付およびその属性(日付が休日か平
日かなど)の少なくとも一方に密接に関連していること
に着目し、合成音声によって利用者に情報を提供する情
報提供端末において、合成音声出力要求時の時刻を検知
する時刻検知手段と、合成音声出力要求時の日付および
その属性の少なくとも一方を検知する日付検知手段の両
検知手段、またはいずれか一方の検知手段を備えると共
に、各時刻か、各日付およびその属性の少なくとも一方
か、或いはその両方に応じた合成音声の出力音声を記憶
するための出力特性記憶手段と、上記検知手段により検
知された合成音声出力要求時の時刻か、日付およびその
属性の少なくとも一方か、或いはその両方と出力特性記
憶手段の内容をもとに合成音声の出力特性を決定する出
力特性決定手段と、この出力決定手段によって決定され
た合成音声出力特性で、合成音声を音響信号として出力
する音声合成出力手段とを備えたことを特徴とするもの
である。The present invention focuses on the fact that environmental noise is closely related to at least one of time or date and its attribute (whether the date is a holiday or a weekday). In an information providing terminal for providing information to a user by means of both a time detection means for detecting the time when a synthetic voice output request is made and a date detection means for detecting at least one of the date and the attribute of the synthetic voice output request Means, or any one of the detecting means, and output characteristic storage means for storing the output voice of the synthetic voice corresponding to each time, each date and / or at least one of its attributes, and Based on the time of the synthetic voice output request detected by the detection means, at least one of the date and its attribute, or both, and the contents of the output characteristic storage means. An output characteristic determining means for determining an output characteristic of synthetic speech, and a voice synthesis output means for outputting synthetic speech as an acoustic signal with the synthetic speech output characteristic determined by the output determining means. Is.
【0011】[0011]
【作用】上記の構成においては、合成音声出力要求時の
時刻か、日付およびその属性(休日か否かなど)の少な
くとも一方か、或いはその両方が検知され、その検知内
容と出力特性記憶手段の内容をもとに、合成音声出力要
求時の時刻か、日付およびその属性(休日か否かなど)
の少なくとも一方か、或いはその両方に対応して出力特
性記憶手段に記憶されていた出力特性が合成音声の最適
な出力レベルとして決定される。そして、この決定され
た出力特性で合成音声が出力される。In the above structure, at least one of the time and / or the date and the attribute thereof (whether it is a holiday or the like) at the time of requesting the output of the synthetic voice, or both of them are detected, and the detected contents and the output characteristic storage means are detected. Based on the contents, the time when the synthetic voice output was requested, the date and its attributes (whether it was a holiday, etc.)
The output characteristic stored in the output characteristic storage means corresponding to at least one or both of the above is determined as the optimum output level of the synthesized voice. Then, the synthesized voice is output with the determined output characteristic.
【0012】このように、上記の構成によれば、本情報
提供端末を利用する時刻、或いは日付およびその属性
が、どのような場合であっても、それに対応した環境ノ
イズに適合した出力レベルで合成音声が出力されるた
め、常に利用者が聴取しやすい合成音声出力が可能とな
る。As described above, according to the above configuration, the time or date when the information providing terminal is used and the attribute thereof are always set to the output level suitable for the environmental noise corresponding to the time or date and the attribute thereof. Since the synthetic voice is output, it is possible to always output the synthetic voice that is easily heard by the user.
【0013】[0013]
【実施例】以下、本発明の一実施例を図面を参照して説
明する。図1は本発明の一実施例に係る情報提供端末の
概略構成を示すブロック図である。この図1に示す情報
提供端末は、環境ノイズのレベルが時間帯により異なる
ような場所に設置して用いられるものとする。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of an information providing terminal according to an embodiment of the present invention. The information providing terminal shown in FIG. 1 is assumed to be installed and used in a place where the level of environmental noise varies depending on the time of day.
【0014】図1において、1は外部からの合成音声出
力要求Rを受けて、その際の時刻を検知・出力する時刻
検知部、2は種々の時刻(の範囲)に応じた合成音声の
出力特性を予め記憶するための出力特性記憶部2であ
る。In FIG. 1, reference numeral 1 denotes a time detection unit that receives and outputs the time at that time in response to a synthetic voice output request R from the outside, and 2 indicates the output of the synthetic voice according to (the range of) various times. An output characteristic storage unit 2 for storing characteristics in advance.
【0015】3は時刻検知部1により検知された時刻と
出力特性記憶部2の内容をもとに合成音声の出力特性C
を決定する出力特性決定部、4は合成音声出力要求R、
出力すべき合成音声(を構成する単語の列)を指定する
ための合成音声選択信号S、および出力特性決定部3に
より決定された出力特性Cを受け、合成音声選択信号S
で指定された音声を出力特性Cに応じて合成する音声合
成出力部である。Reference numeral 3 is an output characteristic C of the synthesized voice based on the time detected by the time detection unit 1 and the contents of the output characteristic storage unit 2.
An output characteristic determination unit 4 that determines a synthesized voice output request R,
The synthetic speech selection signal S for designating (a string of words constituting the synthetic speech) to be output and the output characteristic C determined by the output characteristic determination unit 3 are received, and the synthetic speech selection signal S is received.
It is a voice synthesis output unit that synthesizes the voice designated by the method according to the output characteristic C.
【0016】次に、図1に示す情報提供端末の動作の概
略を説明する。まず音声合成出力部4に合成音声出力要
求Rと合成音声選択信号Sとが入力され、当該音声合成
出力部4に対して、合成音声選択信号Sによって指定さ
れる音声の合成が要求される。Next, the outline of the operation of the information providing terminal shown in FIG. 1 will be described. First, the synthesized speech output request R and the synthesized speech selection signal S are input to the speech synthesis output unit 4, and the speech synthesis output unit 4 is requested to synthesize the speech designated by the synthesized speech selection signal S.
【0017】合成音声出力要求Rは時刻検知部1にも入
力される。すると時刻検知部1は、その際の時刻を検知
して、出力特性決定部3に通知する。出力特性決定部3
は、時刻検知部1からの時刻通知を受けて、出力特性記
憶部2を参照し、通知された時刻に対応した出力特性C
を決定して音声合成出力部4に出力する。The synthetic voice output request R is also input to the time detection unit 1. Then, the time detection unit 1 detects the time at that time and notifies the output characteristic determination unit 3 of it. Output characteristic determination unit 3
Receives the time notification from the time detection unit 1, refers to the output characteristic storage unit 2, and outputs the output characteristic C corresponding to the notified time.
Is output to the voice synthesis output unit 4.
【0018】すると音声合成出力部4は、この出力特性
Cに応じて、合成音声選択信号Sの指定する音声を合成
し、音響信号Aとして出力する。次に、図1の情報提供
端末の各部の動作の詳細を、音声合成出力部4で用いる
音声合成方式がパラメータ編集方式であるものとして、
合成音声選択信号Sによって指定される単語の列に対応
する合成音声を出力する場合を例に説明する。Then, the voice synthesis output unit 4 synthesizes the voice designated by the synthesized voice selection signal S according to the output characteristic C and outputs it as the acoustic signal A. Next, the details of the operation of each unit of the information providing terminal of FIG. 1 will be described assuming that the voice synthesis method used in the voice synthesis output unit 4 is the parameter editing method.
A case will be described as an example where a synthesized voice corresponding to the word string designated by the synthesized voice selection signal S is output.
【0019】まず音声合成出力部4の構成を図2に示
す。図2において、合成出力制御部41に、合成音声出
力要求Rが入力され、更に図1の出力特性決定部3で決
定された出力特性Cが入力されると、当該合成出力制御
部41は、パラメータ選択部42にパラメータ選択開始
信号PSを送ると同時に、出力特性Cで指定される出力
特性信号CSをアナログ増幅部46に出力する。First, the configuration of the voice synthesis output unit 4 is shown in FIG. In FIG. 2, when the synthetic voice output request R is input to the synthetic output control unit 41 and the output characteristic C determined by the output characteristic determining unit 3 of FIG. 1 is further input, the synthetic output control unit 41 At the same time as sending the parameter selection start signal PS to the parameter selection unit 42, the output characteristic signal CS specified by the output characteristic C is output to the analog amplification unit 46.
【0020】パラメータ選択部42には、合成出力制御
部41からのパラメータ選択開始信号PSの他に、合成
音声選択信号Sが入力される。パラメータ選択部42
は、パラメータ選択開始信号PSを受け取ると処理を開
始して、合成パラメータ記憶部43を検索する。In addition to the parameter selection start signal PS from the synthesis output control unit 41, the synthesized voice selection signal S is input to the parameter selection unit 42. Parameter selection unit 42
Starts the process upon receiving the parameter selection start signal PS, and searches the combined parameter storage unit 43.
【0021】合成パラメータ記憶部43には、各種の単
語毎に、単語音声を合成するためのパラメータ(合成パ
ラメータ)が予め登録されている。この合成パラメータ
としては種々考えられるが、ここでは、例えば10ms
を1フレームと呼び、ケプストラム係数、ピッチ周波
数、有声音/無声音の区別を、フレーム毎に測定してベ
クトルの時系列(パラメータ系列)を作り、これを合成
パラメータとする。なお、合成パラメータとして、PA
RCOR、LSP等を用いても構わない。In the synthesis parameter storage unit 43, parameters (synthesis parameters) for synthesizing word voices are registered in advance for each word. There are various conceivable synthetic parameters, but here, for example, 10 ms
Is called 1 frame, and the cepstrum coefficient, pitch frequency, and voiced / unvoiced sound are measured for each frame to create a vector time series (parameter series), which is used as a synthesis parameter. In addition, as a synthesis parameter, PA
RCOR, LSP, etc. may be used.
【0022】合成パラメータ記憶部43の記憶内容例を
図3に示す。この図3の例では、合成パラメータ記憶部
43には、「東京の」、「大阪の」、「天気は」、「晴
れです」、「雨です」という5単語の合成パラメータ、
即ちケプストラム係数、ピッチ周波数、有声音/無声音
の区別を10ms毎に測定した系列が登録されている。FIG. 3 shows an example of contents stored in the synthesis parameter storage unit 43. In the example of FIG. 3, the synthesis parameter storage unit 43 has five-word synthesis parameters of “Tokyo”, “Osaka”, “weather”, “sunny”, and “rain”.
That is, a sequence in which the cepstrum coefficient, the pitch frequency, and the difference between voiced sound and unvoiced sound are measured every 10 ms is registered.
【0023】さてパラメータ選択部42は、上記のよう
に合成出力制御部41からのパラメータ選択開始信号P
Sに応じて処理を開始し、合成音声選択信号Sによって
(例えば単語識別子で)指定される(単語列を構成す
る)各単語に対応する音声合成のためのパラメータ(合
成パラメータ)を合成パラメータ記憶部43から順次取
り出し、一定時間毎に合成部44に出力する。The parameter selection section 42 receives the parameter selection start signal P from the synthesis output control section 41 as described above.
The process is started according to S, and a parameter (synthesis parameter) for speech synthesis corresponding to each word (constituting a word string) designated by the synthesized speech selection signal S (for example, a word identifier) is stored as a synthesis parameter. The data is sequentially taken out from the unit 43 and output to the synthesizing unit 44 at regular intervals.
【0024】したがって、合成パラメータ記憶部43の
内容が図3のようになっており、合成音声選択信号Sに
よって、「東京の」、「天気は」、「晴れです」の3単
語が順に指定されて、これら3単語からなる単語列「東
京の天気は晴れです」の音声の合成が要求された場合、
パラメータ選択部42の動作は以下のようになる。Therefore, the contents of the synthesis parameter storage unit 43 are as shown in FIG. 3, and the synthesized speech selection signal S sequentially designates the three words "of Tokyo", "weather" and "is sunny". Then, when the voice synthesis of the word string "The weather in Tokyo is sunny" consisting of these three words is requested,
The operation of the parameter selection unit 42 is as follows.
【0025】まずパラメータ選択部42は、先頭の単語
「東京の」の合成パラメータを合成パラメータ記憶部4
3から検索する。そしてパラメータ選択部42は、見つ
かった合成パラメータを先頭から1フレーム分読み込
み、合成部44に出力する。次にパラメータ選択部42
は、1フレーム分の時間待機し、次の1フレーム分のパ
ラメータを読み込み、合成部44に出力する。パラメー
タ選択部42は、この動作を、「東京の」の合成パラメ
ータがなくなるまで繰り返す。First, the parameter selection unit 42 sets the synthesis parameter of the first word "Tokyo no" to the synthesis parameter storage unit 4
Search from 3. Then, the parameter selection unit 42 reads the found synthesis parameter for one frame from the beginning and outputs it to the synthesis unit 44. Next, the parameter selection unit 42
Waits for one frame, reads the parameter for the next one frame, and outputs it to the synthesizing unit 44. The parameter selection unit 42 repeats this operation until there is no composite parameter of “Tokyo”.
【0026】以下、パラメータ選択部42は、後続の
「天気は」、「晴れです」についても同様のパラメータ
読み込みを繰り返し、動作を終了する。以上のパラメー
タ選択部42の動作により、「東京の」、「天気は」、
「晴れです」という3単語の音声を合成するためのパラ
メータが、合成部44に順次出力されたことになる。Thereafter, the parameter selecting section 42 repeats the same parameter reading for the subsequent "weather" and "it is sunny", and ends the operation. By the above operation of the parameter selection unit 42, “of Tokyo”, “weather”,
This means that the parameters for synthesizing the three-word voice "It is sunny" are sequentially output to the synthesizing unit 44.
【0027】合成部44は、パラメータ選択部42から
1フレーム単位で順次出力される合成パラメータを用い
て、ディジタル音声波形(ディジタル音声信号)を出力
する。合成パラメータとして、上記のようにケプストラ
ム係数、ピッチ周波数、有声音/無声音の区別を用いた
場合、合成部44は、図4に示すように、(有声音に対
応する)周期的な音のためのパルス列を発生するインパ
ルス列発生器441、(無声音に対応する)雑音的な音
声を作成するためのノイズ源となるM−系列発生器44
2、これらを切換える切換器443、オペアンプ44
4、および対数振幅近似(LMA)フィルタ445を含
む周知の構成で実現される。図中のC0 ,C1 ,…,C
n はそれぞれ、0次,1次,…,n次の項のケプストラ
ム係数を示す。なお、対数振幅近似(LMA)フィルタ
445については、“今井聖、電気通信学会論文誌 ’
80/12 Vol.J63-A No.12 ”に示されている。The synthesizing section 44 outputs a digital voice waveform (digital voice signal) using the synthesis parameters sequentially output from the parameter selecting section 42 in units of one frame. When the cepstrum coefficient, the pitch frequency, and the voiced / unvoiced sound discrimination are used as the synthesis parameters as described above, the synthesis unit 44 determines that the periodic sound (corresponding to the voiced sound) is generated as shown in FIG. Impulse train generator 441 for generating a pulse train of M, and an M-sequence generator 44 serving as a noise source for creating noisy speech (corresponding to unvoiced sound)
2. Switch 443 and operational amplifier 44 for switching these
4 and a logarithmic magnitude approximation (LMA) filter 445. C0, C1, ..., C in the figure
n represents the cepstrum coefficients of the 0th, 1st, ..., Nth terms, respectively. For the logarithmic amplitude approximation (LMA) filter 445, refer to “Seiji Imai, Transactions of the Institute of Electrical Communication”
80/12 Vol.J63-A No.12 ”.
【0028】合成部44から出力されるディジタル音声
信号はD/A(ディジタル/アナログ)変換部45に入
力される。D/A変換部45は、合成部44からのディ
ジタル音声信号をD/A変換することによってアナログ
音声信号を出力する。このアナログ音声信号はアナログ
増幅部46に入力される。The digital audio signal output from the synthesizer 44 is input to the D / A (digital / analog) converter 45. The D / A converter 45 outputs an analog audio signal by D / A converting the digital audio signal from the synthesizer 44. This analog audio signal is input to the analog amplifier 46.
【0029】アナログ増幅部46は、D/A変換部45
からのアナログ音声信号(アナログ音声波形)を、合成
出力制御部41から出力された出力特性信号CSに従っ
て増幅し、スピーカ部47に出力することで、音声出力
する。The analog amplifier 46 is a D / A converter 45.
The analog audio signal (analog audio waveform) from is amplified according to the output characteristic signal CS output from the combined output control unit 41, and is output to the speaker unit 47 to output the audio.
【0030】この合成出力制御部41から出力される
(出力特性決定部3からの出力特性Cに対応した)出力
特性信号CSとしては、例えば出力音声の音量レベルが
ある。この出力特性信号CSが適用された場合、アナロ
グ増幅部46は、自身の増幅率を、出力特性信号CSの
示す音量レベルに応じて変化させればよい。The output characteristic signal CS output from the combined output control unit 41 (corresponding to the output characteristic C from the output characteristic determining unit 3) is, for example, the volume level of the output voice. When the output characteristic signal CS is applied, the analog amplification section 46 may change its amplification factor according to the volume level indicated by the output characteristic signal CS.
【0031】また、出力特性信号CSにより、周波数帯
域別のパワーを指定することも可能である。この場合に
は、音質を変化させることが可能となる。これは、周波
数帯域毎にアナログ増幅部46の増幅率を変化させるこ
とにより実現可能である。Further, it is possible to specify the power for each frequency band by the output characteristic signal CS. In this case, the sound quality can be changed. This can be realized by changing the amplification factor of the analog amplification unit 46 for each frequency band.
【0032】以上のようにして、出力特性決定部3の決
定した出力特性Cに応じた合成音声を出力する図2に示
す構成の音声合成出力部4を実現することができる。な
お、図2に示す音声合成出力部4の構成は一例に過ぎ
ず、例えば図5に示すように、合成出力制御部41から
出力される出力特性信号CSを、アナログ増幅部46で
はなくて、D/A変換部45に与える構成とすることも
可能である。As described above, it is possible to realize the voice synthesis output unit 4 having the configuration shown in FIG. 2 which outputs the synthesized voice corresponding to the output characteristic C determined by the output characteristic determination unit 3. Note that the configuration of the voice synthesis output unit 4 shown in FIG. 2 is merely an example. For example, as shown in FIG. 5, the output characteristic signal CS output from the synthesis output control unit 41 is output from the analog amplification unit 46 instead of the analog amplification unit 46. It is also possible to adopt a configuration in which the D / A conversion unit 45 is provided.
【0033】この図5に示す構成では、D/A変換部4
5は、入力された合成部44からのディジタル音声信号
に対して、出力特性信号CSに応じて演算(音のレベル
を変えたい場合には出力特性信号CSに応じた倍率での
乗算、音質を変えたい場合にはディジタルフィルタリン
グ)を行った後、D/A変換を行い、アナログ音声信号
をアナログ増幅部46に出力すればよい。In the configuration shown in FIG. 5, the D / A conversion unit 4
Reference numeral 5 denotes an operation for the input digital audio signal from the synthesizer 44 in accordance with the output characteristic signal CS (when it is desired to change the sound level, multiplication by a multiplication factor according to the output characteristic signal CS, sound quality When it is desired to change, digital filtering) is performed, D / A conversion is performed, and an analog audio signal may be output to the analog amplifier 46.
【0034】更に、図6に示すように、合成出力制御部
41から出力される出力特性信号CSを、合成部44に
与える構成とすることも可能である。この図6に示す構
成では、合成部44は、入力されたパラメータ選択部4
2からの合成パラメータに対して、出力特性信号CSに
応じて演算を行った後(音質を変えたい場合)図4の構
成によりディジタル音声信号を出力すればよい。この
他、音質を変えるために、出力特性信号CSに応じてピ
ッチを変えるとか、図4中のオペアンプ444のゲイン
を出力特性信号CSに応じて変えて音のレベルを変える
ことも可能である。Further, as shown in FIG. 6, the output characteristic signal CS output from the combined output control section 41 may be applied to the combining section 44. In the configuration shown in FIG. 6, the synthesizing unit 44 uses the input parameter selecting unit 4
It is sufficient to output a digital audio signal with the configuration shown in FIG. 4 after performing an operation according to the output characteristic signal CS with respect to the synthesis parameter from 2 (when it is desired to change the sound quality). In addition, in order to change the sound quality, it is possible to change the pitch according to the output characteristic signal CS or change the sound level by changing the gain of the operational amplifier 444 in FIG. 4 according to the output characteristic signal CS.
【0035】次に、出力特性決定部3による出力特性の
決定の詳細について、時刻検知部1および出力特性記憶
部2との関係を含めて具体的に説明する。まず時刻検知
部1は、合成音声出力要求Rが入力された際の時刻を検
知して、出力特性決定部3に通知する。これにより、例
えば17時32分に合成音声出力要求Rが入力された場
合には、時刻「17:32」が出力特性決定部3に通知
される。出力特性決定部3は、この通知された時刻をも
とに出力特性記憶部2を参照して、出力する合成音の出
力特性Cを決定する。Next, the details of the determination of the output characteristic by the output characteristic determining section 3 will be specifically described, including the relationship with the time detecting section 1 and the output characteristic storing section 2. First, the time detection unit 1 detects the time when the synthetic voice output request R is input and notifies the output characteristic determination unit 3 of the time. Thus, for example, when the synthetic voice output request R is input at 17:32, the time “17:32” is notified to the output characteristic determination unit 3. The output characteristic determination unit 3 refers to the output characteristic storage unit 2 based on the notified time and determines the output characteristic C of the synthetic sound to be output.
【0036】出力特性記憶部2には、時刻の範囲と、そ
の範囲内の時刻のときの出力レベルが予め登録され、更
にその時刻範囲以外の時刻のときの出力レベルが既定値
として登録されている。In the output characteristic storage unit 2, a time range and an output level at a time within the range are registered in advance, and an output level at a time other than the time range is registered as a default value. There is.
【0037】この出力特性記憶部2における登録例を図
7に示す。ここでは、出力レベルを「0」から「9」の
10段階で示しており、「0」が最も小さな出力レベル
に対応し、「9」が最も大きな出力レベルに対応する。
また、出力レベルの既定値として「5」を用いており、
出力レベルが記述されていない時刻範囲に対しては、
「5」が出力レベルとして用いられる。FIG. 7 shows an example of registration in the output characteristic storage unit 2. Here, the output level is shown in 10 steps from "0" to "9", "0" corresponds to the smallest output level, and "9" corresponds to the largest output level.
Also, "5" is used as the default value of the output level,
For the time range where the output level is not described,
"5" is used as the output level.
【0038】したがって、図7の例は、0時0分から5
時0分までは出力レベル「3」、5時0分から7時0分
までは出力レベル「5」、7時0分から9時0分までは
出力レベル「7」、9時0分から17時0分までは出力
レベル「5」、17時0分から20時0分までは出力レ
ベル「7」、20時0分から21時0分までは出力レベ
ル「5」、21時0分から24時までは出力レベル
「3」が、それぞれ設定されていることを示している。Therefore, in the example of FIG.
Output level is “3” until 0:00, output level is “5” from 0:00 to 7:00, output level is “7” from 7:00 to 9:00, and 9:00 to 17:00 Output level is "5" until minute, output level is "7" from 17:00 to 20:00, output level is "5" from 20:00 to 21:00, and output is from 21:00 to 24:00 Level "3" indicates that each is set.
【0039】出力特性決定部3は、前記したように時刻
検知部1から通知された時刻をもとに出力特性記憶部2
を参照して、その時刻に対応した(出力する合成音声
の)出力レベルを決定し、その出力レベルを出力特性C
として音声合成出力部4に出力する。The output characteristic determining section 3 outputs the output characteristic storage section 2 based on the time notified from the time detecting section 1 as described above.
The output level (of the synthesized voice to be output) corresponding to the time is determined with reference to
Is output to the voice synthesis output unit 4.
【0040】したがって、上記の如く時刻「17:3
2」が通知された例では、その時刻「17:32」と図
7に示す出力特性記憶部2の内容とから、その時刻「1
7:32」が属する時間範囲の出力レベルが検索され
て、出力レベル「7」が得られ、同レベル「7」が出力
特性Cとして音声合成出力部4に出力される。Therefore, as described above, the time "17: 3
In the example in which "2" is notified, the time "1:32" and the contents of the output characteristic storage unit 2 shown in FIG.
The output level in the time range to which "7:32" belongs is searched, the output level "7" is obtained, and the same level "7" is output to the speech synthesis output unit 4 as the output characteristic C.
【0041】以上のことから、例えば17時32分に合
成音声出力要求Rが図1の情報提供端末に与えられ、そ
の際の合成音声選択信号Sの指定する単語の列が「東京
の」、「天気は」、「晴れです」の3単語からなってい
る場合の、情報提供端末の具体的な動作は、次の通りと
なる。From the above, for example, at 17:32, the synthetic voice output request R is given to the information providing terminal of FIG. 1, and the word string designated by the synthetic voice selection signal S at that time is "Tokyo", The specific operation of the information providing terminal when it is composed of the three words "weather is" and "it is sunny" is as follows.
【0042】まず、情報提供端末に与えられた合成音声
出力要求Rは、音声合成出力部4に入力されると同時
に、時刻検知部1に入力される。時刻検知部1は、合成
音声出力要求Rが入力された時刻「17:32」を出力
特性決定部3に通知する。First, the synthetic speech output request R given to the information providing terminal is inputted to the speech synthesis output section 4 and at the same time, inputted to the time detection section 1. The time detection unit 1 notifies the output characteristic determination unit 3 of the time “17:32” when the synthetic voice output request R is input.
【0043】出力特性決定部3は、上述のように、出力
特性Cとして合成音声の出力レベル「7」を決定し、こ
れを音声合成出力部4に通知する。音声合成出力部4
は、出力特性決定部3からの出力特性Cにより合成音声
出力レベル「7」が通知されると、合成音声選択信号S
の指定する「東京の」、「天気は」、「晴れです」の各
単語をもとに、合成音声出力レベル「7」で、「東京の
天気は晴れです」という音響信号Aを出力する。As described above, the output characteristic determination unit 3 determines the output level "7" of the synthesized voice as the output characteristic C, and notifies the voice synthesis output unit 4 of this. Speech synthesis output unit 4
When the synthesized voice output level “7” is notified by the output characteristic C from the output characteristic determination unit 3, the synthesized voice selection signal S
Based on the words "Tokyo's", "Weather", and "It's sunny" specified by, the sound signal A "The weather in Tokyo is sunny" is output at the synthesized voice output level "7".
【0044】同様にして、例えば23時14分に合成音
声出力要求Rが図1の情報提供端末に与えられ、その際
の合成音声選択信号Sの指定する単語の列が先の例と同
じ「東京の」、「天気は」、「晴れです」の3単語から
なっている場合には、出力特性決定部3から音声合成出
力部4に通知される合成音声出力レベルは「3」とな
り、「東京の天気は晴れです」という音響信号Aが、今
度は合成音声出力レベル「3」で出力される。Similarly, for example, at 23:14, the synthetic voice output request R is given to the information providing terminal of FIG. 1, and the sequence of words designated by the synthetic voice selection signal S at that time is the same as in the previous example. When it is composed of three words "of Tokyo", "weather", and "it is sunny", the synthesized voice output level notified from the output characteristic determination unit 3 to the voice synthesis output unit 4 is "3", and " The acoustic signal A "The weather in Tokyo is sunny" is output at the synthetic voice output level "3" this time.
【0045】このように本実施例によれば、時刻毎に、
出力される合成音声の出力特性が設定でき、時間帯によ
り環境ノイズのレベルが異なる場合でも、常に利用者が
聴取しやすい合成音声(音響信号A)を出力する情報提
供端末が実現できる。As described above, according to this embodiment,
It is possible to set the output characteristic of the synthetic speech to be output, and it is possible to realize an information providing terminal that outputs synthetic speech (acoustic signal A) that is always easy for the user to hear even when the level of environmental noise differs depending on the time of day.
【0046】以上は、環境ノイズのレベルが時間帯によ
り異なる場所に設置して用いられる情報提供端末に実施
した場合について説明したが、これに限るものではな
く、例えば、日付およびその属性(休日と平日の違いな
ど)によって環境ノイズのレベルが異なる場所に設置さ
れる情報提供端末に本発明を実施することも可能であ
る。The above description has been made on the case where the information providing terminal is installed and used at a place where the level of environmental noise varies depending on the time zone. However, the present invention is not limited to this, and for example, the date and its attribute (holiday and It is also possible to implement the present invention in an information providing terminal installed in a place where the level of environmental noise is different due to differences in weekdays.
【0047】以下、このような情報提供端末の一例を、
図8のブロック構成図を参照して説明する。なお、図1
と同一部分には、同一符号を付してある。まず図8に示
す情報提供端末は、日付検知部11、出力特性記憶部1
2、出力特性決定部13、および音声合成出力部4から
構成される。An example of such an information providing terminal will be described below.
This will be described with reference to the block diagram of FIG. Note that FIG.
The same reference numerals are given to the same portions as. First, the information providing terminal shown in FIG. 8 includes a date detection unit 11 and an output characteristic storage unit 1.
2, an output characteristic determination unit 13, and a voice synthesis output unit 4.
【0048】図8に示す情報提供端末に与えられる合成
音声出力要求Rは、音声合成出力部4の他に日付検知部
11に入力される。日付検知部11は、この合成音声出
力要求Rが入力された際の日付を検知して、出力特性決
定部13に通知する。日付検知部11は、内部に、日付
属性テーブル111を有しており、同テーブル111を
参照することで、合成音声出力要求Rが入力された日付
の属性も出力特性決定部13に通知する。The synthesized voice output request R given to the information providing terminal shown in FIG. 8 is input to the date detection unit 11 in addition to the voice synthesis output unit 4. The date detection unit 11 detects the date when the synthetic voice output request R is input and notifies the output characteristic determination unit 13 of the date. The date detection unit 11 internally has a date attribute table 111, and by referring to the table 111, the date detection unit 11 also notifies the output characteristic determination unit 13 of the attribute of the date when the synthetic voice output request R is input.
【0049】日付属性テーブル111の一例を図9に示
す。ここでは、日付の属性として休日(を示す情報)
が、対応する日付と共に登録されている。また、日付属
性の既定値として平日(を示す情報)が用意されてお
り、日付属性テーブル111にない日付の属性として、
この既定値が使用される。An example of the date attribute table 111 is shown in FIG. Here, the holiday is (information indicating) as the attribute of the date.
Are registered with the corresponding dates. Also, weekdays (information indicating) are prepared as the default value of the date attribute, and as the attribute of the date that is not in the date attribute table 111,
This default value will be used.
【0050】この図9の日付属性テーブル111を用い
た場合、例えば3月8日に合成音声出力要求Rが日付検
知部11に入力されたものとすると、日付検知部11か
ら出力特性決定部13には、日付「03/08」とその
属性「平日」が通知される。同様に、2月11日に合成
音声出力要求Rが入力されたならば、日付「02/1
1」とその属性「休日」が日付検知部11から出力特性
決定部13に通知される。When the date attribute table 111 of FIG. 9 is used, for example, assuming that the synthetic voice output request R is input to the date detecting section 11 on March 8, the date detecting section 11 outputs the output characteristic determining section 13. Is notified of the date “03/08” and its attribute “weekday”. Similarly, if the synthetic voice output request R is input on February 11, the date "02/1
1 ”and its attribute“ holiday ”are notified from the date detection unit 11 to the output characteristic determination unit 13.
【0051】なお、日付として、年号も併せて通知して
も構わない。また、日付の属性として、曜日を用いても
構わない。曜日を用いる場合、この属性は、日付(年月
日)から計算で求められることから、日付属性テーブル
(111)を用いずに属性を決定することが可能であ
る。As the date, the year may also be notified. Also, the day of the week may be used as the date attribute. When the day of the week is used, this attribute can be determined without using the date attribute table (111) because this attribute is calculated from the date (year, month, day).
【0052】出力特性決定部13は、日付検知部11か
ら通知された日付および属性をもとに出力特性記憶部1
2を参照して、出力する合成音の出力特性Cを決定す
る。出力特性記憶部12には、日付と属性に応じた出力
レベルが予め登録されている。The output characteristic determination unit 13 is based on the date and the attribute notified from the date detection unit 11, and the output characteristic storage unit 1
2, the output characteristic C of the synthetic sound to be output is determined. In the output characteristic storage unit 12, the output level according to the date and the attribute is registered in advance.
【0053】この出力特性記憶部12における登録例を
図10に示す。ここでは、出力レベルを「0」から
「9」の10段階で示しており、「0」が最も小さな出
力レベルに対応し、「9」が最も大きな出力レベルに対
応する。図10において、日付、属性のフィールドが
「−」になっているものがあるが、これは、そのフィー
ルドの項目(日付または属性)は検索に使用しないこと
を示す。FIG. 10 shows an example of registration in the output characteristic storage unit 12. Here, the output level is shown in 10 steps from "0" to "9", "0" corresponds to the smallest output level, and "9" corresponds to the largest output level. In FIG. 10, some fields of date and attribute have "-", which means that the item (date or attribute) of the field is not used for the search.
【0054】出力特性決定部13は、前記したように日
付検知部11から通知された日付および属性をもとに出
力特性記憶部12を参照して、その日付および属性の少
なくとも一方に対応した(出力する合成音声の)出力レ
ベルを決定し、その出力レベルを出力特性Cとして音声
合成出力部4に出力する。The output characteristic determination unit 13 refers to the output characteristic storage unit 12 based on the date and the attribute notified from the date detection unit 11 as described above, and corresponds to at least one of the date and the attribute ( The output level of the synthesized voice to be output is determined, and the output level is output to the voice synthesis output unit 4 as the output characteristic C.
【0055】したがって出力特性決定部13は、例え
ば、日付検知部11から通知された日付が「03/0
8」、その属性が「平日」であり、出力特性記憶部12
の内容が図10に示す内容であった場合、その属性「平
日」に対応する出力レベル「4]を出力特性Cとして音
声合成出力部4に出力する。Therefore, the output characteristic determining unit 13 determines, for example, that the date notified from the date detecting unit 11 is "03/0".
8 ”, the attribute is“ weekday ”, and the output characteristic storage unit 12
10 is the content shown in FIG. 10, the output level “4” corresponding to the attribute “weekday” is output to the voice synthesis output unit 4 as the output characteristic C.
【0056】ここで、出力特性決定部13が出力特性記
憶部12を検索する場合、日付フィールドの内容を属性
フィールドの内容に優先させる。このため、例えば、日
付検知部11から通知された日付が「07/07」、そ
の属性が「平日」である場合には、出力特性Cとして出
力レベル「8」が決定される。Here, when the output characteristic determination unit 13 searches the output characteristic storage unit 12, the contents of the date field are prioritized over the contents of the attribute field. Therefore, for example, when the date notified from the date detection unit 11 is “07/07” and the attribute thereof is “weekday”, the output level “8” is determined as the output characteristic C.
【0057】このように構成した場合、日付とその属性
毎に、出力される合成音声の出力特性が設定でき、日付
とその属性により環境ノイズのレベルが異なる場合で
も、常に利用者が聴取しやすい合成音声(音響信号A)
を出力する情報提供端末が実現できる。With such a configuration, the output characteristic of the synthesized voice to be output can be set for each date and its attribute, and even if the level of environmental noise differs depending on the date and its attribute, the user can always easily listen. Synthetic voice (acoustic signal A)
It is possible to realize an information providing terminal that outputs
【0058】以上は、日付とその属性毎に、出力される
合成音声の出力特性を設定する情報提供端末に実施した
場合について説明したが、更に時刻の要素を加味して合
成音声の出力特性を設定することも可能である。The above description has been made on the case where the present invention is carried out in the information providing terminal for setting the output characteristic of the synthesized voice to be output for each date and its attribute. It is also possible to set.
【0059】以下、このような情報提供端末の一例を、
図11のブロック構成図を参照して説明する。なお、図
1または図8と同一部分には、同一符号を付してある。
まず図11に示す情報提供端末は、時刻検知部1、日付
検知部11、出力特性記憶部22、出力特性決定部2
3、および音声合成出力部4から構成される。An example of such an information providing terminal will be described below.
This will be described with reference to the block diagram of FIG. The same parts as those in FIG. 1 or 8 are designated by the same reference numerals.
First, the information providing terminal shown in FIG. 11 includes a time detection unit 1, a date detection unit 11, an output characteristic storage unit 22, and an output characteristic determination unit 2.
3 and a voice synthesis output unit 4.
【0060】図11に示す情報提供端末に与えられる合
成音声出力要求Rは、音声合成出力部4の他に日付検知
部11および時刻検知部1に入力される。日付検知部1
1は、合成音声出力要求Rが入力された際の日付を検知
して、この日付とその属性を出力特性決定部23に通知
する。また時刻検知部1は、合成音声出力要求Rが入力
された際の時刻を検知して、この時刻を出力特性決定部
23に通知する。The synthesized voice output request R given to the information providing terminal shown in FIG. 11 is input to the date detection unit 11 and the time detection unit 1 in addition to the voice synthesis output unit 4. Date detector 1
1 detects the date when the synthetic voice output request R is input and notifies the output characteristic determining unit 23 of this date and its attribute. The time detection unit 1 detects the time when the synthetic voice output request R is input and notifies the output characteristic determination unit 23 of this time.
【0061】出力特性決定部23は、日付検知部11か
ら通知された日付および属性と時刻検知部1から通知さ
れた時刻をもとに出力特性記憶部22を参照して、出力
する合成音の出力特性Cを決定する。The output characteristic determination unit 23 refers to the output characteristic storage unit 22 on the basis of the date and the attribute notified from the date detection unit 11 and the time notified from the time detection unit 1, and determines the synthesized sound to be output. The output characteristic C is determined.
【0062】出力特性記憶部22には、日付、その属
性、および時刻に応じた出力レベルが予め登録されてい
る。この出力特性記憶部2における登録例を図12に示
す。ここでは、出力レベルを「0」から「9」の10段
階で示しており、「0」が最も小さな出力レベルに対応
し、「9」が最も大きな出力レベルに対応する。図12
において、日付、属性、時刻(ここでは、開始時刻と終
了時刻)のフィールドが「−」になっているものがある
が、これは、そのフィールドの項目(日付、属性または
時刻)は検索に使用しないことを示す。In the output characteristic storage unit 22, the output level according to the date, its attribute, and the time is registered in advance. An example of registration in the output characteristic storage unit 2 is shown in FIG. Here, the output level is shown in 10 steps from "0" to "9", "0" corresponds to the smallest output level, and "9" corresponds to the largest output level. 12
In some cases, the fields of date, attribute, and time (here, start time and end time) are "-". This means that the item (date, attribute or time) of that field is used for search. Indicates not to.
【0063】出力特性決定部23は、前記したように日
付検知部11から通知された日付および属性と時刻検知
部1から通知された時刻をもとに出力特性記憶部22を
参照して、その日付および属性の少なくとも一方、また
は時刻、或いは両方に対応した(出力する合成音声の)
出力レベルを決定し、その出力レベルを出力特性Cとし
て音声合成出力部4に出力する。The output characteristic determination unit 23 refers to the output characteristic storage unit 22 based on the date and the attribute notified from the date detection unit 11 and the time notified from the time detection unit 1 as described above, Corresponding to at least one of date and attribute, time, or both (of the synthesized voice to be output)
The output level is determined, and the output level is output to the voice synthesis output unit 4 as the output characteristic C.
【0064】したがって出力特性決定部23は、例え
ば、日付検知部11から通知された日付が「03/0
8」、その属性が「平日」、また出力特性記憶部12か
ら通知された時刻が「18:30」、そして出力特性記
憶部22の内容が図12に示す内容であった場合、日付
「03/08」の属性「平日」と時刻「18:30」が
属する時刻範囲(17:00〜19:59)に対応する
出力レベル「7]を出力特性Cとして音声合成出力部4
に出力する。Therefore, the output characteristic determining section 23 determines that the date notified from the date detecting section 11 is "03/0".
8 ”, its attribute is“ weekday ”, the time notified from the output characteristic storage unit 12 is“ 18:30 ”, and the content of the output characteristic storage unit 22 is the content shown in FIG. / 08 ”attribute“ weekday ”and time“ 18:30 ”belong to the time range (17:00 to 19:59) corresponding to the output level“ 7 ”as the output characteristic C.
Output to.
【0065】ここで、出力特性決定部23が出力特性記
憶部22を検索する場合の優先順序は、日付フィールド
が最も高く、以下、属性フィールド、時刻フィールド
(時刻範囲)の順となっている。このため、例えば、日
付が「07/07」、その属性が「平日」、そして時刻
が「08:00」の場合には、出力特性Cとして出力レ
ベル「7」が決定される。また、日付が「03/0
9」、その属性が「平日」、そして時刻が「02:0
0」の場合には、出力特性Cとして出力レベル「3」が
決定される。Here, the priority order when the output characteristic determination unit 23 searches the output characteristic storage unit 22 is highest in the date field, and then in the order of the attribute field and the time field (time range). Therefore, for example, when the date is “07/07”, the attribute thereof is “weekday”, and the time is “08:00”, the output level “7” is determined as the output characteristic C. In addition, the date is "03/0
9 ”, its attribute is“ weekday ”, and the time is“ 02: 0
In the case of "0", the output level "3" is determined as the output characteristic C.
【0066】このように構成した場合、日付とその属
性、更には時刻毎に、出力される合成音声の出力特性が
設定でき、日付とその属性、更には時刻により環境ノイ
ズのレベルが異なる場合でも、常に利用者が聴取しやす
い合成音声(音響信号A)を出力する情報提供端末が実
現できる。With such a configuration, the output characteristic of the synthesized voice to be output can be set for each date and its attribute, and further for each time, and even when the level of the environmental noise differs depending on the date, its attribute, and the time. Thus, it is possible to realize an information providing terminal that always outputs a synthetic voice (acoustic signal A) that is easily heard by the user.
【0067】以上の例では、音声合成出力部4で用いら
れる音声合成方式が、パラメータ編集方式であるものと
して説明したが、録音編集方式、或いは規則合成方式を
用いることも可能である。In the above example, the voice synthesizing method used in the voice synthesizing output section 4 is described as the parameter editing method, but it is also possible to use the recording editing method or the rule synthesizing method.
【0068】[0068]
【発明の効果】以上詳述したようにこの発明によれば、
環境ノイズが、時刻、或いは日付およびその属性の少な
くとも一方に密接に関連していることに着目し、合成音
声出力要求時の時刻と、日付およびその属性の全て、或
いは時刻のみ、或いは日付およびその属性のうちの少な
くとも一方を検知し、その検知内容に対応して出力記憶
手段に予め登録されている出力特性を、合成音声出力要
求時の環境ノイズに見合った合成音声出力特性であると
して、この特性で合成音声を出力する構成としたので、
音声合成を行う日付およびその属性、更には時刻に対応
する環境に適した出力特性を動的に決定して、利用者が
利用するあらゆる日付、時刻で、聴取しやすい合成音声
を出力することができる。As described above in detail, according to the present invention,
Focusing on the fact that environmental noise is closely related to at least one of time and / or date and its attribute, the time at the time of requesting a synthesized voice and all of the date and its attribute, or only the time, or the date and its attribute. At least one of the attributes is detected, and the output characteristic registered in advance in the output storage means corresponding to the detected content is regarded as the synthetic voice output characteristic corresponding to the environmental noise when the synthetic voice output is requested. Since it is configured to output synthetic voice with characteristics,
It is possible to dynamically determine the output characteristics suitable for the environment corresponding to the date and its attribute for performing voice synthesis and the time, and output the synthesized voice that is easy to hear at any date and time used by the user. it can.
【図1】本発明の一実施例に係る情報提供端末の概略構
成を示すブロック図。FIG. 1 is a block diagram showing a schematic configuration of an information providing terminal according to an embodiment of the present invention.
【図2】図1中の音声合成出力部4の第1の構成例を示
すブロック図。FIG. 2 is a block diagram showing a first configuration example of a voice synthesis output section 4 in FIG.
【図3】図2中の合成パラメータ記憶部43の記憶内容
例を示す図。FIG. 3 is a diagram showing an example of contents stored in a synthesis parameter storage unit 43 in FIG.
【図4】図2中の合成部44の実現例を示す図。FIG. 4 is a diagram showing an implementation example of a combining unit 44 in FIG.
【図5】図1中の音声合成出力部4の第2の構成例を示
すブロック図。5 is a block diagram showing a second configuration example of a voice synthesis output section 4 in FIG.
【図6】図1中の音声合成出力部4の第3の構成例を示
すブロック図。6 is a block diagram showing a third configuration example of a voice synthesis output section 4 in FIG.
【図7】図1中の出力特性記憶部2の記憶内容例を示す
図。7 is a diagram showing an example of stored contents of an output characteristic storage unit 2 in FIG.
【図8】本発明の情報提供端末の他の実施例を示す概略
ブロック構成図。FIG. 8 is a schematic block configuration diagram showing another embodiment of the information providing terminal of the present invention.
【図9】図8中の日付属性テーブル111の一例を示す
図。9 is a diagram showing an example of a date attribute table 111 in FIG.
【図10】図8中の出力特性記憶部12の記憶内容例を
示す図。FIG. 10 is a diagram showing an example of stored contents of an output characteristic storage unit 12 in FIG.
【図11】本発明の情報提供端末の更に他の実施例を示
す概略ブロック構成図。FIG. 11 is a schematic block configuration diagram showing still another embodiment of the information providing terminal of the present invention.
【図12】図11中の出力特性記憶部22の記憶内容例
を示す図。12 is a diagram showing an example of stored contents of an output characteristic storage unit 22 in FIG.
1…時刻検知部、2,12,22…出力特性記憶部、
3,13,23…出力特性決定部、4…音声合成出力
部、11…日付検知部、41…合成出力制御部、42…
パラメータ選択部、43…合成パラメータ記憶部、44
…合成部、45…D/A変換部、46…アナログ増幅
部、47…スピーカ部、111…日付属性テーブル。1 ... Time detection unit, 2, 12, 22 ... Output characteristic storage unit,
3, 13, 23 ... Output characteristic determination unit, 4 ... Voice synthesis output unit, 11 ... Date detection unit, 41 ... Synthesis output control unit, 42 ...
Parameter selection unit, 43 ... Synthesis parameter storage unit, 44
... synthesis section, 45 ... D / A conversion section, 46 ... analog amplification section, 47 ... speaker section, 111 ... date attribute table.
Claims (3)
情報提供端末において、 合成音声出力要求時の時刻を検知する時刻検知手段と、 各時刻に応じた合成音声の出力特性を記憶するための出
力特性記憶手段と、 前記時刻検知手段により検知された時刻と前記出力特性
記憶手段の記憶内容とをもとに合成音声の出力特性を決
定する出力特性決定手段と、 この出力決定手段によって決定された合成音声出力特性
で、合成音声を音響信号として出力する音声合成出力手
段とを具備することを特徴とする情報提供端末。1. An information providing terminal for providing information to a user by means of a synthetic voice, for storing time detection means for detecting a time when a synthetic voice output request is made, and storing output characteristics of the synthetic voice corresponding to each time. Output characteristic storage means, output characteristic determination means for determining the output characteristic of the synthesized speech based on the time detected by the time detection means and the stored contents of the output characteristic storage means, and the output characteristic determination means. An information providing terminal, comprising: a voice synthesizing output unit that outputs a synthetic voice as an acoustic signal with the synthesized voice output characteristic.
情報提供端末において、 合成音声出力要求時の日付およびその属性の少なくとも
一方を検知する日付検知手段と、 各日付およびその属性の少なくとも一方に応じた合成音
声の出力特性を記憶するための出力特性記憶手段と、 前記日付検知手段により検知された日付およびその属性
の少なくとも一方と前記出力特性記憶手段の記憶内容と
をもとに合成音声の出力特性を決定する出力特性決定手
段と、 この出力決定手段によって決定された合成音声出力特性
で、合成音声を音響信号として出力する音声合成出力手
段とを具備することを特徴とする情報提供端末。2. An information providing terminal for providing information to a user by means of synthetic voice, comprising: a date detecting means for detecting at least one of a date and its attribute at the time of requesting output of synthetic voice; and at least one of each date and its attribute. Output characteristic storage means for storing the output characteristic of the synthesized voice corresponding to the synthetic voice based on at least one of the date detected by the date detection means and its attribute and the stored contents of the output characteristic storage means. An information providing terminal, comprising: an output characteristic deciding means for deciding an output characteristic; and a speech synthesizing output means for outputting a synthetic speech as an acoustic signal with the synthetic speech output characteristic decided by the output deciding means.
情報提供端末において、 合成音声出力要求時の時刻を検知する時刻検知手段と、 前記合成音声出力要求時の日付およびその属性の少なく
とも一方を検知する日付検知手段と、 各日付およびその属性の少なくとも一方と各時刻とに応
じた合成音声の出力特性を記憶するための出力特性記憶
手段と、 前記時刻検知手段により検知された時刻と前記日付検知
手段により検知された日付およびその属性の少なくとも
一方と前記出力特性記憶手段の記憶内容とをもとに合成
音声の出力特性を決定する出力特性決定手段と、 この出力決定手段によって決定された合成音声出力特性
で、合成音声を音響信号として出力する音声合成出力手
段とを具備することを特徴とする情報提供端末。3. An information providing terminal for providing information to a user by means of synthetic voice, comprising: time detection means for detecting the time when a synthetic voice output is requested; and at least one of the date when the synthetic voice output is requested and its attribute. Date detection means for detecting, output characteristic storage means for storing output characteristics of synthesized speech corresponding to each date and at least one of its attributes and each time, the time detected by the time detection means and the date Output characteristic determining means for determining the output characteristic of the synthesized voice based on at least one of the date and its attribute detected by the detecting means and the stored contents of the output characteristic storing means, and the synthesis determined by the output determining means. An information providing terminal, comprising: a voice synthesis output unit that outputs a synthetic voice as an acoustic signal with a voice output characteristic.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5212693A JPH0764763A (en) | 1993-08-27 | 1993-08-27 | Information provision terminal |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5212693A JPH0764763A (en) | 1993-08-27 | 1993-08-27 | Information provision terminal |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0764763A true JPH0764763A (en) | 1995-03-10 |
Family
ID=16626872
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP5212693A Pending JPH0764763A (en) | 1993-08-27 | 1993-08-27 | Information provision terminal |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH0764763A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11224095A (en) * | 1998-02-06 | 1999-08-17 | Fujitsu Ten Ltd | Voice reproduction system |
-
1993
- 1993-08-27 JP JP5212693A patent/JPH0764763A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11224095A (en) * | 1998-02-06 | 1999-08-17 | Fujitsu Ten Ltd | Voice reproduction system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3873131B2 (en) | Editing system and method used for posting telephone messages | |
| JP2955247B2 (en) | Speech speed conversion method and apparatus | |
| EP1213704A2 (en) | Speech synthesis apparatus and method | |
| JP2006501509A (en) | Speech synthesizer with personal adaptive speech segment | |
| US20040220801A1 (en) | Pitch waveform signal generating apparatus, pitch waveform signal generation method and program | |
| JPH06125281A (en) | Voice decoder | |
| CN101379549B (en) | Speech synthesizing device, and speech synthesizing method | |
| JPH03136100A (en) | Method and device for voice processing | |
| JP2897701B2 (en) | Sound effect search device | |
| JP2001184100A (en) | Speaking speed converting device | |
| KR20150118974A (en) | Voice processing device | |
| JPH0764763A (en) | Information provision terminal | |
| US20040054524A1 (en) | Speech transformation system and apparatus | |
| JP3378672B2 (en) | Speech speed converter | |
| JP2003259311A (en) | Video playback method, video playback device, video playback program | |
| JP2009157220A (en) | Speech editing synthesis system, speech editing synthesis program, and speech editing synthesis method | |
| JP3081469B2 (en) | Speech speed converter | |
| JP2008070650A (en) | Music classification method, music classification apparatus, and computer program | |
| JPH10116097A (en) | Voice reproducing device | |
| JPH07191695A (en) | Speaking speed conversion device | |
| JPH0462600B2 (en) | ||
| JP3241582B2 (en) | Prosody control device and method | |
| JPH09146587A (en) | Speech speed changer | |
| JPH02153397A (en) | Voice recording device | |
| JP2007025039A (en) | Audio reproduction device, audio recording / reproduction device, and method, recording medium, and integrated circuit |