[go: up one dir, main page]

JPH0679228B2 - Japanese sentence / speech converter - Google Patents

Japanese sentence / speech converter

Info

Publication number
JPH0679228B2
JPH0679228B2 JP62098368A JP9836887A JPH0679228B2 JP H0679228 B2 JPH0679228 B2 JP H0679228B2 JP 62098368 A JP62098368 A JP 62098368A JP 9836887 A JP9836887 A JP 9836887A JP H0679228 B2 JPH0679228 B2 JP H0679228B2
Authority
JP
Japan
Prior art keywords
onomatopoeia
word
speech
dictionary
synthetic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP62098368A
Other languages
Japanese (ja)
Other versions
JPS63262696A (en
Inventor
賢一 谷口
淳悟 鬼頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP62098368A priority Critical patent/JPH0679228B2/en
Publication of JPS63262696A publication Critical patent/JPS63262696A/en
Publication of JPH0679228B2 publication Critical patent/JPH0679228B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 〈産業上の利用分野〉 この発明は、入力された日本語文から、その日本語文に
対する合成音声を自動的に得ることができる日本語文・
音声変換装置に関する。
[Detailed Description of the Invention] <Industrial field of application> This invention is a Japanese sentence that can automatically obtain a synthesized speech corresponding to the input Japanese sentence.
The present invention relates to a voice conversion device.

〈従来の技術〉 従来の日本語文・音声変換装置は、通常の日本語の単語
を合成音声に変換して発生するようにしている(例えば
「研究実用化報告」vol.32no.11(1983))。したがっ
て、この方法で擬声語を合成音声に変換する場合は、音
や声を真似て表した擬声語を予め日本語辞書に格納して
おき、例えば、入力された音声信号を上記日本語辞書を
参照して単語に分割し、この分割された単語の読みに対
応する合成単位の音声データを結合して求めた音声合成
用パラメータ時系列に従って、実際の音声波形を生成す
る通常の音声合成の手段を用いて、合成音声を生成して
出力する。
<Prior Art> A conventional Japanese sentence / speech conversion device converts a normal Japanese word into synthetic speech and generates it (for example, “Research Practical Report” vol.32 no.11 (1983)). ). Therefore, when converting an onomatopoeic word into a synthetic voice by this method, an onomatopoeic word that imitates a sound or a voice is stored in a Japanese dictionary in advance, and for example, the input voice signal is referred to the above Japanese dictionary. By dividing it into words and combining the voice data of the synthesis unit corresponding to the reading of the divided words, according to the time series of the voice synthesis parameters obtained, using a normal voice synthesis means for generating an actual voice waveform. To generate and output synthetic speech.

〈発明が解決しようとする問題点〉 しかしながら、上記従来の日本語文・音声変換装置は、
予め日本語辞書に格納した擬声語に基づいて、入力され
た擬声語を合成音声に変換するようにしているため、単
に、入力された擬声語の合成音声が出力されるだけであ
り、よりリアリティのある表現ができない。
<Problems to be Solved by the Invention> However, the conventional Japanese sentence / speech conversion device described above is
Since the input onomatopoeia is converted into synthetic speech based on the onomatopoeia stored in the Japanese dictionary in advance, only the synthetic speech of the input onomatopoeia is output, and a more realistic expression is possible. I can't.

そこで、この発明の目的は、入力日本語文字列の中に擬
声語や擬音を表わすコードが入っている場合、その擬声
語やコードに対応する擬音を合成音声(以下、合成擬音
と言う)として出力し、よりリアリティのある擬音を含
む合成音声の出力を行なう日本語文・音声変換装置を提
供することにある。
Therefore, an object of the present invention is to output an onomatopoeia corresponding to the onomatopoeic word or code as synthetic speech (hereinafter referred to as synthetic onomatopoeia) when the input Japanese character string contains a code representing an onomatopoeic word or an onomatopoeia. , Providing a Japanese sentence / speech conversion device that outputs synthetic speech including more realistic onomatopoeia.

〈問題点を解決するための手段〉 上記目的を達成するため、この発明の日本語文・音声変
換装置は、入力された日本語文字列に含まれる擬音語を
擬音データ辞書コードに変換するための擬音語辞書と、
上記擬声語データ辞書コードに対応づけられた擬音デー
タを蓄えておく擬音データ辞書と、上記擬音データ辞書
コードを上記擬音データ辞書に基づいて擬音データに変
換して、合成擬音波形を合成する擬音合成部を備えて、
擬音データ辞書コードまたは擬声語を含む日本語文字列
を、擬音を含む合成音声に変換することを特徴としてい
る。
<Means for Solving Problems> In order to achieve the above-mentioned object, the Japanese sentence / speech conversion apparatus of the present invention converts an onomatopoeia contained in an input Japanese character string into an onomatopoeia data dictionary code. An onomatopoeia dictionary,
An onomatopoeia data dictionary that stores onomatopoeia data associated with the above onomatopoeia data dictionary code, and an onomatopoeia synthesizer that converts the above onomatopoeia data dictionary code into onomatopoeia data based on the above onomatopoeia data dictionary and synthesizes a synthetic onsound waveform. With
It is characterized by converting Japanese character strings containing onomatopoeia data dictionary codes or onomatopoeic words into synthetic speech containing onomatopoeia.

〈作用〉 擬音データ辞書コードあるいは擬声語を含む日本語文字
列が単語分割処理部に入力されると、上記擬声語は上記
単語分割処置部によって、擬音語辞書を参照して擬音デ
ータ辞書コードに変換されて出力される。この変換され
た擬音データ辞書コードあるいは上記日本語文字列に含
まれた擬音データ辞書コードは、擬音合成部によって、
擬音データ辞書を参照して擬音データに変換されて合成
擬音波形が生成され、擬声語以外の日本語文字列に基づ
いて音声合成部から出力される合成音声波形と合わせ
て、擬音を含む合成音声として出力される。したがっ
て、日本語文字列中の擬声語あるいは擬音データ辞書コ
ードが自動的に合成擬音に変換され、合成音声によって
リアリティのある表現が可能となる。
<Operation> When a Japanese character string containing an onomatopoeia data dictionary code or an onomatopoeia word is input to the word segmentation processing unit, the above onomatopoeia word is converted into an onomatopoeia data dictionary code by the word segmentation processing unit with reference to the onomatopoeia dictionary. Is output. The converted onomatopoeia data dictionary code or the onomatopoeia data dictionary code included in the Japanese character string is
It is converted into onomatopoeia data by referring to the onomatopoeia data dictionary to generate a synthetic onomatopoeia, and combined with the synthetic speech waveform output from the speech synthesizer based on the Japanese character strings other than onomatopoeic words, as a synthetic speech containing onomatopoeia. Is output. Therefore, the onomatopoeic word or the onomatopoeia data dictionary code in the Japanese character string is automatically converted into a synthetic onomatopoeia, and the synthetic voice enables a realistic expression.

〈実施例〉 以下、この発明の日本語文・音声変換装置を図示の実施
例により詳細に説明する。
<Embodiment> Hereinafter, the Japanese sentence / speech conversion apparatus of the present invention will be described in detail with reference to the illustrated embodiment.

第1図はこの発明の日本語文・音声変換装置の実施例に
おけるブロック図であり、第2図は第1図のブロック図
に従って、擬声語を含む日本語文字列「犬がワンワン鳴
く。」が入力された場合の処理例を示す。第1図,第2
図に示すように、入力部101から単語分割処理部102に、
擬声語を含む日本語かな混じり文“犬がワンワン鳴
く。”が入力されると、上記単語分割処理部102は日本
語辞書103および擬声語辞書104を参照して、従来から行
われている最長一致法や文のなかの文節数が最小になる
ように単語を選択する文節数最小法を用いて、文を単語
に分割する単語分割処理を行う。その際に、分割された
単語が擬声語があれば、上記擬声語辞書104に格納され
ている擬声語読み“ワンワン”に対応する擬音データ辞
書コード“1"を擬音合成部111に出力する。ここで、擬
声語辞書104の構成例を次に示す。
FIG. 1 is a block diagram of an embodiment of the Japanese sentence / speech conversion apparatus of the present invention, and FIG. 2 is a block diagram of FIG. An example of processing in the case of being performed is shown. Fig. 1 and 2
As shown in the figure, from the input unit 101 to the word division processing unit 102,
When a Japanese kana-mixed sentence containing an onomatopoeic word, "Inu wa wa wa wo wa wa." Is input, the word segmentation processing unit 102 refers to the Japanese dictionary 103 and the onomatopoeic word dictionary 104 to execute the longest matching method that has been conventionally performed. The word segmentation process is performed to divide a sentence into words by using the minimum phrase number method that selects words so that the number of phrases in a sentence or sentence is minimized. At this time, if the divided words include an onomatopoeic word, the onomatopoeia data dictionary code “1” corresponding to the onomatopoeia reading “one-one” stored in the above onomatopoeia word dictionary 104 is output to the onomatopoeia synthesis unit 111. Here, a configuration example of the onomatopoeia dictionary 104 is shown below.

上記擬声語辞書104中の擬音語読みは、単語分割処理部1
02において擬声語検出を行う場合に用いられる。
The onomatopoeia reading in the above onomatopoeia dictionary 104 is performed by the word division processing unit 1
It is used when detecting onomatopoeic words in 02.

上記単語分割処理部102において分割された単語列“/
犬/が/ワンワン/鳴く/"は、単語読み処理部105で、
同じ文字でありながら違う読み,アクセントで発声する
単語を区別する同形異義選択処理が行われる。また、そ
の際に、擬声語“ワンワン”の部分には、後に擬音を挿
入する部分であるという印としてマーカー1が挿入され
る。上記単語読み処理部105から出力される単語列“/
イヌ/ガ/(マーカー1)/ナク/"の読みに基づいて、
音声パラメータ生成部107で、合成単位の音声データが
格納されている音声データ辞書110を参照して、上記単
語の読みに対応する合成単位の音声データが検索され、
その合成単位の音声データ間が補間されて結合されて、
最終的に“/イヌ/ガ/(マーカー1)/ナク/"に対応
する音声合成用パラメータ時系列が得られる。その際
に、上記マーカー1の部分に対応する位置には、上記擬
音合成部111に動作を指示するためのマーカー2が挿入
される。
The word string “/” divided by the word division processing unit 102
The dog / ga / one-one / crowd / "is the word reading processing unit 105.
An isomorphic selection process is performed to distinguish words that are the same but have different readings and accents. At that time, the marker 1 is inserted in the part of the onomatopoeic word "one-one" as a mark that the onomatopoeia is to be inserted later. The word string "/ output from the word reading processing unit 105
Based on the reading of dog / moth / (marker 1) / nak / "
The voice parameter generation unit 107 refers to the voice data dictionary 110 in which the voice data of the synthesis unit is stored to search the voice data of the synthesis unit corresponding to the reading of the word,
The voice data of the synthesis unit are interpolated and combined,
Finally, a voice synthesis parameter time series corresponding to "/ dog / moth / (marker 1) / naku /" is obtained. At that time, the marker 2 for instructing the onomatopoeia synthesis unit 111 to operate is inserted at a position corresponding to the portion of the marker 1.

一方、韻律処理部106では、上記単語分割処理部102から
の出力に基づいて、単語が連鎖した際の文節のアクセン
トやポーズの設定が行われる。その際に、上記単語読み
処理部105と同様に擬音部を示すマーカー1が挿入され
ると共に、そのマーカー1の前後には短いポーズが挿入
される 韻律パラメータ生成部108では、上記音声パラメータ生
成部107から出力される音声合成用パラメータ時系列を
構成する音声合成用の合成単位に対する継続時間,ピッ
チパターンおよびパワーパターンの生成が行われる。
On the other hand, in the prosody processing unit 106, accents and poses of bunsetsus when the words are chained are set based on the output from the word division processing unit 102. At this time, the marker 1 indicating the onomatopoeia part is inserted like the word reading processing unit 105, and short pauses are inserted before and after the marker 1. The prosody parameter generation unit 108 generates a duration, a pitch pattern, and a power pattern for a synthesis unit for speech synthesis that constitutes the speech synthesis parameter time series output from the speech parameter generation unit 107.

音声合成部109では、上記音声パラメータ生成部107から
出力される音声合成用パラメータ時系列と、上記韻律パ
ラメータ生成部108から出力される上記継続時間,ピッ
チパターンおよびパワーパターンとに基づいて、“イヌ
ガ",“ナク”の合成音声波形が順次生成され、出力部11
3に出力される。一方、擬音合成部111では、上記単語分
割処理部102から出力される擬声語データ辞書コード
“1"が上記擬音データ辞書112を参照して擬音データに
変換されて、擬声語「ワンワン」に相当する、実際の合
成擬音波形が生成されて上記出力部113に出力される。
その際に、上記音声合成部109と擬音合成部111の出力タ
イミングは次のように設定されている。すなわち、音声
合成部109は、音声パラメータ生成部107から出力される
音声合成用パラメータ時系列に従って“イヌガ”の合成
音声波形を出力し、次のマーカー2(第2図においては
§)の部分では音声合成部109の動作を停止させ、擬声
合成部111に動作を指示する信号を出力する。上記擬声
合成部111はこの指示によって動作を開始して、「ワン
ワン」に相当する合成擬音波形を生成して出力する。擬
音合成部111は出力が終わると、出力が終わったことを
示す信号を音声合成部109に出力し、音声合成部109は再
び“ナク”の合成音声波形の生成を続行する。このよう
にして、入力された日本語文中の擬声語の部分を擬音に
置き換えて、合成音声を出力することができるのであ
る。したがって、入力された日本語文に含まれる擬声語
が合成擬音として出力され、よりリアリティのある音声
表現を行うことができる。
In the voice synthesis unit 109, based on the voice synthesis parameter time series output from the voice parameter generation unit 107 and the duration, pitch pattern and power pattern output from the prosody parameter generation unit 108, the Synthetic speech waveforms of "," Naku "are sequentially generated, and output section 11
Output to 3. On the other hand, in the onomatopoeia synthesis unit 111, the onomatopoeia data dictionary code “1” output from the word division processing unit 102 is converted into onomatopoeia data by referring to the above onomatopoeia data dictionary 112, and corresponds to the onomatopoeia “one-one”. An actual synthetic pseudo-sound waveform is generated and output to the output unit 113.
At that time, the output timings of the voice synthesis unit 109 and the onomatopoeia synthesis unit 111 are set as follows. That is, the voice synthesis unit 109 outputs the synthesized voice waveform of “Inuga” according to the voice synthesis parameter time series output from the voice parameter generation unit 107, and in the next marker 2 (§ in FIG. 2) part. The operation of the voice synthesis unit 109 is stopped, and a signal instructing the operation is output to the onomatopoeia synthesis unit 111. The onomatopoeia synthesizing unit 111 starts its operation in response to this instruction, and generates and outputs a synthetic pseudo-sound waveform corresponding to “one-one”. When the onomatopoeia synthesizing unit 111 finishes the output, it outputs a signal indicating that the output is finished to the voice synthesizing unit 109, and the voice synthesizing unit 109 continues to generate the synthesized speech waveform of "naku" again. In this way, the part of the onomatopoeia in the input Japanese sentence can be replaced with the onomatopoeia, and the synthesized speech can be output. Therefore, the onomatopoeia included in the input Japanese sentence is output as a synthetic onomatopoeia, and more realistic voice expression can be performed.

第2の実施例は、単に擬声語を擬音に置き換えるだけで
はなく、文の内容に応じて文の状況にマッチした擬音を
自動的に生成するものであり、第3図にそのブロック図
を示す。第3図において、第1図と異なる点は状況分析
部314が追加された点である。また、日本語辞書303は第
1の実施例における構成に加えて、主語となる名詞、述
語となる動詞,形容詞および形容動詞のうち、音や声に
関する単語(例えば、名詞ならば犬,車,動詞ならば鳴
く,走る,騒ぐ、形容詞ならばうるさい、形容動詞なら
ばにぎやかだ)について、擬音の種類を示すコードを各
単語に付加しておく。
The second embodiment not only replaces the onomatopoeia with onomatopoeia but also automatically generates onomatopoeia that matches the situation of the sentence according to the content of the sentence, and its block diagram is shown in FIG. In FIG. 3, the difference from FIG. 1 is that a situation analysis unit 314 is added. In addition to the configuration of the first embodiment, the Japanese dictionary 303 includes, in addition to the configuration of the first embodiment, a noun as a subject, a verb as a predicate, an adjective and an adjective as a word related to sound or voice (for example, a noun is dog, car, For verbs, sing, run, make noise, if adjectives are noisy, and if adjective verbs are lively, add a code indicating the type of onomatopoeia to each word.

上記状況分析部314では、単語分割処理部302から出力さ
れる単語の読み,品詞等の情報と、上記擬音の種類を示
すコードを参照して、主語,述語の関係を満たす単語の
組み合わせから、擬声語辞書304を参照して対応する擬
音データ辞書コードを検索し、得られた擬音データ辞書
コードが擬音合成部311に出力される。一方、単語読み
処理部305と韻律処理部306には、上記単語分割処理部30
2から出力された単語の読みの末尾にマーカー1を入れ
たデータが出力され、以後、第1の実施例と同様の処理
が行われる。合成音声の出力に際しては、音声合成部30
9で、文の音声合成出力処理が終わって、上記マーカー
1を読み取ると、音声合成部309から擬音合成部311へ音
声合成出力処理が終了したことを示す信号が出力され、
この信号を受けた擬音合成部311から擬音が合成出力さ
れる。
The situation analysis unit 314 refers to information such as word reading and part-of-speech output from the word division processing unit 302, and a code indicating the type of the onomatopoeia, from a combination of words satisfying the relationship between the subject and the predicate, The onomatopoeia dictionary 304 is searched for a corresponding onomatopoeia data dictionary code, and the obtained onomatopoeia data dictionary code is output to the onomatopoeia synthesis unit 311. On the other hand, in the word reading processing unit 305 and the prosody processing unit 306, the word division processing unit 30
Data in which the marker 1 is inserted at the end of the reading of the word output from 2 is output, and thereafter, the same processing as in the first embodiment is performed. When outputting synthetic speech, the speech synthesis unit 30
When the marker 1 is read after the voice synthesis output process of the sentence is finished in 9, the voice synthesis unit 309 outputs a signal indicating that the voice synthesis output process is finished to the onomatopoeia synthesis unit 311.
Upon receiving this signal, the onomatopoeia synthesizer 311 synthesizes and outputs onomatopoeia.

例えば、名詞「犬」と動詞「鳴く」が入力されると、上
述のように「犬」と「鳴く」に付加されている擬音の種
類を示すコードから擬音データ辞書コード“1"の「ワン
ワン」を指定する。そして、入力された「犬」と「鳴
く」を用いた日本語文を合成音声に合成し終わった後
に、短いポーズをおいて擬声語「ワンワン」に対応する
擬音を合成出力し、再び短いポーズをおいて、次に入力
された日本語文の音声合成を始めるのである。その出力
例を以下に示す。
For example, when the noun "dog" and the verb "bark" are entered, the code indicating the type of the onomatopoeia added to "dog" and "bark" as described above becomes "one-one-one" of the onomatopoeia data dictionary code "1". Is specified. Then, after synthesizing the Japanese sentence using the input "dog" and "bark" into the synthesized voice, put a short pause and synthesize and output the onomatopoeia corresponding to the onomatopoeic word "wan-wan", and then repeat the short pause. Then, the speech synthesis of the next input Japanese sentence is started. The output example is shown below.

入力文「犬の遠吠えが聞こえた」 出力 “イヌノトオボエガキコエタ(ポーズ) (犬の遠吠えの擬音)(ポーズ)(次の文)” 第3の実施例は、第3図において入力される日本語文中
に直接上記擬音データ辞書コード等の擬音の種類を示す
記号を挿入して、予め入力日本語文において擬音を指定
しておき、単語分割処理部302でその記号を検出して、
状況分析部314で擬音の出力タイミングを計って擬音合
成部311を起動して合成擬音を出力するものである。そ
の際に、上記合成擬音の出力タイミングとして次の2種
類を用意しておく。すなわち、1つは合成音声と同時に
合成擬音を出力する方法であり、出力される合成音声の
バックグラウンドとして合成擬音を出力する方法であ
る。もう1つは合成音声中の指定された部分に割り込ん
で合成擬音を出力する方法である。前者の出力合成音声
のバックグラウンドとして合成擬音を出力する方法の場
合は、擬音を示す部分にマーカー3を入れておくことに
よって実施される。上記音声パラメータ生成部307から
出力される音声合成用パラメータ時系列中のマーカー3
の部分で、音声合成部309から擬音合成部311に起動を指
示する制御信号が出力されると共に、上記音声合成部30
9は上記擬音合成部311が擬音合成を終了するのを待たず
に、そのまま擬音合成部311と並列して動作し続け、合
成音声が合成されて、出力部313に出力される。したが
って、出力部313は、音声合成部309と擬音合成部311の
出力をミキシングして合成音声波形として出力すること
ができる。一方、後者の出力合成音声に割り込んで合成
擬音を出力する方法の場合は、同様に擬音を入れたい部
分にマーカー3を挿入しておくことによって実施され
る。音声合成部309は第1の実施例と同様に、マーカー
3の部分で擬音合成部311に起動を指示する信号を出力
すると同時に動作を停止し、擬音合成部311の出力が終
了すると再び音声合成出力動作を開始する。
Input sentence "I heard a dog howling" Output "Inunotooboe gaikoeta (pose) (dog howling onomatopoeia) (pose) (next sentence)" The third embodiment is input in Fig. 3 Japan Insert a symbol indicating the type of onomatopoeia such as the above onomatopoeia data dictionary code directly in the word sentence, specify the onomatopoeia in the input Japanese sentence in advance, and detect the symbol in the word division processing unit 302,
The situation analysis unit 314 measures the output timing of the onomatopoeia and activates the onomatopoeia synthesis unit 311 to output the onomatopoeia. At that time, the following two types are prepared as the output timing of the synthetic onomatopoeia. That is, one is a method of outputting the synthetic onomatopoeia at the same time as the synthetic speech, and a method of outputting the synthetic onomatopoeia as the background of the outputted synthetic voice. The other is a method of interrupting a designated portion in the synthetic voice and outputting a synthetic onomatopoeia. In the former method of outputting a synthetic onomatopoeia as a background of output synthetic speech, it is carried out by inserting a marker 3 in a portion indicating the onomatopoeia. Marker 3 in the time series of speech synthesis parameters output from the speech parameter generation unit 307
In this part, the voice synthesizer 309 outputs a control signal for instructing the onomatopoeia synthesizer 311 to start up, and the voice synthesizer 30
9 continues to operate in parallel with the onomatopoeia synthesis unit 311 without waiting for the onomatopoeia synthesis unit 311 to complete onomatopoeia synthesis, and the synthesized voice is synthesized and output to the output unit 313. Therefore, the output unit 313 can mix the outputs of the voice synthesis unit 309 and the onomatopoeia synthesis unit 311 and output the mixed voice waveform. On the other hand, in the latter method of outputting a synthetic onomatopoeia by interrupting the output synthetic voice, the marker 3 is similarly inserted in a portion where an onomatopoeia is desired to be inserted. As in the first embodiment, the voice synthesis unit 309 outputs a signal instructing the onomatopoeia synthesis unit 311 to activate at the marker 3 and at the same time stops the operation, and when the output of the onomatopoeia synthesis unit 311 ends, the voice synthesis is performed again. Start output operation.

例えば、上記マーカー3として、合成擬音と合成音声を
同時にミキシングして出力する記号▽と、合成擬音を合
成音声に割り込ませて出力する記号▼を設定し、上記夫
々の記号の後の数字で擬音データ辞書コードを示すこと
とする。そうすると、 入力例文「▽20海鳴りがする。▽」 では、前の記号▽で擬音の始点が指示され、後の記号▽
で擬音の終点が指示され、擬音データ辞書コード“20"
で海鳴りの擬音が指定される。したがって、この場合の
出力合成声は、“ウミナリガスル”と合成音声が出力さ
れている間、バックグラウンドとして海鳴りの合成擬音
が同時に出力されるのである。また、 入力例文「海鳴りが▼20,1.5する」 では、記号▼で擬音の挿入位置が指示され、擬音データ
辞書コード“20"で海鳴りの擬音が指定され、カンマの
次の数字で擬音の継続時間が指示される。したがって、
この場合の出力合成音声は、“ウミナリガ”と“スル”
の合成音声の間に海鳴りの合成擬音を1.5秒間割り込ま
せて、 “ウミナリガ(1.5秒間の海鳴りの合成擬音)スル”
と、出力されるのである。
For example, as the marker 3, a symbol ▽ that mixes and outputs a synthetic onomatopoeia and a synthetic voice at the same time, and a symbol ▼ that interrupts and outputs the synthetic onomatopoeia to the synthetic voice are set. The data dictionary code is shown below. Then, in the input example sentence "▽ 20 sea noises. ▽", the starting point of the onomatopoeic is designated by the preceding symbol ▽, and the subsequent symbol ▽.
Is used to specify the end point of the onomatopoeia, and the onomatopoeia data dictionary code “20”
Specifies an onomatopoeia. Therefore, in the output synthetic voice in this case, while the "Uminarigasuru" and the synthetic voice are output, the synthetic quasi-sound of the sea noise is simultaneously output as the background. In addition, in the input example sentence “Umimeri ▼ 20,1.5”, the symbol ▼ indicates the insertion position of the onomatopoeia, the onomatopoeia data dictionary code “20” specifies the onomatopoeia, and the next number after the comma continues the onomatopoeia. Time is indicated. Therefore,
In this case, the output synthetic speech is "Uminaliga" and "Suru".
Synthetic sound of sea roar is interrupted for 1.5 seconds between synthetic voices of "Uminaliga (synthetic onomatopoeia of sea sound for 1.5 seconds) through"
Is output.

〈発明の効果〉 以上より明らかなように、この発明の日本語文・音声変
換装置は、擬声語辞書と擬音データ辞書と擬音合成部と
を備えて、入力された日本語文字列に含まれた擬声語を
上記擬声語辞書を用いて擬音データ辞書コードを変換
し、上記変換された擬音データ辞書コードあるいは直接
入力された擬音データ辞書コードを、上記擬音合成部に
よって、上記擬音データ辞書を用いて擬音データ辞書コ
ードに変換して、合成擬音波形を生成するようにしたの
で、日本語文字列中の擬声語あるいは擬音データ辞書コ
ードが自動的に合成擬音に変換され、合成音声によって
リアリティのある表現が可能となる。
<Effects of the Invention> As is clear from the above, the Japanese sentence / speech conversion device of the present invention includes the onomatopoeia word dictionary, the onomatopoeia data dictionary, and the onomatopoeia synthesis unit, and includes the onomatopoeia words included in the input Japanese character string. Is converted into an onomatopoeia data dictionary code using the above onomatopoeia dictionary, and the converted onomatopoeia data dictionary code or the directly input onomatopoeia data dictionary code is converted into an onomatopoeia data dictionary by the above onomatopoeia synthesis section using the above onomatopoeia data dictionary. Since it is converted to a code to generate a synthetic pseudophone, the onomatopoeic word in the Japanese character string or the onomatopoeia data dictionary code is automatically converted to a synthetic onomatopoeia, which enables a realistic expression by the synthetic voice. .

【図面の簡単な説明】[Brief description of drawings]

第1図はこの発明の一実施例におけるブロック図、第2
図は上記実施例における処理の流れを示す図、第3図は
上記実施例とは異なる実施例におけるブロック図であ
る。 101,301…入力部、 102,302…単語分割処理部、 103,303…日本語辞書、 104,304…擬音語辞書、 105,305…単語読み処理部、 106,306…韻律処理部、 107,307…音声パラメータ生成部、 108,308…韻律パラメータ生成部、 109,309…音声合成部、 110,310…音声データ辞書、 111,311…擬音合成部、 112,312…擬音データ辞書、 113,313…出力部、314…状況分析部。
FIG. 1 is a block diagram of an embodiment of the present invention, and FIG.
FIG. 3 is a diagram showing the flow of processing in the above embodiment, and FIG. 3 is a block diagram in an embodiment different from the above embodiment. 101,301 ... Input section, 102,302 ... Word division processing section, 103,303 ... Japanese dictionary, 104,304 ... Onomatopoeia dictionary, 105,305 ... Word reading processing section, 106,306 ... Prosodic processing section, 107,307 ... Voice parameter generating section, 108,308 ... Prosodic parameter generating section , 109, 309 ... Voice synthesis unit, 110, 310 ... Voice data dictionary, 111, 311 ... Onomatopoeia synthesis unit, 112, 312 ... Onomatopoeia data dictionary, 113, 313 ... Output unit, 314 ... Situation analysis unit.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】単語分割処理部、単語読み処理部、韻律処
理部および日本語辞書を有する言語処理部と、韻律パラ
メータ生成部、音声パラメータ生成部、音声合成部およ
び音声データ辞書を有する音声合成部を持って、入力さ
れた日本語文字列を合成音声に変換する日本語文・音声
変換装置であって、 入力された擬音語から、擬音データの種類を示すコード
である擬音データ辞書コードを得るため、擬音語読みと
上記擬音データ辞書コードとを対応づけて格納した擬声
語辞書と、 上記擬音データ辞書コードから擬音データを得るため、
擬音データ辞書コードと擬音データとを対応づけて格納
した擬音データ辞書と、 上記擬声語辞書を用いて変換された上記擬声データ辞書
コード、あるいは直接入力された上記擬音データ辞書コ
ードを、上記擬音データ辞書を用いて擬音データに変換
して擬音の合成波形を生成する擬音合成部とを備えて、
擬音データ辞書コードまたは擬声語を含む入力された日
本語文字列を、擬音を含む合成音声に変換することを特
徴とする日本語文・音声変換装置。
1. A language processing unit having a word division processing unit, a word reading processing unit, a prosody processing unit and a Japanese dictionary, and a speech synthesis having a prosody parameter generation unit, a speech parameter generation unit, a speech synthesis unit and a speech data dictionary. A Japanese sentence-to-speech conversion device for converting an input Japanese character string into a synthetic voice with a section, and obtains an onomatopoeia data dictionary code, which is a code indicating the type of onomatopoeia data, from the input onomatopoeia Therefore, in order to obtain the onomatopoeia data from the onomatopoeia word dictionary in which the onomatopoeia reading and the above onomatopoeia data dictionary code are stored in association with each other, and the above onomatopoeia data dictionary code,
The onomatopoeia data dictionary in which the onomatopoeia data dictionary code and the onomatopoeia data are stored in association with each other, the above onomatopoeia data dictionary code converted by using the above onomatopoeia word dictionary, or the above-mentioned onomatopoeia data dictionary code which is directly input is the above onomatopoeia data. An onomatopoeia synthesizing unit for converting into onomatopoeia data using a dictionary to generate a synthetic waveform of the onomatopoeia,
A Japanese sentence / speech conversion device characterized by converting an input Japanese character string containing an onomatopoeia data dictionary code or an onomatopoeic word into a synthetic speech containing an onomatopoeia.
JP62098368A 1987-04-20 1987-04-20 Japanese sentence / speech converter Expired - Fee Related JPH0679228B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62098368A JPH0679228B2 (en) 1987-04-20 1987-04-20 Japanese sentence / speech converter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62098368A JPH0679228B2 (en) 1987-04-20 1987-04-20 Japanese sentence / speech converter

Publications (2)

Publication Number Publication Date
JPS63262696A JPS63262696A (en) 1988-10-28
JPH0679228B2 true JPH0679228B2 (en) 1994-10-05

Family

ID=14217937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62098368A Expired - Fee Related JPH0679228B2 (en) 1987-04-20 1987-04-20 Japanese sentence / speech converter

Country Status (1)

Country Link
JP (1) JPH0679228B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002221980A (en) * 2001-01-25 2002-08-09 Oki Electric Ind Co Ltd Text voice converter
JP2002318594A (en) * 2001-04-20 2002-10-31 Sony Corp Language processing system and language processing method as well as program and recording medium

Also Published As

Publication number Publication date
JPS63262696A (en) 1988-10-28

Similar Documents

Publication Publication Date Title
US8219398B2 (en) Computerized speech synthesizer for synthesizing speech from text
US7010489B1 (en) Method for guiding text-to-speech output timing using speech recognition markers
JP2000206982A (en) Speech synthesizer and machine readable recording medium which records sentence to speech converting program
US20040054537A1 (en) Text voice synthesis device and program recording medium
US20040102975A1 (en) Method and apparatus for masking unnatural phenomena in synthetic speech using a simulated environmental effect
JP3518253B2 (en) Data editing device
JPH0679228B2 (en) Japanese sentence / speech converter
JPH1165597A (en) Speech synthesis device, speech synthesis and CG synthesis output device, and interactive device
JP2785628B2 (en) Pitch pattern generator
JPH05281984A (en) Method and device for synthesizing speech
JPH08328578A (en) Text voice synthesizer
JP3357796B2 (en) Speech synthesis apparatus and method for generating prosodic information in the apparatus
JP3060422B2 (en) Voice rule synthesizer
JP2003140679A (en) Speech synthesis apparatus and method, and computer-readable recording medium storing a program for causing a computer to execute speech synthesis processing
JP2573586B2 (en) Rule-based speech synthesizer
JPH09230892A (en) Text-speech conversion device
JP2549103B2 (en) Speech synthesizer
JPS59155899A (en) Voice synthesization system
JP2622834B2 (en) Text-to-speech converter
JPH02251998A (en) Voice synthesizing device
JP2839492B2 (en) Speech synthesis apparatus and method
JPH06168265A (en) Language processor and speech synthesizer
JPH0297999A (en) speech synthesizer
JPS626299A (en) Electronic singing apparatus
JPS60113299A (en) Voice synthesizer

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees