JP2018084604A - Cross lingual voice synthesis model learning device, cross lingual voice synthesis device, cross lingual voice synthesis model learning method, and program - Google Patents
Cross lingual voice synthesis model learning device, cross lingual voice synthesis device, cross lingual voice synthesis model learning method, and program Download PDFInfo
- Publication number
- JP2018084604A JP2018084604A JP2016225808A JP2016225808A JP2018084604A JP 2018084604 A JP2018084604 A JP 2018084604A JP 2016225808 A JP2016225808 A JP 2016225808A JP 2016225808 A JP2016225808 A JP 2016225808A JP 2018084604 A JP2018084604 A JP 2018084604A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- synthesis
- target language
- target
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
本発明は、音声合成技術に関し、特にクロスリンガル音声合成技術に関する。 The present invention relates to speech synthesis technology, and more particularly to cross-lingual speech synthesis technology.
近年、主流となっている音声合成方式として、統計的パラメトリック音声合成がある。例えば、HMM(Hidden Markov Model)音声合成(非特許文献1)、DNN(Deep Neural Networks)音声合成(非特許文献2)がある。これらの手法では、音声の特徴量であるスペクトルパラメータ(ケプストラム、メルケプストラム等)、音高パラメータ(F0)等の音声パラメータを統計的にモデル化する。これにより、比較的少量の学習用音声データから任意の話者の安定した品質の合成音声を生成することが可能となる。 In recent years, statistical parametric speech synthesis is a speech synthesis method that has become mainstream. For example, there are HMM (Hidden Markov Model) speech synthesis (Non-Patent Document 1) and DNN (Deep Neural Networks) speech synthesis (Non-Patent Document 2). These methods statistically model speech parameters such as spectral parameters (cepstrum, mel cepstrum, etc.) and pitch parameters (F0), which are feature amounts of speech. As a result, it is possible to generate a synthesized speech of a stable quality of an arbitrary speaker from a relatively small amount of learning speech data.
この統計的パラメトリック音声合成を用いて、任意の話者の声質で、日本語や英語などの任意の言語で音声合成を実現する場合、一般には当該話者が当該言語で発話した音声データが必要となる。しかし、当該話者が当該言語を発声できない等の理由でそのような音声データを必ずしも入手できるとは限らない。このような問題を解決するために、クロスリンガル音声合成手法が提案されている(非特許文献3、非特許文献4)。
When using this statistical parametric speech synthesis to achieve speech synthesis in any language, such as Japanese or English, with the voice quality of any speaker, generally the speech data spoken by the speaker in that language is required. It becomes. However, such voice data is not always available because the speaker cannot speak the language. In order to solve such a problem, a cross-lingual speech synthesis method has been proposed (Non-patent
このクロスリンガル音声合成手法では、合成音声の生成対象となる目標話者の合成対象言語とは異なる学習対象言語の音声データを用いることで、目標話者の声質を持つ合成対象言語での合成音声を生成することが可能となる。 In this cross-lingual speech synthesis method, synthesized speech in the target language that has the voice quality of the target speaker is obtained by using speech data of the target language that is different from the target language of the target speaker to be synthesized. Can be generated.
しかし、非特許文献3の手法では、合成対象言語と学習対象言語のバイリンガル話者が発声した両言語の音声データが必要となる。また、非特許文献4の手法では、合成対象言語と学習対象言語の各言語で多くの話者による音声データが必要となる。
However, the method of Non-Patent
そのため、バイリンガル話者による音声データを集めること、各言語の多数話者による音声データを集めることが難しい場合、いずれの手法も適用することができない。特に、合成対象言語の数が多くなると、このような問題が顕著になる。 Therefore, if it is difficult to collect speech data from bilingual speakers and collect speech data from many speakers in each language, neither method can be applied. In particular, such a problem becomes more prominent when the number of synthesis target languages increases.
そこで本発明は、目標話者の音声データではない合成対象言語での音声データが1名分しかない場合であっても、その目標話者による合成対象言語での音声を合成することが可能となるクロスリンガル音声合成技術を提供することを目的とする。 Therefore, the present invention can synthesize speech in the synthesis target language by the target speaker even when there is only one speech data in the synthesis target language that is not the target speaker's speech data. An object of the present invention is to provide a cross-lingual speech synthesis technology.
本発明の一態様は、Nを1以上の整数、nを1≦n≦Nなる整数とし、目標話者による学習対象言語での音声データである目標話者音声データと学習対象言語入力話者nによる学習対象言語での音声データである学習対象言語音声データn(1≦n≦N)は、同一の文章を発話した音声データであり、前記目標話者音声データと前記学習対象言語音声データn(1≦n≦N)から、前記目標話者による合成対象言語での音声を合成するクロスリンガル音声合成用モデルを学習するクロスリンガル音声合成用モデル学習装置であって、前記目標話者音声データと前記学習対象言語音声データnとの時間情報を調整し、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnを生成する時間情報調整部と、前記時間情報調整後目標話者音声データnと前記時間情報調整後学習対象言語音声データnの組(1≦n≦N)から、任意の音声データを前記目標話者の声質を有する音声データに変換する不特定話者声質変換器を学習する声質変換器学習部と、前記不特定話者声質変換器を用いて、合成対象言語入力話者による合成対象言語での音声データである合成対象言語音声データから、前記目標話者の声質を有する声質変換後合成対象言語音声データを生成する声質変換部と、前記声質変換後合成対象言語音声データと前記合成対象言語音声データに含まれる発話の発話情報の集合である合成対象言語発話情報集合から、前記クロスリンガル音声合成用モデルを学習する合成用モデル学習部とを含む。 In one embodiment of the present invention, N is an integer greater than or equal to 1, n is an integer satisfying 1 ≦ n ≦ N, and target speaker voice data that is speech data in a target language by a target speaker and a target language input speaker by n is audio data of the learning target language learning target language voice data n (1 ≦ n ≦ n) is a speech data uttered the same sentence, the said target speaker speech data learned language audio data A cross-lingual speech synthesis model learning device for learning a cross-lingual speech synthesis model for synthesizing speech in a synthesis target language by the target speaker from n (1 ≦ n ≦ N), the target speaker speech adjust the time information data and the learned language audio data n, and time information adjusted target speaker speech data n and time information adjusted learned language time to generate audio data n information adjustment unit, the time information After target speaker voice data n after adjustment Learning an unspecified speaker voice quality converter that converts arbitrary voice data into voice data having the voice quality of the target speaker from a set (1 ≦ n ≦ N) of target language voice data n after adjusting the recording time information Using the voice quality converter learning unit and the unspecified speaker voice quality converter, the voice quality of the target speaker is obtained from synthesis target language voice data which is voice data in a synthesis target language by a synthesis target language input speaker. From a voice quality conversion unit that generates post-voice quality conversion synthesis target language voice data, and a synthesis target language utterance information set that is a set of utterance information included in the synthesis target language voice data and the synthesis target language voice data after the voice quality conversion And a synthesis model learning unit for learning the cross-lingual speech synthesis model.
本発明の一態様は、Nを1以上の整数、nを1≦n≦Nなる整数とし、目標話者による学習対象言語での音声データである目標話者音声データと学習対象言語入力話者nによる学習対象言語での音声データである学習対象言語音声データn(1≦n≦N) は、同一の文章を発話した音声データであり、前記目標話者音声データと前記学習対象言語音声データn(1≦n≦N)から、前記目標話者による合成対象言語での音声を合成するクロスリンガル音声合成用モデルを学習するクロスリンガル音声合成用モデル学習装置であって、学習対象言語の音素と合成対象言語の音素の対応関係を示す発音ベクトル作成規則を記録した記録部と、前記目標話者音声データと前記学習対象言語音声データnとの時間情報を調整し、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnを生成する時間情報調整部と、前記発音ベクトル作成規則を用いて、前記学習対象言語音声データnに含まれる発話の発話情報の集合である学習対象言語発話情報集合nから、前記発話情報から算出される発音ベクトルの集合である学習対象言語発音ベクトル集合nを生成する第1発音ベクトル生成部と、前記時間情報調整後目標話者音声データnと前記時間情報調整後学習対象言語音声データnと前記学習対象言語発音ベクトル集合nの組(1≦n≦N)から、任意の音声データを前記目標話者の声質を有する音声データに変換する不特定話者声質変換器を学習する声質変換器学習部と、前記発音ベクトル作成規則を用いて、合成対象言語入力話者による合成対象言語での音声データである合成対象言語音声データに含まれる発話の発話情報の集合である合成対象言語発話情報集合から、前記発話情報から算出される発音ベクトルの集合である合成対象言語発音ベクトル集合を生成する第2発音ベクトル生成部と、前記不特定話者声質変換器を用いて、前記合成対象言語音声データと前記合成対象言語発音ベクトル集合から、前記目標話者の声質を有する声質変換後合成対象言語音声データを生成する声質変換部と、前記声質変換後合成対象言語音声データと前記合成対象言語発話情報集合から、前記クロスリンガル音声合成用モデルを学習する合成用モデル学習部とを含む。 In one embodiment of the present invention, N is an integer greater than or equal to 1, n is an integer satisfying 1 ≦ n ≦ N, and target speaker voice data that is speech data in a target language by a target speaker and a target language input speaker by n is audio data of the learning target language learning target language voice data n (1 ≦ n ≦ n) is a speech data uttered the same sentence, the said target speaker speech data learned language audio data a cross-lingual speech synthesis model learning device for learning a cross-lingual speech synthesis model for synthesizing speech in a synthesis target language by the target speaker from n (1 ≦ n ≦ N), And the time information of the target speaker voice data and the learning target language voice data n are adjusted, and the target information after adjusting the time information is adjusted. 's voice data n and time information tone And the rear learning target language speech data n the time information adjustment unit that generates, using the pronunciation vector construction rules, said a set of speech information speech included in the learning target language speech data n learned the target language utterance information set n A first pronunciation vector generation unit that generates a learning target language pronunciation vector set n , which is a set of pronunciation vectors calculated from the utterance information, the time information adjusted target speaker voice data n, and the time information adjusted Unspecified speaker voice quality conversion for converting arbitrary voice data into voice data having the voice quality of the target speaker from a set of learning target language voice data n and the learning target language pronunciation vector set n (1 ≦ n ≦ N) Included in the synthesis target language speech data, which is speech data in the synthesis target language by the synthesis target language input speaker, using the voice quality converter learning unit that learns the language and the pronunciation vector creation rules A second pronunciation vector generation unit that generates a synthesis target language pronunciation vector set that is a set of pronunciation vectors calculated from the speech information from a synthesis target language utterance information set that is a set of utterance information of the story; A voice quality conversion unit that generates post-speech synthesis target language voice data having voice quality of the target speaker from the synthesis target language voice data and the synthesis target language pronunciation vector set using a voice quality converter; and the voice quality A synthesis model learning unit that learns the cross-lingual speech synthesis model from the post-conversion synthesis target language speech data and the synthesis target language utterance information set.
本発明によれば、任意の音声データを目標話者の声質を有する音声データに変換する声質変換器を学習することにより、目標話者の音声データではない合成対象言語での音声データが1名分しかない場合であっても、その目標話者による合成対象言語での音声を合成するためのモデルを生成することが可能となる。 According to the present invention, by learning a voice quality converter that converts arbitrary voice data into voice data having the voice quality of the target speaker, one voice data in the synthesis target language that is not the voice data of the target speaker is obtained. Even if there is only the case, it is possible to generate a model for synthesizing speech in the synthesis target language by the target speaker.
以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail. In addition, the same number is attached | subjected to the structure part which has the same function, and duplication description is abbreviate | omitted.
<表記方法>
_(アンダースコア)は下付き添字を表す。例えば、xy_zはyzがxに対する上付き添字であり、xy_zはyzがxに対する下付き添字であることを表す。
<Notation>
_ (Underscore) represents a subscript. For example, xy_z represents that yz is a superscript to x, and xy_z represents that yz is a subscript to x.
<定義>
以下、各実施形態で用いる用語について説明する。
<Definition>
Hereinafter, terms used in each embodiment will be described.
[音声合成用モデル]
音声合成用モデルとは、音声合成に必要となる音声特徴量・音響特徴量(以下、音声パラメータという)を統計的にモデル化したものである。音声パラメータの例として、ケプストラム、メルケプストラム等のスペクトルパラメータや基本周波数(F0)等の音高パラメータがある。音声合成用モデルは、後述する音声データと発話情報を用いて学習する。音声合成用モデルの学習手法はいくつか提案されており、例えばHMM音声合成(非特許文献1)、DNN音声合成(非特許文献2)がある。
[Model for speech synthesis]
The speech synthesis model is a statistical model of speech feature quantity / acoustic feature quantity (hereinafter referred to as speech parameters) required for speech synthesis. Examples of audio parameters include spectral parameters such as cepstrum and mel cepstrum, and pitch parameters such as fundamental frequency (F0). The speech synthesis model learns using speech data and utterance information described later. Several methods for learning a model for speech synthesis have been proposed. For example, there are HMM speech synthesis (Non-Patent Document 1) and DNN speech synthesis (Non-Patent Document 2).
[音声データ]
音声データとは、各学習(具体的には、不特定話者声質変換器の学習、クロスリンガル音声合成用モデルの学習)に用いるため、あらかじめ収録しておく音声データのことである。音声データは、話者が発話した文章の音声であり、音声データに対して信号処理を行った結果、得られる音声パラメータ(スペクトルパラメータ、音高パラメータ)として記録するのでもよい。
[Audio data]
The voice data is voice data recorded in advance for use in each learning (specifically, learning of an unspecified speaker voice quality converter and learning of a model for cross-lingual voice synthesis). The voice data is a voice of a sentence uttered by a speaker, and may be recorded as a voice parameter (spectrum parameter, pitch parameter) obtained as a result of performing signal processing on the voice data.
不特定話者声質変換器の学習には、目標話者による学習対象言語での音声データ(以下、目標話者音声データという)、N名の話者による学習対象言語での音声データ(以下、学習対象言語音声データn(1≦n≦N)という)が必要である。ここで、目標話者とは合成対象言語での合成音声の生成の対象となる主体である。目標話者音声データと学習対象言語音声データn(1≦n≦N)は、同一の文章を発話した音声データである必要がある。 For non-specific speaker voice quality converter learning, voice data in the target language of the target speaker (hereinafter referred to as target speaker voice data), voice data in the target language of learning by N speakers (hereinafter referred to as the target speaker voice data) Learning language speech data n (referred to as 1 ≦ n ≦ N) is required. Here, the target speaker is a subject that is a target for generating synthesized speech in a synthesis target language. The target speaker voice data and the learning target language voice data n (1 ≦ n ≦ N) need to be voice data obtained by uttering the same sentence.
また、クロスリンガル音声合成用モデルの学習には、M名の話者による合成対象言語での音声データ(以下、合成対象言語音声データm(1≦m≦M)という)が必要である。ただし、M=1であってもよい。つまり最低1名分の合成対象言語音声データがあればよい。このとき、合成対象言語音声データ1の代わりに単に合成対象言語音声データということにする。 In addition, learning of a model for cross-lingual speech synthesis requires speech data in a synthesis target language (hereinafter referred to as synthesis target language speech data m (1 ≦ m ≦ M)) by M speakers. However, M = 1 may be sufficient. That is, it suffices if there is at least one person to be synthesized speech data. At this time, instead of the synthesis target language speech data 1 , it is simply referred to as synthesis target language speech data.
なお、学習対象言語音声データnを発話した話者のことを学習対象言語入力話者nという。また、合成対象言語音声データmを発話した話者のことを合成対象言語入力話者mという。一般に、学習対象言語入力話者n(1≦n≦N)、合成対象言語入力話者m(1≦m≦M)は、目標話者と異なる。 Note that a speaker who utters the learning target language voice data n is referred to as a learning target language input speaker n . A speaker who utters the synthesis target language speech data m is referred to as a synthesis target language input speaker m . In general, the learning target language input speaker n (1 ≦ n ≦ N) and the synthesis target language input speaker m (1 ≦ m ≦ M) are different from the target speaker.
[発話情報]
発話情報とは、音声データ中の各発話(話者が発話した文章の音声)に対して付与される発音情報等の情報のことである。音声データ中の各発話に一つの発話情報が付与されている。
[Speech information]
The utterance information is information such as pronunciation information given to each utterance (speech of a sentence uttered by a speaker) in voice data. One utterance information is assigned to each utterance in the voice data.
発話情報には、少なくとも各発話に対応する発音情報(読み、音素)が含まれる。また、各音素の開始時間と終了時間の情報である音素セグメンテーション情報が含まれていてもよい。ここでいう開始時間・終了時間は、各発話の始点を0[秒]としたときの経過時間のことである。音素セグメンテーション情報の一例を図1に示す。 The utterance information includes at least pronunciation information (reading and phonemes) corresponding to each utterance. In addition, phoneme segmentation information that is information on the start time and end time of each phoneme may be included. The start time and end time here are the elapsed time when the start point of each utterance is set to 0 [seconds]. An example of phoneme segmentation information is shown in FIG.
また、発話情報には、音素や音素セグメンテーション情報以外の情報、例えば、アクセント情報(アクセント型、アクセント句長)、品詞情報を含んでいてもよい。 Further, the speech information may include information other than phonemes and phoneme segmentation information, for example, accent information (accent type, accent phrase length), and part of speech information.
<第一実施形態>
以下、図2〜図9を参照してクロスリンガル音声合成用モデル学習装置100、クロスリンガル音声合成装置200について説明する。
<First embodiment>
The cross-lingual speech synthesis model learning device 100 and the cross-lingual speech synthesis device 200 will be described below with reference to FIGS.
[クロスリンガル音声合成用モデル学習装置100]
図2に示すようにクロスリンガル音声合成用モデル学習装置100は、不特定話者声質変換器学習装置110、音声合成用モデル学習装置120、記録部190を含む。記録部190は、クロスリンガル音声合成用モデル学習装置100の処理に必要な情報を適宜記録する構成部である。クロスリンガル音声合成用モデル学習装置100は、目標話者音声データ、学習対象言語音声データn(1≦n≦N)、合成対象言語音声データとその合成対象言語音声データに含まれる発話の発話情報の集合(以下、合成対象言語発話情報集合という)を入力として、目標話者による合成対象言語での音声を合成するクロスリンガル音声合成モデルを学習し、出力する。
[Cross-Lingual Speech Synthesis Model Learning Device 100]
As shown in FIG. 2, the cross-lingual speech synthesis model learning device 100 includes an unspecified speaker voice quality
図3に従いクロスリンガル音声合成用モデル学習装置100の動作について説明する。不特定話者声質変換器学習装置110は、目標話者音声データ、学習対象言語音声データn(1≦n≦N)を入力として、任意の音声データを目標話者の声質を有する音声データへ変換する不特定話者声質変換器を学習し、出力する(S110)。音声合成用モデル学習装置120は、合成対象言語音声データと合成対象言語発話情報集合を入力として、クロスリンガル音声合成モデルを学習し、出力する(S120)。その際、不特定話者声質変換器を用いて、合成対象言語音声データを目標話者の声質を持つ音声データ(以下、声質変換後合成対象言語音声データという)へ変換する。
The operation of the cross-lingual speech synthesis model learning apparatus 100 will be described with reference to FIG. The unspecified speaker voice quality
以下、不特定話者声質変換器学習装置110、音声合成用モデル学習装置120の構成、動作について詳細に説明していく。
The configurations and operations of the unspecified speaker voice quality
まず、図4〜図5を参照して不特定話者声質変換器学習装置110について説明する。図4に示すように不特定話者声質変換器学習装置110は、時間情報調整部101、声質変換器学習部103を含む。図5に従い不特定話者声質変換器学習装置110の動作について説明する。
First, the unspecified speaker voice quality
時間情報調整部101は、目標話者音声データ、学習対象言語音声データn(1≦n≦N)を入力として、目標話者音声データと学習対象言語音声データnに含まれる各文章の音声(つまり、発話)の時間情報をそろえた音声データ(以下、時間情報調整後目標話者音声データn、時間情報調整後学習対象言語音声データnという)を生成し、出力する(S101)。目標話者音声データについては、学習対象言語音声データn(1≦n≦N)それぞれと時間情報を調整するため、N名の学習対象言語入力話者それぞれに対する時間調整後の音声データである時間情報調整後目標話者音声データn(1≦n≦N)が生成される。時間情報の調整には、目標話者音声データと学習対象言語音声データnのフレーム間の対応付けを行う方法を用いればよい。例えば、多くの声質変換手法と同様、動的時間伸縮(Dynamic Time Warping, DTW)、DP(Dynamic Programming)マッチングを用いることができる。
The time
声質変換器学習部103は、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnの組(1≦n≦N)を入力として、不特定話者声質変換器を学習し、出力する(S103)。例えば、時間情報調整後目標話者音声データn、時間情報調整後学習対象言語音声データnがスペクトルパラメータとして表現される場合、次のようにして不特定話者声質変換器を学習する。 The voice quality converter learning unit 103 receives a set (1 ≦ n ≦ N) of the target speaker voice data n after time information adjustment and the target language voice data n after time information adjustment (1 ≦ n ≦ N) as an unspecified speaker voice quality converter. Learning and outputting (S103). For example, when the target speaker voice data n after time information adjustment and the learning target language voice data n after time information adjustment are expressed as spectrum parameters, the unspecified speaker voice quality converter is learned as follows.
時間情報調整後目標話者音声データnのスペクトルパラメータをCn,target(t)、時間情報調整後学習対象言語音声データnのスペクトルパラメータをCn,train(t)とする(tはフレーム番号を表す)。時間情報調整後学習対象言語音声データnのスペクトルパラメータCn,train(t)と時間情報調整後目標話者音声データnのスペクトルパラメータCn,target(t)の組を学習データとして、入力話者スペクトルパラメータctrain(t)から目標話者の声質に対応する目標話者スペクトルパラメータc^target(t)へ変換する不特定話者声質変換器ftrain→targetを学習する。 Spectral parameters of target speaker voice data n after time information adjustment are C n, target (t), and spectral parameters of target language voice data n after time information adjustment are C n, train (t) (t is the frame number) Represents). The set of spectral parameters C n, train (t) of the target language speech data n after time information adjustment and the spectral parameters C n, target (t) of the target speaker speech data n after time information adjustment is used as the learning data. An unspecified speaker voice quality converter f train → target is converted from the speaker spectrum parameter c train (t) to the target speaker spectrum parameter c ^ target (t) corresponding to the voice quality of the target speaker.
ここで、不特定話者声質変換器ftrain→targetは、あるフレームtの任意の入力話者スペクトルパラメータから目標話者スペクトルパラメータへ変換する声質変換器となる。 Here, the unspecified speaker voice quality converter f train → target is a voice quality converter that converts an arbitrary input speaker spectrum parameter of a certain frame t into a target speaker spectrum parameter.
一般的な声質変換器の学習方法では、話者Bの声質を有する音声データへ変換する声質変換器を学習するために話者Aの音声データを用いると、声質変換器の学習に使用した話者Aの音声データを入力しない限り、話者Bの声質を有する音声データへ変換することができない。そこで、ここでは、声質変換器の学習方法として、(参考非特許文献1)のニューラルネットワークに基づく方法を用いる。
(参考非特許文献1)能勢隆,篠崎隆宏,伊藤洋二郎,伊藤彰則,“ニューラルネットワークに基づくユーザ音声を必要としない多対一声質変換の検討”, 日本音響学会論文集2015年3月, 3-2-1, pp.271-274, 2015
(参考非特許文献1)では、声質変換器を学習する際、声質変換器の入力となる多数の学習対象言語入力話者の音声データと、声質変換器の出力となる1名の目標話者の音声データを学習データとして用いる。これにより、どのような話者の音声データを入力しても目標話者の声質を有する音声データに変換することが可能となる。
In a general voice quality converter learning method, when the voice data of speaker A is used to learn a voice quality converter that converts voice data having the voice quality of speaker B, the speech used for the voice quality converter learning is used. Unless voice data of the speaker A is input, the voice data having the voice quality of the speaker B cannot be converted. Therefore, here, a method based on the neural network of (Reference Non-Patent Document 1) is used as a learning method of the voice quality converter.
(Non-patent document 1) Takashi Nose, Takahiro Shinozaki, Yojiro Ito, Akinori Ito, “Examination of many-to-one voice quality conversion that does not require user speech based on neural network”, Transactions of the Acoustical Society of Japan, March 2015, 3 -2-1, pp.271-274, 2015
(Reference Non-Patent Document 1), when learning a voice quality converter, voice data of a large number of target language input speakers that are input to the voice quality converter and one target speaker that is the output of the voice quality converter Are used as learning data. As a result, it is possible to convert any voice data of the speaker into voice data having the voice quality of the target speaker.
次に、図6〜図7を参照して音声合成用モデル学習装置120について説明する。図6に示すように音声合成用モデル学習装置120は、声質変換部111、合成用モデル学習部113を含む。図7に従い音声合成用モデル学習装置120の動作について説明する。
Next, the speech synthesis
声質変換部111は、合成対象言語音声データを入力として、不特定話者声質変換器を用いて声質変換後合成対象言語音声データを生成し、出力する(S111)。例えば、不特定話者声質変換器が式(1)で表される場合、合成対象言語音声データのスペクトルパラメータCsynth,org(t)から目標話者の声質を有する合成対象言語の目標話者スペクトルパラメータC^synth,target(t)へ変換する(tはフレーム番号)。
The voice
声質変換器の学習に(参考非特許文献1)を用いた場合は、(参考非特許文献1)に従い声質変換を行えばよい。式(1)に従い計算された目標話者スペクトルパラメータC^synth,target(t)が声質変換後合成対象言語音声データである。 When (Reference Non-Patent Document 1) is used for learning of the voice quality converter, the voice quality conversion may be performed according to (Reference Non-Patent Document 1). The target speaker spectrum parameter C ^ synth, target (t) calculated according to the equation (1) is the speech data to be synthesized after the voice quality conversion.
合成用モデル学習部113は、S111で生成した声質変換後合成対象言語音声データと、合成対象言語発話情報集合を入力として、クロスリンガル音声合成モデルを学習し、出力する(S113)。クロスリンガル音声合成用モデルの学習には、(非特許文献1)、(非特許文献2)などを用いることができる。
The synthesis
以下、クロスリンガル音声合成装置200について説明していくが、クロスリンガル音声合成用モデルは(非特許文献1)にあるようなHMM音声合成用モデルであるとする。 Hereinafter, the cross-lingual speech synthesis apparatus 200 will be described. It is assumed that the cross-lingual speech synthesis model is an HMM speech synthesis model as described in (Non-Patent Document 1).
[クロスリンガル音声合成装置200]
図8に示すようにクロスリンガル音声合成装置200は、テキスト解析部210、音声パラメータ生成部220、音声波形生成部230、記録部290を含む。記録部290は、クロスリンガル音声合成装置200の処理に必要な情報を適宜記録する構成部である。クロスリンガル音声合成装置200は、音声合成の対象となる合成対象言語でのテキストである合成テキストを入力として、クロスリンガル音声合成用モデルを用いて、合成テキストを読み上げた合成音声を生成し、出力する。
[Cross-Lingual Speech Synthesizer 200]
As shown in FIG. 8, the cross-lingual speech synthesizer 200 includes a
図9に従いクロスリンガル音声合成装置200の動作について説明する。テキスト解析部210は、合成テキストを入力として、テキスト解析により、合成テキストの読み、アクセント等のコンテキスト情報を生成し、出力する(S210)。音声パラメータ生成部220は、S210で生成したコンテキスト情報を入力として、クロスリンガル音声合成用モデルを用いて音声パラメータ(スペクトルパラメータや音高パラメータ)を生成し、出力する(S220)。音声波形生成部230は、S220で生成した音声パラメータを入力として、音声合成フィルタを用いて合成音声を生成し、出力する(S230)。音声合成フィルタは、例えば、(参考非特許文献2)に記載のものを用いればよい。
(参考非特許文献2)今井聖,住田一男,古市千枝子,“音声合成のためのメル対数スペクトル近似(MLSA)フィルタ”,電子情報通信学会論文誌 A, Vol.J66-A, No.2, pp.122-129, 1983.
The operation of the cross-lingual speech synthesizer 200 will be described with reference to FIG. The
(Reference Non-Patent Document 2) Sei Imai, Kazuo Sumita, Chieko Furuichi, “Mel Log Spectrum Approximation (MLSA) Filter for Speech Synthesis”, IEICE Transactions A, Vol. J66-A, No. 2, pp.122-129, 1983.
なお、目標話者音声データ、学習対象言語音声データn(1≦n≦N)の代わりに、あらかじめ時間情報を調整した時間情報調整後目標話者音声データn(1≦n≦N)、時間情報調整後学習対象言語音声データn(1≦n≦N)をクロスリンガル音声合成用モデル学習装置に入力するように構成することもできる。 Instead of target speaker voice data and learning target language voice data n (1 ≤ n ≤ N), time information adjusted target speaker voice data n (1 ≤ n ≤ N), time The information-adjusted learning target language speech data n (1 ≦ n ≦ N) may be input to the model learning device for cross-lingual speech synthesis.
本実施形態の発明によれば、あらかじめ用意した目標話者音声データとN名分の学習対象言語音声データを入力として学習した不特定話者声質変換器を用いて、目標話者とは異なる1名分の合成対象言語音声データを目標話者の声質を有する声質変換後合成対象言語音声データに変換する。次に、声質変換後合成対象言語音声データと、合成対象言語音声データの発話情報の集合から統計的パラメトリック音声合成であるクロスリンガル音声合成用モデル、つまり目標話者による合成対象言語での音声を合成するためのモデルを学習する。 According to the invention of the present embodiment, an unspecified speaker voice quality converter that is trained by using target speaker voice data prepared in advance and N target language voice data for learning as input is different from the target speaker. The synthesis target language speech data of the name is converted into the synthesis target language speech data after voice quality conversion having the voice quality of the target speaker. Next, a speech model in cross-lingual speech synthesis that is statistical parametric speech synthesis, that is, speech in the target language by the target speaker, is obtained from a set of speech data after speech quality conversion and speech information of the target language speech data. Learn a model to synthesize.
これにより、N名分の学習対象言語音声データと1名分の合成対象言語音声データからのクロスリンガル音声合成のためのモデルを生成することが可能となり、当該モデルを用いることでクロスリンガル音声合成が可能となる。このため、学習対象言語と合成対象言語のバイリンガル話者による音声データや、学習対象言語と合成対象言語のそれぞれについて多数の話者による音声データを事前に用意する必要がなくなる。したがって、従来に比して低コストでクロスリンガル音声合成を実現することができる。 This makes it possible to generate a model for cross-lingual speech synthesis from N language learning language speech data and one synthesis target language speech data. By using this model, cross-lingual speech synthesis is possible. Is possible. For this reason, it is not necessary to prepare speech data by a bilingual speaker in the learning target language and the synthesis target language, or speech data by a large number of speakers for each of the learning target language and the synthesis target language. Therefore, cross-lingual speech synthesis can be realized at a lower cost than in the past.
<第二実施形態>
第一実施形態では、不特定話者声質変換器の学習、不特定話者声質変換器による声質変換に際して、音声データ(スペクトルパラメータ)のみを使用している。つまり、音声データに付随する発話情報を使用せずに学習した不特定話者声質変換器を用いて声質変換をしている。このため、声質変換の精度が劣化し、最終的な合成音声の品質が劣化してしまう可能性がある。
<Second embodiment>
In the first embodiment, only voice data (spectrum parameters) is used for learning of the unspecified speaker voice quality converter and voice quality conversion by the unspecified speaker voice quality converter. That is, voice quality conversion is performed using an unspecified speaker voice quality converter that has been learned without using the utterance information accompanying the voice data. For this reason, the accuracy of voice quality conversion may deteriorate, and the quality of the final synthesized speech may deteriorate.
そこで、本実施形態では、不特定話者声質変換器の学習、不特定話者声質変換器による声質変換に際して、発話情報も使用することを考える。しかし、一般に言語が異なると、例えば、音素体系のような発音情報が異なってしまうため、このままでは不特定話者声質変換器の学習、不特定話者声質変換器による声質変換に際して、発話情報を使用することはできない。発話情報を使用することができるようするため、学習対象言語と合成対象言語における発音情報の違いを吸収する目的で、両言語の類似した発音情報(音素)の対応関係を作成する。これにより、両言語間の発音情報の違いを考慮した不特定話者声質変換器の学習、不特定話者声質変換器による声質変換を実現する。 Therefore, in the present embodiment, it is considered that the speech information is also used for the learning of the unspecified speaker voice quality converter and the voice quality conversion by the unspecified speaker voice quality converter. However, generally speaking, if the language is different, pronunciation information such as phoneme system will be different.For this reason, the utterance information will be used for learning of the unspecified speaker voice quality converter and voice quality conversion by the unspecified speaker voice quality converter. Cannot be used. In order to use the utterance information, a correspondence relationship between similar pronunciation information (phonemes) in both languages is created in order to absorb the difference in pronunciation information between the learning target language and the synthesis target language. Thereby, learning of the unspecified speaker voice quality converter considering the difference in pronunciation information between the two languages, and voice quality conversion by the unspecified speaker voice quality converter are realized.
以下、学習対象言語と合成対象言語の類似した発音情報(音素)の対応関係のことを発音ベクトル作成規則という。その一例を図10に示す。図10の表の各行は類似する学習対象言語の音素と合成対象言語の音素を組にしてインデックスを付したもの、行数は学習対象言語の音素の数Lとなっている。この例では、学習対象言語は日本語、合成対象言語は英語であり、例えば、3行目(インデックスが3である行)をみると、日本語の音素”s”と英語の音素”s”,”th”が類似関係にあり、対応することがわかる。 Hereinafter, the correspondence between similar pronunciation information (phonemes) between the learning target language and the synthesis target language is referred to as a pronunciation vector creation rule. An example is shown in FIG. Each row in the table of FIG. 10 is obtained by indexing a phoneme of a similar learning target language and a phoneme of a synthesis target language, and the number of rows is the number L of phonemes of the learning target language. In this example, the language to be learned is Japanese and the language to be synthesized is English. For example, looking at the third line (the line where the index is 3), the Japanese phoneme "s" and the English phoneme "s" , “Th” is in a similar relationship and can be seen to correspond.
なお、発音ベクトル作成規則の表現は、図10のような、学習対象言語の音素の数Lを行数とする、学習対象言語の各音素に類似する合成対象言語の音素を示した表に限られるものではないが、以下の説明では発音ベクトル作成規則が図10のような行数Lの表で表現されているものとする。 The expression of the pronunciation vector creation rule is limited to the table shown in FIG. 10 that shows the phonemes of the synthesis target language similar to the phonemes of the learning target language, where the number of phonemes L of the learning target language is the number of rows. However, in the following description, it is assumed that the pronunciation vector creation rules are represented by a table with the number of rows L as shown in FIG.
以下、図11〜図15を参照してクロスリンガル音声合成用モデル学習装置300について説明する。なお、合成音声の生成にはクロスリンガル音声合成装置200を用いることができる。 The cross-lingual speech synthesis model learning apparatus 300 will be described below with reference to FIGS. Note that the cross-lingual speech synthesizer 200 can be used to generate synthesized speech.
[クロスリンガル音声合成用モデル学習装置300]
図11に示すようにクロスリンガル音声合成用モデル学習装置300は、不特定話者声質変換器学習装置310、音声合成用モデル学習装置320、記録部190を含む。記録部190には、事前に発音ベクトル作成規則が記録されているものとする。クロスリンガル音声合成用モデル学習装置300は、目標話者音声データ、学習対象言語音声データn(1≦n≦N)、学習対象言語音声データnに含まれる発話の発話情報の集合(以下、学習対象言語発話情報集合n(1≦n≦N)という)、合成対象言語音声データ、合成対象言語発話情報集合を入力として、クロスリンガル音声合成モデルを学習し、出力する。
[Cross-Lingual Speech Synthesis Model Learning Device 300]
As shown in FIG. 11, the cross-lingual speech synthesis model learning device 300 includes an unspecified speaker voice quality
以下、不特定話者声質変換器学習装置310、音声合成用モデル学習装置320の構成、動作について詳細に説明していく。
Hereinafter, the configuration and operation of the unspecified speaker voice quality
まず、図12〜図13を参照して不特定話者声質変換器学習装置310について説明する。図12に示すように不特定話者声質変換器学習装置310は、時間情報調整部101、第1発音ベクトル生成部302、声質変換器学習部303を含む。図13に従い不特定話者声質変換器学習装置310の動作について説明する。
First, the unspecified speaker voice quality
時間情報調整部101は、目標話者音声データ、学習対象言語音声データn(1≦n≦N)を入力として、目標話者音声データと学習対象言語音声データnに含まれる各文章の音声(発話)の時間情報をそろえた音声データである時間情報調整後目標話者音声データn、時間情報調整後学習対象言語音声データnを生成し、出力する(S101)。
The time
第1発音ベクトル生成部302は、学習対象言語発話情報集合nを入力として、記録部190から読み込んだ発音ベクトル作成規則を用いて、学習対象言語発音ベクトル集合nを生成し、出力する(S302)。ここで、発音ベクトルとは、音声データ中の発話の各フレームに対して算出されるベクトルであり、そのフレームがどのような発音情報(音素)であるかを示すベクトルである。発音ベクトル作成規則が図10のような行数Lの表で表現されている場合、発音ベクトルの次元はLとなる。学習対象言語発話情報集合nの発話情報から発音ベクトル(以下、学習対象言語発音ベクトルという)を算出していき、その集合を学習対象言語発音ベクトル集合nとして生成する。
The first pronunciation
以下、具体的に、ある発話情報に含まれる発音情報(音素)から発音ベクトルを算出する方法について説明していく。まず、発音情報(音素)に対して、発音ベクトル作成規則を用いて対応するインデックスidxを求める(ただし、1≦idx≦L)。図10の例でいえば、真ん中の列の中から学習対象言語音素(ここでは日本語の音素)がある行を見出し、インデックスidxを得る。次に、得られたインデックスidxを数値ベクトル化し、発音ベクトルを算出する。数値ベクトル化の方法として、例えば、以下のような意図情報の1-of-K表現を使用し、インデックスidxから発音ベクトルV=(v1, v2, …, vL)(Lは学習対象言語の音素数)を算出する。 Hereinafter, a method for calculating a pronunciation vector from pronunciation information (phonemes) included in certain utterance information will be specifically described. First, for the pronunciation information (phoneme), a corresponding index idx is obtained using a pronunciation vector creation rule (where 1 ≦ idx ≦ L). In the example of FIG. 10, a row having a learning target language phoneme (here, Japanese phoneme) is found from the middle column, and an index idx is obtained. Next, the obtained index idx is converted into a numerical vector to calculate a pronunciation vector. As a numerical vectorization method, for example, the following 1-of-K representation of intention information is used, and the pronunciation vector V = (v 1 , v 2 ,…, v L ) (L is the learning target) from the index idx Language phoneme number).
ただし、j=1,…,Lである。 However, j = 1,..., L.
発音ベクトルに1-of-K表現を使用するのは、一般に、L個の値を取る情報(ここでは、インデックスidx)をニューラルネットの入力とする場合、1次元の数値として取り扱うよりも1-of-K表現として取り扱う方がより高性能の学習結果(つまり、不特定話者声質変換器)が得られるからである。 The 1-of-K expression is used for the pronunciation vector in general when 1-dimensional numerical values are used instead of 1-dimensional numerical values when L-valued information (here, index idx) is used as the input of the neural network. This is because a higher-performance learning result (that is, an unspecified speaker voice quality converter) can be obtained by treating as an of-K expression.
声質変換器学習部303は、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnと学習対象言語発音ベクトル集合nの組(1≦n≦N)を入力として、不特定話者声質変換器を学習し、出力する(S303)。例えば、時間情報調整後目標話者音声データn、時間情報調整後学習対象言語音声データnがスペクトルパラメータとして表現される場合、次のようにして不特定話者声質変換器を学習する。
The voice quality
時間情報調整後目標話者音声データnのスペクトルパラメータをCn,target(t)、時間情報調整後学習対象言語音声データnのスペクトルパラメータをCn,train(t)、学習対象言語発音ベクトル集合nの要素である学習対象言語発音ベクトルをVn,train(t)とする(tはフレーム番号を表す)。時間情報調整後学習対象言語音声データnのスペクトルパラメータCn,train(t)と対応する学習対象言語発音ベクトルVn,train(t)の組(Cn,train(t), Vn,train(t))と時間情報調整後目標話者音声データnのスペクトルパラメータCn,target(t)の組を学習データとして、拡張入力話者スペクトルパラメータ(ctrain(t), vtrain(t))から目標話者の声質に対応する目標話者スペクトルパラメータc^target(t)へ変換する不特定話者声質変換器ftrain→targetを学習する。 Spectral parameters of target speaker speech data n after time information adjustment is C n, target (t), spectral parameters of learning target language speech data n after time information adjustment is C n, train (t), and learning target language pronunciation vector set Let V n, train (t) be the learning target language pronunciation vector that is an element of n (t represents the frame number). Spectral parameters C n, train (t) of the target language speech data n after time information adjustment and the corresponding language target pronunciation vector V n, train (t) (C n, train (t), V n, train (t)) and spectral parameter C n, target (t) of target speaker speech data n after time information adjustment are used as training data, and extended input speaker spectral parameters (c train (t), v train (t) ) To an unspecified speaker voice quality converter f train → target for conversion to a target speaker spectrum parameter c ^ target (t) corresponding to the voice quality of the target speaker.
ここで、不特定話者声質変換器ftrain→targetは、あるフレームtの任意の拡張入力話者スペクトルパラメータから目標話者スペクトルパラメータへ変換する声質変換器となる。 Here, the unspecified speaker voice quality converter f train → target is a voice quality converter for converting any extended input speaker spectrum parameter of a certain frame t into a target speaker spectrum parameter.
不特定話者声質変換器ftrain→targetの学習アルゴリズムは、第一実施形態と同じ(参考非特許文献1)記載の方法を用いればよい。ただし、学習データとして、時間情報調整後学習対象言語音声データnのスペクトルパラメータと対応する学習対象言語発音ベクトルの組と時間情報調整後目標話者音声データnのスペクトルパラメータの組を用いる点が異なる。 The learning algorithm of the unspecified speaker voice quality converter f train → target may be the same method as described in the first embodiment (reference non-patent document 1). However, as learning data, is that it uses a set of spectral parameters of the spectral parameters and the set time information adjusted target speaker speech data n corresponding learning target language pronunciation vector after time information adjustment learned language audio data n different .
次に、図14〜図15を参照して音声合成用モデル学習装置320について説明する。図14に示すように音声合成用モデル学習装置320は、声質変換部311、第2発音ベクトル生成部312、合成用モデル学習部313を含む。図15に従い音声合成用モデル学習装置320の動作について説明する。
Next, the speech synthesis
第2発音ベクトル生成部312は、合成対象言語発話情報集合を入力として、記録部190から読み込んだ発音ベクトル作成規則を用いて、合成対象言語発音ベクトル集合を生成し、出力する(S312)。合成対象言語発音ベクトル集合の生成方法は、第1発音ベクトル生成部302における学習対象言語発音ベクトル集合nの生成方法と同様であり、合成対象言語発話情報集合の発話情報から算出される発音ベクトル(以下、合成対象言語発音ベクトルという)の集合が合成対象言語発音ベクトル集合である。
The second pronunciation
声質変換部311は、合成対象言語音声データと、S312で生成した合成対象言語発音ベクトル集合を入力として、不特定話者声質変換器を用いて声質変換後合成対象言語音声データを生成し、出力する(S311)。例えば、不特定話者声質変換器が式(2)で表される場合、合成対象言語音声データのスペクトルパラメータCsynth,org(t)と対応する合成対象言語発音ベクトルVsynth,org(t)の組(Csynth,org(t), Vsynth,org(t))から目標話者の声質を有する合成対象言語の目標話者スペクトルパラメータC^synth,target(t)へ変換する。
The voice
声質変換器の学習に(参考非特許文献1)を用いた場合は、(参考非特許文献1)に従い声質変換を行えばよい。式(2)に従い計算された目標話者スペクトルパラメータC^synth,target(t)が声質変換後合成対象言語音声データである。 When (Reference Non-Patent Document 1) is used for learning of the voice quality converter, the voice quality conversion may be performed according to (Reference Non-Patent Document 1). The target speaker spectrum parameter C ^ synth, target (t) calculated according to equation (2) is the speech data to be synthesized after voice quality conversion.
合成用モデル学習部313は、S311で生成した声質変換後合成対象言語音声データと、合成対象言語発話情報集合を入力として、クロスリンガル音声合成モデルを学習し、出力する(S313)。
The synthesis
以下、図16〜図17を参照して発音ベクトル作成規則生成装置400について説明する。ここで、発音ベクトル作成規則が学習対象言語の音声データと合成対象言語の音声データから生成できるためには、各音声データの発話情報に音素セグメンテーション情報が含まれている必要がある。 Hereinafter, the pronunciation vector creation rule generation device 400 will be described with reference to FIGS. 16 to 17. Here, in order that the pronunciation vector creation rule can be generated from the speech data of the learning target language and the speech data of the synthesis target language, it is necessary that the speech information of each speech data includes phoneme segmentation information.
なお、国際音声記号(IPA;International Phonetic Alphabet)を用いることができる場合、発音ベクトル作成規則を簡易に生成することができる。ここで、国際音声記号とは、国際音声学会が定めた音声記号であり、あらゆる言語の発音情報(音素)を表記可能な記号である(参考URL)。
(参考URL:https://www.internationalphoneticassociation.org/content/full-ipa-chart)
When an international phonetic alphabet (IPA) can be used, a pronunciation vector creation rule can be easily generated. Here, the international phonetic symbol is a phonetic symbol determined by the International Phonetic Society, and is a symbol that can express pronunciation information (phonemes) in any language (reference URL).
(Reference URL: https://www.internationalphoneticassociation.org/content/full-ipa-chart)
学習対象言語の発話情報からIPAへ変換するための規則、合成対象言語の発話情報からIPAへ変換するための規則がそれぞれ用意されている場合、各言語からIPAへの変換規則を介して対応関係、つまり発音ベクトル作成規則を作成することができる。 If there are rules for converting speech information in the target language to IPA and rules for converting speech information in the target language into IPA, correspondences are established via the conversion rules from each language to IPA. That is, a pronunciation vector creation rule can be created.
[発音ベクトル作成規則生成装置400]
図16に示すように発音ベクトル作成規則生成装置400は、第1発音統計情報生成部410、第2発音統計情報生成部415、発音類似性判定部420、記録部490を含む。記録部490は、発音ベクトル作成規則生成装置400の処理に必要な情報を適宜記録する構成部である。発音ベクトル作成規則生成装置400は、目標話者音声データと目標話者音声データに含まれる発話の発話情報の集合(以下、目標話者発話情報集合という)、合成対象言語音声データと合成対象言語発話情報集合を入力として、発音ベクトル作成規則を生成し、出力する。
[Pronunciation vector creation rule generator 400]
As shown in FIG. 16, the pronunciation vector creation rule generation device 400 includes a first pronunciation statistical
以下、図17に従い発音ベクトル作成規則生成装置400の動作について説明する。 Hereinafter, the operation of the pronunciation vector creation rule generation device 400 will be described with reference to FIG.
第1発音統計情報生成部410は、目標話者音声データと目標話者発話情報集合を入力として、学習対象言語発音統計情報を生成し、出力する(S410)。第1発音統計情報生成部410の動作は、具体的には、以下のようになる(図18参照)。目標話者音声データから学習対象言語音素j(j=1,…,L、ただし、Lは学習対象言語の音素数)の音声区間を特定し、学習対象言語音素jの音声データ(例えば、スペクトルパラメータ)を抽出する(S410−1)。抽出された学習対象言語音素jの音声データを用いて、学習対象言語音素jの発音統計情報を算出する(S410−2)。学習対象言語音素1の発音統計情報、…、学習対象言語音素Lの発音統計情報の集合として学習対象言語発音統計情報を生成する(S410−3)。ここで、統計情報として、学習対象言語音素jの音声データ全体の平均値、分散、四分位数や、例えば、正規混合分布(Gaussian Mixture Model, GMM)のような統計モデルを使用することができる。なお、目標話者音声データと目標話者発話情報集合の代わりに、学習対象言語音声データnと学習対象言語発話情報集合nを用いてもよい(ただし、nは1以上N以下の整数)。
The first pronunciation statistic
第2発音統計情報生成部415は、合成対象言語音声データと合成対象言語発話情報集合を入力として、合成対象言語発音統計情報を生成し、出力する(S415)。第2発音情報統計取得部415の動作は、第1発音統計情報生成部410の動作と同様であり、合成対象言語音素1の発音統計情報、…、合成対象言語音素Kの発音統計情報の集合として合成対象言語発音統計情報を生成する(ただし、Kは合成対象言語の音素数)。
The second pronunciation statistic
発音類似性判定部420は、S410で生成した学習対象言語発音統計情報と、S415で生成した合成対象言語発音統計情報を入力として、発音ベクトル作成規則を生成し、出力する(S420)。発音類似性判定部420の動作は、具体的には、以下のようになる(図19参照)。まず、合成対象言語音素iの発音統計情報(i=1,…,K)と学習対象言語音素jの発音統計情報(j=1,…,L)の距離dijを算出する(S420−1)。発音統計情報間の距離の算出方法は、用いる発音統計情報によって異なる。例えば、発音統計情報としてGMMを用いた場合、確率分布間の差異を測る尺度であるKLダイバージェンスを用いることができる。また、平均値、分散を用いた場合は、マハラノビス距離、四分位数を用いた場合は、四分位数のユークリッド距離を用いて距離dijを算出すればよい。次に、合成対象言語音素iについて、学習対象言語音素1との距離di1、…、学習対象言語音素Lとの距離diLの中から最小となる学習対象言語音素j_min(1≦jmin≦L)を特定する(S420−2)。合成対象言語音素iと学習対象言語音素j_minを対応するものとして、インデックス、学習対象言語音素j_min、合成対象言語音素iの組を表に追加していき、最終的に発音ベクトル作成規則を生成する(S420−3)。
The pronunciation
本実施形態の発明によれば、学習対象言語の発話情報も用いて不特定話者声質変換器を生成することにより、合成音声の品質を向上させるクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより合成音声の品質を向上させることができる。 According to the invention of this embodiment, a cross-lingual speech synthesis model that improves the quality of synthesized speech can be generated by generating an unspecified speaker voice quality converter using speech information of a language to be learned. . In addition, the quality of synthesized speech can be improved by using the cross-lingual speech synthesis model.
<第三実施形態>
第一実施形態では、合成対象言語音声データとして1名の話者の音声データを使用している。
<Third embodiment>
In the first embodiment, voice data of one speaker is used as the synthesis target language voice data.
本実施形態では、合成対象言語音声データとして複数の話者の音声データを使用する。これにより、合成音声の品質を向上させることができる。 In the present embodiment, voice data of a plurality of speakers is used as the synthesis target language voice data. As a result, the quality of the synthesized speech can be improved.
以下、図20〜図21を参照して音声合成用モデル学習装置520について説明する。なお、不特定話者声質変換器の生成には不特定話者声質変換器学習装置110を用いることができる。つまり、不特定話者声質変換器学習装置110と、音声合成用モデル学習装置520と、記録部190を含むクロスリンガル音声合成用モデル学習装置を構成することができる。また、合成音声の生成にはクロスリンガル音声合成装置200を用いることができる。
Hereinafter, the speech synthesis model learning device 520 will be described with reference to FIGS. The unspecified speaker voice quality
[音声合成用モデル学習装置520]
図20に示すように音声合成用モデル学習装置520は、声質変換部511、合成用モデル学習部513を含む。図21に従い音声合成用モデル学習装置520の動作について説明する。ここでは、合成対象言語音声データm(1≦m≦M)が必要である。
[Speech Synthesis Model Learning Device 520]
As shown in FIG. 20, the speech synthesis model learning device 520 includes a voice
声質変換部511は、合成対象言語音声データmを入力として、不特定話者声質変換器を用いて声質変換後合成対象言語音声データmを生成し、出力する(S511)。例えば、不特定話者声質変換器が式(1)で表される場合、合成対象言語音声データmのスペクトルパラメータCsynth,org,m(t)から目標話者の声質を有する合成対象言語の目標話者スペクトルパラメータm C^synth,target,m(t)へ変換する。
The voice
声質変換器の学習に(参考非特許文献1)を用いた場合は、(参考非特許文献1)に従い声質変換を行えばよい。式(1)に従い計算された目標話者スペクトルパラメータm C^synth,target,m(t)が声質変換後合成対象言語音声データmである。 When (Reference Non-Patent Document 1) is used for learning of the voice quality converter, the voice quality conversion may be performed according to (Reference Non-Patent Document 1). The target speaker spectrum parameter m C ^ synth, target, m (t) calculated according to the equation (1) is the speech data m to be synthesized after voice conversion.
合成用モデル学習部513は、S511で生成した声質変換後合成対象言語音声データmと、合成対象言語発話情報集合mを入力として、クロスリンガル音声合成モデルを学習し、出力する(S513)。クロスリンガル音声合成用モデルの学習には、(非特許文献1)、(非特許文献2)を用いることができる。また、(参考非特許文献3)のように複数の話者の音声データを用いて学習する平均声モデルを音声合成用モデルとして用いることもできる。
(参考非特許文献3)田村正統,益子貴史,徳田恵一,小林隆夫,“HMMに基づく音声合成におけるピッチ・スペクトルの話者適応”,電子情報通信学会論文誌 D, Vol.J85-D2, No.4, pp.545-553, 2002.
The synthesis
(Non-patent document 3) Masanori Tamura, Takashi Masuko, Keiichi Tokuda, Takao Kobayashi, “Speaker adaptation of pitch spectrum in speech synthesis based on HMM”, IEICE Transactions D, Vol.J85-D2, No .4, pp.545-553, 2002.
一般に、音声合成用モデルを学習する際、学習に使用できる音声データ、発話情報の量が多いほど高品質な合成音声を生成することが可能である。本実施形態では、M名の合成対象言語音声データを用いている。M名の合成対象言語音声データを用いた場合、目標話者の声質を有する、M名の声質変換後合成対象言語音声データを音声合成用モデルの学習データとして使用することができる。これにより、1名分の合成対象言語音声データを使用する場合に比して、音声合成用モデル学習に使用可能な音声データの量が増加するため、合成音声の品質を向上させるクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより合成音声の品質を向上させることができる。 In general, when learning a speech synthesis model, it is possible to generate higher-quality synthesized speech as the amount of speech data and speech information that can be used for learning increases. In the present embodiment, M name synthesis target language speech data is used. In the case of using the M synthesis target language speech data, the M name speech quality-converted synthesis target language speech data having the voice quality of the target speaker can be used as learning data for the speech synthesis model. This increases the amount of speech data that can be used for speech synthesis model learning compared to the case of using one target language speech data for synthesis, so cross-lingual speech synthesis improves the quality of synthesized speech. Model can be generated. In addition, the quality of synthesized speech can be improved by using the cross-lingual speech synthesis model.
<第四実施形態>
第三実施形態では、M名の話者による合成対象言語音声データから生成した声質変換後合成対象言語音声データをすべて音声合成用モデル学習に使用している。
<Fourth embodiment>
In the third embodiment, all post-voice-quality synthesis target language speech data generated from synthesis target language speech data by M speakers is used for speech synthesis model learning.
しかし、合成対象言語入力話者mと目標話者の話者性が大きく異なる場合、声質変換部511が生成する声質変換後合成対象言語音声データmの変換精度が劣化する場合がある。したがって、必ずしもM名すべての声質変換後合成用対象言語音声データを音声合成用モデル学習に使用することが適切であるとは限らない。
However, when the speech characteristics of the synthesis target language input speaker m and the target speaker are greatly different, the conversion accuracy of the post-voice quality conversion target language speech data m generated by the voice
そこで、本実施形態では、この問題を回避するために、M名の声質変換後合成用対象言語音声データのうち、変換精度が高いもののみを音声合成用モデルの学習に使用する。
これにより、合成音声の品質を向上させることができる。
Therefore, in the present embodiment, in order to avoid this problem, only speech data with a high conversion accuracy among the M language voice synthesis target language speech data for speech synthesis conversion is used for learning the speech synthesis model.
As a result, the quality of the synthesized speech can be improved.
以下、図22〜図23を参照して音声合成用モデル学習装置620について説明する。なお、不特定話者声質変換器の生成には不特定話者声質変換器学習装置110を用いることができる。つまり、不特定話者声質変換器学習装置110と、音声合成用モデル学習装置620と、記録部190を含むクロスリンガル音声合成用モデル学習装置を構成することができる。また、合成音声の生成にはクロスリンガル音声合成装置200を用いることができる。
Hereinafter, the speech synthesis model learning device 620 will be described with reference to FIGS. 22 to 23. The unspecified speaker voice quality
[音声合成用モデル学習装置620]
図22に示すように音声合成用モデル学習装置620は、声質変換部511、話者類似性判定部612、合成用モデル学習部513を含む。図23に従い音声合成用モデル学習装置620の動作について説明する。
[Speech Synthesis Model Learning Device 620]
As illustrated in FIG. 22, the speech synthesis model learning device 620 includes a voice
声質変換部511は、合成対象言語音声データmを入力として、不特定話者声質変換器を用いて声質変換後合成対象言語音声データmを生成し、出力する(S511)。
The voice
話者類似性判定部612は、S511で生成した声質変換後合成対象言語音声データm (1≦m≦M)と目標話者音声データを入力として、声質変換後合成対象言語音声データmと目標話者音声データの類似の程度を示す類似度mを算出し、類似度mに基づいて声質変換後合成対象言語音声データmが目標話者音声データに類似していると判定される場合、声質変換後合成対象言語音声データmを目標話者音声データに類似している声質変換後合成対象言語音声データの集合である目標話者類似合成対象言語音声データ集合に追加していくことにより、目標話者類似合成対象言語音声データ集合を生成する(S612)。類似度の算出には、声質変換後合成対象言語音声データmと目標話者音声データとの差、例えばスペクトルパラメータの差を利用する。そのような方法として、正規混合分布(GMM)を使用する(参考非特許文献4)の方法がある。
(参考非特許文献4)D. A. Reynolds, “Speaker identification and verification using Gaussian mixture speaker models”, Speech Communication, vol.17, Issues 1-2, pp.91-108, 1995.
The speaker
(Reference Non-Patent Document 4) DA Reynolds, “Speaker identification and verification using Gaussian mixture speaker models”, Speech Communication, vol.17, Issues 1-2, pp.91-108, 1995.
話者類似性判定部612の動作は、具体的には、以下のようになる(図24参照)。まず、目標話者音声データを使用して、目標話者のGMMを学習する(S612−1)。次に、学習した目標話者のGMMに対して、声質変換後合成対象言語音声データmを入力し、合成対象言語入力話者mの尤度を類似度mとして算出する(S612−2)。最後に、類似度mが所定の閾値以上である(または、所定の閾値より大きい)場合、声質変換後合成対象言語音声データmと目標話者音声データは類似していると判定(つまり、合成対象言語入力話者mを目標話者と類似性が高い話者と判定)し、声質変換後合成対象言語音声データmを目標話者類似合成対象言語音声データ集合の要素として決定する(S612−3)。
The operation of the speaker
合成用モデル学習部513は、S612で生成した目標話者類似合成対象言語音声データ集合と、合成対象言語発話情報集合m(1≦m≦M)を入力として、クロスリンガル音声合成モデルを学習し、出力する(S513)。ここでは、目標話者類似合成対象言語音声データ集合の要素である声質変換後合成対象言語音声データmに対応する合成対象言語発話情報集合mのみが使用されることになる。
The synthesis
なお、S612で目標話者類似合成対象言語音声データ集合を生成する代わりに、最も類似度が大きい声質変換後合成対象言語音声データを目標話者類似合成対象言語音声データとして生成するのでもよい。この場合、合成用モデル学習部513は、S612で生成した目標話者類似合成対象言語音声データと、合成対象言語発話情報集合m(1≦m≦M)を入力として、クロスリンガル音声合成モデルを学習し、出力する。
Note that, instead of generating the target speaker similar synthesis target language speech data set in S612, the synthesized speech language data after voice quality conversion having the highest similarity may be generated as the target speaker similar synthesis target language speech data. In this case, the synthesis
本実施形態では、類似度が大きい声質変換後合成対象言語音声データのみを音声合成用モデルの学習データとして用いている。これにより、合成音声の品質を向上させるクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより合成音声の品質を向上させることができる。 In the present embodiment, only the speech data after speech quality conversion with high similarity is used as learning data for the speech synthesis model. This makes it possible to generate a cross-lingual speech synthesis model that improves the quality of the synthesized speech. In addition, the quality of synthesized speech can be improved by using the cross-lingual speech synthesis model.
特に、最も類似度が大きい声質変換後合成対象言語音声データのみを学習データとして用いる場合は、目標話者による合成対象言語での音声データが利用できる場合に生成されるような音声合成用モデルによる合成音声の品質に近いクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより目標話者による合成対象言語での音声データが利用できる場合に生成されるような音声合成用モデルによる合成音声の品質に近い合成音声を生成することができる。 In particular, when only speech data after speech quality conversion with the highest degree of similarity is used as learning data, it is based on a speech synthesis model that is generated when speech data in the synthesis target language by the target speaker is available. A model for cross-lingual speech synthesis close to the quality of synthesized speech can be generated. In addition, by using the cross-lingual speech synthesis model, a synthesized speech that is close to the quality of the synthesized speech by the speech synthesis model that is generated when speech data in the target language by the target speaker is available is generated. be able to.
<第五実施形態>
第二実施形態では、合成対象言語音声データとして1名の話者の音声データを使用している。
<Fifth embodiment>
In the second embodiment, voice data of one speaker is used as the synthesis target language voice data.
本実施形態では、合成対象言語音声データとして複数の話者の音声データを使用する。これにより、合成音声の品質を向上させることができる。 In the present embodiment, voice data of a plurality of speakers is used as the synthesis target language voice data. As a result, the quality of the synthesized speech can be improved.
以下、図25〜図26を参照して音声合成用モデル学習装置720について説明する。なお、不特定話者声質変換器の生成には不特定話者声質変換器学習装置310を用いることができる。つまり、不特定話者声質変換器学習装置310と、音声合成用モデル学習装置720と、記録部190を含むクロスリンガル音声合成用モデル学習装置を構成することができる。ここで、記録部190には、事前に発音ベクトル作成規則が記録されているものとする。また、合成音声の生成にはクロスリンガル音声合成装置200を用いることができる。
Hereinafter, the speech synthesis model learning apparatus 720 will be described with reference to FIGS. Note that the unspecified speaker voice quality
[音声合成用モデル学習装置720]
図25に示すように音声合成用モデル学習装置720は、声質変換部711、第2発音ベクトル生成部712、合成用モデル学習部713を含む。図26に従い音声合成用モデル学習装置720の動作について説明する。ここでは、合成対象言語音声データm(1≦m≦M)が必要である。
[Speech Synthesis Model Learning Device 720]
As shown in FIG. 25, the speech synthesis model learning device 720 includes a voice
第2発音ベクトル生成部712は、合成対象言語発話情報集合mを入力として、記録部190から読み込んだ発音ベクトル作成規則を用いて、合成対象言語発音ベクトル集合mを生成し、出力する(S712)。合成対象言語発音ベクトル集合mの生成方法は、第2発音ベクトル生成部312における合成対象言語発音ベクトル集合の生成方法と同様であり、合成対象言語発話情報集合mの発話情報から算出される発音ベクトル(以下、合成対象言語発音ベクトルという)の集合が合成対象言語発音ベクトル集合mである。
The second pronunciation
声質変換部711は、合成対象言語音声データmと、S712で生成した合成対象言語発音ベクトル集合mを入力として、不特定話者声質変換器を用いて声質変換後合成対象言語音声データmを生成し、出力する(S711)。例えば、不特定話者声質変換器が式(2)で表される場合、合成対象言語音声データmのスペクトルパラメータCsynth,org,m(t)と対応する合成対象言語発音ベクトルVsynth,org,m(t)の組(Csynth,org,m(t), Vsynth,org,m(t))から目標話者の声質を有する合成対象言語の目標話者スペクトルパラメータm C^synth,target,m(t)へ変換する。
The voice
声質変換器の学習に(参考非特許文献1)を用いた場合は、(参考非特許文献1)に従い声質変換を行えばよい。式(2)に従い計算された目標話者スペクトルパラメータm C^synth,target,m(t)が声質変換後合成対象言語音声データmである。 When (Reference Non-Patent Document 1) is used for learning of the voice quality converter, the voice quality conversion may be performed according to (Reference Non-Patent Document 1). The target speaker spectrum parameter m C ^ synth, target, m (t) calculated according to the equation (2) is the speech data m to be synthesized after voice conversion.
合成用モデル学習部713は、S711で生成した声質変換後合成対象言語音声データmと、合成対象言語発話情報集合mを入力として、クロスリンガル音声合成モデルを学習し、出力する(S713)。クロスリンガル音声合成用モデルの学習には、(非特許文献1)、(非特許文献2)、(参考非特許文献3)を用いることができる。
The synthesis
本実施形態では、M名の合成対象言語音声データを用いている。M名の合成対象言語音声データを用いた場合、目標話者の声質を有する、M名の声質変換後合成対象言語音声データを音声合成用モデルの学習データとして使用することができる。これにより、1名分の合成対象言語音声データを使用する場合に比して、音声合成用モデル学習に使用可能な音声データの量が増加するため、合成音声の品質を向上させるクロスリンガル音声合成用モデルを生成することができる。その上、第二実施形態同様、学習対象言語の発話情報も用いて学習した不特定話者声質変換器を用いているため、合成音声の品質をより向上させるクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより合成音声の品質を向上させることができる。 In the present embodiment, M name synthesis target language speech data is used. In the case of using the M synthesis target language speech data, the M name speech quality-converted synthesis target language speech data having the voice quality of the target speaker can be used as learning data for the speech synthesis model. This increases the amount of speech data that can be used for speech synthesis model learning compared to the case of using one target language speech data for synthesis, so cross-lingual speech synthesis improves the quality of synthesized speech. Model can be generated. In addition, as in the second embodiment, since the unspecified speaker voice quality converter learned using the speech information of the language to be learned is used, a cross-lingual speech synthesis model that further improves the quality of the synthesized speech is generated. be able to. In addition, the quality of synthesized speech can be improved by using the cross-lingual speech synthesis model.
<第六実施形態>
第五実施形態では、M名の話者による合成対象言語音声データから生成した声質変換後合成対象言語音声データをすべて音声合成用モデル学習に使用している。
<Sixth embodiment>
In the fifth embodiment, all post-voice quality conversion target language speech data generated from synthesis target language speech data by M speakers is used for speech synthesis model learning.
しかし、合成対象言語入力話者mと目標話者の話者性が大きく異なる場合、声質変換部711が生成する声質変換後合成対象言語音声データmの変換精度が劣化する場合がある。したがって、必ずしもM名すべての声質変換後合成用対象言語音声データを音声合成用モデル学習に使用することが適切であるとは限らない。
However, if the speech characteristics of the synthesis target language input speaker m and the target speaker are greatly different, the conversion accuracy of the post-voice quality conversion synthesis target language speech data m generated by the voice
そこで、本実施形態では、この問題を回避するために、M名の声質変換後合成用対象言語音声データのうち、変換精度が高いもののみを音声合成用モデルの学習に使用する。
これにより、合成音声の品質を向上させることができる。
Therefore, in the present embodiment, in order to avoid this problem, only speech data with a high conversion accuracy among the M language voice synthesis target language speech data for speech synthesis conversion is used for learning the speech synthesis model.
As a result, the quality of the synthesized speech can be improved.
以下、図27〜図28を参照して音声合成用モデル学習装置820について説明する。なお、不特定話者声質変換器の生成には不特定話者声質変換器学習装置310を用いることができる。つまり、不特定話者声質変換器学習装置310と、音声合成用モデル学習装置820と、記録部190を含むクロスリンガル音声合成用モデル学習装置を構成することができる。ここで、記録部190には、事前に発音ベクトル作成規則が記録されているものとする。また、合成音声の生成にはクロスリンガル音声合成装置200を用いることができる。
Hereinafter, the speech synthesis model learning device 820 will be described with reference to FIGS. 27 to 28. Note that the unspecified speaker voice quality
[音声合成用モデル学習装置820]
図27に示すように音声合成用モデル学習装置820は、声質変換部711、第2発音ベクトル生成部712、話者類似性判定部812、合成用モデル学習部713を含む。図28に従い音声合成用モデル学習装置820の動作について説明する。
[Speech Synthesis Model Learning Device 820]
As shown in FIG. 27, the speech synthesis model learning device 820 includes a voice
第2発音ベクトル生成部712は、合成対象言語発話情報集合mを入力として、記録部190から読み込んだ発音ベクトル作成規則を用いて、合成対象言語発音ベクトル集合mを生成し、出力する(S712)。
The second pronunciation
声質変換部711は、合成対象言語音声データmと、S712で生成した合成対象言語発音ベクトル集合mを入力として、不特定話者声質変換器を用いて声質変換後合成対象言語音声データmを生成し、出力する(S711)。
The voice
話者類似性判定部812は、S711で生成した声質変換後合成対象言語音声データm (1≦m≦M)と目標話者音声データを入力として、声質変換後合成対象言語音声データmと目標話者音声データの類似の程度を示す類似度mを算出し、類似度mに基づいて声質変換後合成対象言語音声データmが目標話者音声データに類似していると判定される場合、声質変換後合成対象言語音声データmを目標話者音声データに類似している声質変換後合成対象言語音声データの集合である目標話者類似合成対象言語音声データ集合に追加していくことにより、目標話者類似合成対象言語音声データ集合を生成する(S812)。話者類似性判定部812の動作は、話者類似性判定部612の動作と同様でよい。
The speaker
合成用モデル学習部713は、S812で生成した目標話者類似合成対象言語音声データ集合と、合成対象言語発話情報集合m(1≦m≦M)を入力として、クロスリンガル音声合成モデルを学習し、出力する(S713)。ここでは、目標話者類似合成対象言語音声データ集合の要素である声質変換後合成対象言語音声データmに対応する合成対象言語発話情報集合mのみが使用されることになる。
The synthesis
なお、S812で目標話者類似合成対象言語音声データ集合を生成する代わりに、最も類似度が大きい声質変換後合成対象言語音声データを目標話者類似合成対象言語音声データとして生成するのでもよい。この場合、合成用モデル学習部713は、S812で生成した目標話者類似合成対象言語音声データと、合成対象言語発話情報集合m(1≦m≦M)を入力として、クロスリンガル音声合成モデルを学習し、出力する。
Note that, instead of generating the target speaker similar synthesis target language speech data set in S812, the speech quality converted synthesis target language speech data having the highest degree of similarity may be generated as the target speaker similar synthesis target language speech data. In this case, the synthesis
本実施形態では、類似度が大きい声質変換後合成対象言語音声データのみを音声合成用モデルの学習データとして用いている。これにより、合成音声の品質を向上させるクロスリンガル音声合成用モデルを生成することができる。その上、第二実施形態同様、学習対象言語の発話情報も用いて学習した不特定話者声質変換器を用いているため、合成音声の品質をより向上させるクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより合成音声の品質を向上させることができる。 In the present embodiment, only the speech data after speech quality conversion with high similarity is used as learning data for the speech synthesis model. This makes it possible to generate a cross-lingual speech synthesis model that improves the quality of the synthesized speech. In addition, as in the second embodiment, since the unspecified speaker voice quality converter learned using the speech information of the language to be learned is used, a cross-lingual speech synthesis model that further improves the quality of the synthesized speech is generated. be able to. In addition, the quality of synthesized speech can be improved by using the cross-lingual speech synthesis model.
特に、最も類似度が大きい声質変換後合成対象言語音声データのみを学習データとして用いる場合は、目標話者による合成対象言語での音声データが利用できる場合に生成されるような音声合成用モデルによる合成音声の品質に近いクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより目標話者による合成対象言語での音声データが利用できる場合に生成されるような音声合成用モデルによる合成音声の品質に近い合成音声を生成することができる。 In particular, when only speech data after speech quality conversion with the highest degree of similarity is used as learning data, it is based on a speech synthesis model that is generated when speech data in the synthesis target language by the target speaker is available. A model for cross-lingual speech synthesis close to the quality of synthesized speech can be generated. In addition, by using the cross-lingual speech synthesis model, a synthesized speech that is close to the quality of the synthesized speech by the speech synthesis model that is generated when speech data in the target language by the target speaker is available is generated. be able to.
<変形例>
この発明は上述の実施形態に限定されるものではなく、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。上記実施形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
<Modification>
The present invention is not limited to the above-described embodiment, and it goes without saying that modifications can be made as appropriate without departing from the spirit of the present invention. The various processes described in the above embodiment may be executed not only in time series according to the order of description, but also in parallel or individually as required by the processing capability of the apparatus that executes the processes or as necessary.
<補記>
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
<Supplementary note>
The apparatus of the present invention includes, for example, a single hardware entity as an input unit to which a keyboard or the like can be connected, an output unit to which a liquid crystal display or the like can be connected, and a communication device (for example, a communication cable) capable of communicating outside the hardware entity. Can be connected to a communication unit, a CPU (Central Processing Unit, may include a cache memory or a register), a RAM or ROM that is a memory, an external storage device that is a hard disk, and an input unit, an output unit, or a communication unit thereof , A CPU, a RAM, a ROM, and a bus connected so that data can be exchanged between the external storage devices. If necessary, the hardware entity may be provided with a device (drive) that can read and write a recording medium such as a CD-ROM. A physical entity having such hardware resources includes a general-purpose computer.
ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。 The external storage device of the hardware entity stores a program necessary for realizing the above functions and data necessary for processing the program (not limited to the external storage device, for example, reading a program) It may be stored in a ROM that is a dedicated storage device). Data obtained by the processing of these programs is appropriately stored in a RAM or an external storage device.
ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成要件)を実現する。 In the hardware entity, each program stored in an external storage device (or ROM or the like) and data necessary for processing each program are read into a memory as necessary, and are interpreted and executed by a CPU as appropriate. . As a result, the CPU realizes a predetermined function (respective component requirements expressed as the above-described unit, unit, etc.).
本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。 The present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the spirit of the present invention. In addition, the processing described in the above embodiment may be executed not only in time series according to the order of description but also in parallel or individually as required by the processing capability of the apparatus that executes the processing. .
既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。 As described above, when the processing functions in the hardware entity (the apparatus of the present invention) described in the above embodiments are realized by a computer, the processing contents of the functions that the hardware entity should have are described by a program. Then, by executing this program on a computer, the processing functions in the hardware entity are realized on the computer.
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。 The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used. Specifically, for example, as a magnetic recording device, a hard disk device, a flexible disk, a magnetic tape or the like, and as an optical disk, a DVD (Digital Versatile Disc), a DVD-RAM (Random Access Memory), a CD-ROM (Compact Disc Read Only). Memory), CD-R (Recordable) / RW (ReWritable), etc., magneto-optical recording medium, MO (Magneto-Optical disc), etc., semiconductor memory, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory), etc. Can be used.
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。 The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。 A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own recording medium and executes a process according to the read program. As another execution form of the program, the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good. Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。 In this embodiment, a hardware entity is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.
Claims (8)
目標話者による学習対象言語での音声データである目標話者音声データと学習対象言語入力話者nによる学習対象言語での音声データである学習対象言語音声データn(1≦n≦N)は、同一の文章を発話した音声データであり、
前記目標話者音声データと前記学習対象言語音声データn(1≦n≦N)から、前記目標話者による合成対象言語での音声を合成するクロスリンガル音声合成用モデルを学習するクロスリンガル音声合成用モデル学習装置であって、
前記目標話者音声データと前記学習対象言語音声データnとの時間情報を調整し、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnを生成する時間情報調整部と、
前記時間情報調整後目標話者音声データnと前記時間情報調整後学習対象言語音声データnの組(1≦n≦N)から、任意の音声データを前記目標話者の声質を有する音声データに変換する不特定話者声質変換器を学習する声質変換器学習部と、
前記不特定話者声質変換器を用いて、合成対象言語入力話者による合成対象言語での音声データである合成対象言語音声データから、前記目標話者の声質を有する声質変換後合成対象言語音声データを生成する声質変換部と、
前記声質変換後合成対象言語音声データと前記合成対象言語音声データに含まれる発話の発話情報の集合である合成対象言語発話情報集合から、前記クロスリンガル音声合成用モデルを学習する合成用モデル学習部と
を含むクロスリンガル音声合成用モデル学習装置。 N is an integer of 1 or more, n is an integer 1 ≦ n ≦ N,
Target language speech data n (1 ≦ n ≦ N), which is the target speaker speech data that is speech data in the target language by the target speaker, and speech data in the target language by the target language input speaker n , Voice data uttering the same sentence,
Cross-lingual speech synthesis for learning a cross-lingual speech synthesis model for synthesizing speech in the synthesis target language by the target speaker from the target speaker speech data and the learning target language speech data n (1 ≦ n ≦ N) Model learning device for
The target speaker speech data and adjusts the time information of the learned language audio data n, the time information adjusted target speaker speech data n and time information adjusted learned language time to generate audio data n information adjustment unit When,
From the set (1 ≦ n ≦ N) of the target speaker voice data n after the time information adjustment and the learning target language voice data n after the time information adjustment, arbitrary voice data is converted into voice data having the voice quality of the target speaker. A voice quality converter learning unit for learning an unspecified speaker voice quality converter to be converted;
Using the unspecified speaker voice quality converter, the voice to be synthesized after synthesis of speech having the voice quality of the target speaker from the synthesis target language voice data which is voice data in the synthesis target language by the synthesis target language input speaker A voice quality conversion unit for generating data;
A synthesis model learning unit that learns the cross-lingual speech synthesis model from the synthesis target language speech information set that is a set of speech information included in the synthesis target language speech data after the voice quality conversion and the synthesis target language speech data A model learning device for cross-lingual speech synthesis including and.
目標話者による学習対象言語での音声データである目標話者音声データと学習対象言語入力話者nによる学習対象言語での音声データである学習対象言語音声データn(1≦n≦N) は、同一の文章を発話した音声データであり、
前記目標話者音声データと前記学習対象言語音声データn(1≦n≦N)から、前記目標話者による合成対象言語での音声を合成するクロスリンガル音声合成用モデルを学習するクロスリンガル音声合成用モデル学習装置であって、
学習対象言語の音素と合成対象言語の音素の対応関係を示す発音ベクトル作成規則を記録した記録部と、
前記目標話者音声データと前記学習対象言語音声データnとの時間情報を調整し、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnを生成する時間情報調整部と、
前記発音ベクトル作成規則を用いて、前記学習対象言語音声データnに含まれる発話の発話情報の集合である学習対象言語発話情報集合nから、前記発話情報から算出される発音ベクトルの集合である学習対象言語発音ベクトル集合nを生成する第1発音ベクトル生成部と、
前記時間情報調整後目標話者音声データnと前記時間情報調整後学習対象言語音声データnと前記学習対象言語発音ベクトル集合nの組(1≦n≦N)から、任意の音声データを前記目標話者の声質を有する音声データに変換する不特定話者声質変換器を学習する声質変換器学習部と、
前記発音ベクトル作成規則を用いて、合成対象言語入力話者による合成対象言語での音声データである合成対象言語音声データに含まれる発話の発話情報の集合である合成対象言語発話情報集合から、前記発話情報から算出される発音ベクトルの集合である合成対象言語発音ベクトル集合を生成する第2発音ベクトル生成部と、
前記不特定話者声質変換器を用いて、前記合成対象言語音声データと前記合成対象言語発音ベクトル集合から、前記目標話者の声質を有する声質変換後合成対象言語音声データを生成する声質変換部と、
前記声質変換後合成対象言語音声データと前記合成対象言語発話情報集合から、前記クロスリンガル音声合成用モデルを学習する合成用モデル学習部と
を含むクロスリンガル音声合成用モデル学習装置。 N is an integer of 1 or more, n is an integer 1 ≦ n ≦ N,
Target language speech data n (1 ≦ n ≦ N), which is the target speaker speech data that is speech data in the target language by the target speaker, and speech data in the target language by the target language input speaker n , Voice data uttering the same sentence,
Cross-lingual speech synthesis for learning a cross-lingual speech synthesis model for synthesizing speech in the synthesis target language by the target speaker from the target speaker speech data and the learning target language speech data n (1 ≦ n ≦ N) Model learning device for
A recording unit that records a pronunciation vector creation rule indicating a correspondence relationship between a phoneme of a language to be learned and a phoneme of a language to be synthesized;
The target speaker speech data and adjusts the time information of the learned language audio data n, the time information adjusted target speaker speech data n and time information adjusted learned language time to generate audio data n information adjustment unit When,
Learning, which is a set of pronunciation vectors calculated from the utterance information, from the learning target language utterance information set n , which is a set of utterance information of utterances included in the learning target language speech data n , using the pronunciation vector creation rule A first pronunciation vector generation unit for generating a target language pronunciation vector set n ;
From the set (1 ≦ n ≦ N) of the target speaker speech data n after the time information adjustment, the learning target language speech data n after the time information adjustment and the learning target language pronunciation vector set n (1 ≦ n ≦ N), the target speech data A voice quality converter learning unit for learning an unspecified speaker voice quality converter for converting into voice data having the voice quality of the speaker;
Using the pronunciation vector creation rule, from the synthesis target language utterance information set, which is a set of utterance information of the utterance included in the synthesis target language speech data that is speech data in the synthesis target language by the synthesis target language input speaker, A second pronunciation vector generation unit that generates a synthesis target language pronunciation vector set that is a set of pronunciation vectors calculated from the utterance information;
Using the unspecified speaker voice quality converter, a voice quality conversion unit that generates voice-converted synthesis target language voice data having the voice quality of the target speaker from the synthesis target language voice data and the synthesis target language pronunciation vector set When,
A cross-lingual speech synthesis model learning device comprising: a synthesis model learning unit that learns the cross-lingual speech synthesis model from the synthesis target language speech data after voice quality conversion and the synthesis target language utterance information set.
Mを1以上の整数、mを1≦m≦Mなる整数とし、
前記声質変換部は、合成対象言語入力話者mによる合成対象言語での音声データである合成対象言語音声データmから、前記目標話者の声質を有する声質変換後合成対象言語音声データmを生成し、
前記合成用モデル学習部は、前記声質変換後合成対象言語音声データmと前記合成対象言語音声データmに含まれる発話の発話情報の集合である合成対象言語発話情報集合m(1≦m≦M)から、前記クロスリンガル音声合成用モデルを学習する
ことを特徴とするクロスリンガル音声合成用モデル学習装置。 A model learning device for cross-lingual speech synthesis according to claim 1,
M is an integer of 1 or more, m is an integer satisfying 1 ≦ m ≦ M,
The voice quality conversion unit generates post-voice quality synthesis target language voice data m having the voice quality of the target speaker from synthesis target language voice data m which is voice data in a synthesis target language by a synthesis target language input speaker m. And
The synthesis model learning unit includes a synthesis target language utterance information set m (1 ≦ m ≦ M), which is a set of utterance information included in the synthesis target language speech data m and the synthesis target language speech data m. ) To learn the cross-lingual speech synthesis model. A cross-lingual speech synthesis model learning device.
さらに、
前記声質変換後合成対象言語音声データmと前記目標話者音声データの類似の程度を示す類似度mを算出し、前記類似度mに基づいて前記声質変換後合成対象言語音声データmが前記目標話者音声データに類似していると判定される場合、前記声質変換後合成対象言語音声データmを前記目標話者音声データに類似している声質変換後合成対象言語音声データの集合である目標話者類似合成対象言語音声データ集合に追加していくことにより、前記目標話者類似合成対象言語音声データ集合を生成する話者類似性判定部を含み、
前記合成用モデル学習部は、前記目標話者類似合成対象言語音声データ集合と前記合成対象言語発話情報m(1≦m≦M)から、前記クロスリンガル音声合成用モデルを学習する
ことを特徴とするクロスリンガル音声合成用モデル学習装置。 A model learning device for cross-lingual speech synthesis according to claim 3,
further,
A similarity m indicating a degree of similarity between the voice quality converted synthesis target language voice data m and the target speaker voice data is calculated, and the voice quality converted synthesis target language voice data m is calculated based on the similarity m. When it is determined that the speech data is similar to the speaker voice data, the target speech data m is a set of post-voice quality synthesis target language speech data similar to the target speaker voice data. A speaker similarity determination unit that generates the target speaker similar synthesis target language speech data set by adding to the speaker similar synthesis target language speech data set;
The synthesis model learning unit learns the cross-lingual speech synthesis model from the target speaker similar synthesis target language speech data set and the synthesis target language utterance information m (1 ≦ m ≦ M). Model learning device for cross-lingual speech synthesis.
前記合成テキストから、当該合成テキストのコンテキスト情報を生成するテキスト解析部と、
前記クロスリンガル音声合成用モデルを用いて、前記コンテキスト情報から音声パラメータを生成する音声パラメータ生成部と、
前記音声パラメータから、前記合成音声を生成する音声波形生成部と
を含むクロスリンガル音声合成装置。 Synthetic text that is text in a synthesis target language that is a target of speech synthesis using the cross-lingual speech synthesis model learned by the cross-lingual speech synthesis model learning device according to any one of claims 1 to 4. A cross-lingual speech synthesizer for generating synthesized speech of the synthesized text from
A text analysis unit that generates context information of the synthesized text from the synthesized text;
Using the cross-lingual speech synthesis model, a speech parameter generation unit that generates speech parameters from the context information;
A cross-lingual speech synthesizer comprising: a speech waveform generator that generates the synthesized speech from the speech parameters.
目標話者による学習対象言語での音声データである目標話者音声データと学習対象言語入力話者nによる学習対象言語での音声データである学習対象言語音声データn(1≦n≦N) は、同一の文章を発話した音声データであり、
クロスリンガル音声合成用モデル学習装置が、前記目標話者音声データと前記学習対象言語音声データn(1≦n≦N)から、前記目標話者による合成対象言語での音声を合成するクロスリンガル音声合成用モデルを学習するクロスリンガル音声合成用モデル学習方法であって、
前記クロスリンガル音声合成用モデル学習装置が、前記目標話者音声データと前記学習対象言語音声データnとの時間情報を調整し、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnを生成する時間情報調整ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記時間情報調整後目標話者音声データnと前記時間情報調整後学習対象言語音声データnの組(1≦n≦N)から、任意の音声データを前記目標話者の声質を有する音声データに変換する不特定話者声質変換器を学習する声質変換器学習ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記不特定話者声質変換器を用いて、合成対象言語入力話者による合成対象言語での音声データである合成対象言語音声データから、前記目標話者の声質を有する声質変換後合成対象言語音声データを生成する声質変換ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記声質変換後合成対象言語音声データと前記合成対象言語音声データに含まれる発話の発話情報の集合である合成対象言語発話情報集合から、前記クロスリンガル音声合成用モデルを学習する合成用モデル学習ステップと
を含むクロスリンガル音声合成用モデル学習方法。 N is an integer of 1 or more, n is an integer 1 ≦ n ≦ N,
Target language speech data n (1 ≦ n ≦ N), which is the target speaker speech data that is speech data in the target language by the target speaker, and speech data in the target language by the target language input speaker n , Voice data uttering the same sentence,
The cross-lingual speech synthesis model learning device synthesizes speech in the synthesis target language by the target speaker from the target speaker speech data and the learning target language speech data n (1 ≦ n ≦ N). A cross-lingual speech synthesis model learning method for learning a synthesis model,
The cross-lingual speech synthesis model learning device adjusts time information between the target speaker speech data and the learning target language speech data n, and adjusts the time information adjusted target speaker speech data n and the time information adjusted learning target. A time information adjustment step for generating language audio data n ;
The cross-lingual speech synthesis model learning device is configured to convert arbitrary speech data from the set (1 ≦ n ≦ N) of the target speaker speech data n after the time information adjustment and the target language speech data n after the time information adjustment. A voice quality converter learning step for learning an unspecified speaker voice quality converter for converting into voice data having the voice quality of the target speaker;
The cross-lingual speech synthesis model learning device uses the unspecified speaker voice quality converter from the synthesis target language speech data which is speech data in a synthesis target language by a synthesis target language input speaker, and the target speaker A voice quality conversion step of generating speech data to be synthesized after voice quality conversion having the voice quality of:
The cross-lingual speech synthesis model learning device uses the cross-lingual speech from a synthesis target language utterance information set, which is a set of utterance information included in the synthesis target language speech data and the synthesis target language speech data after the voice quality conversion. A model learning method for cross-lingual speech synthesis, comprising: a model learning step for synthesis for learning a model for synthesis.
目標話者による学習対象言語での音声データである目標話者音声データと学習対象言語入力話者nによる学習対象言語での音声データである学習対象言語音声データn(1≦n≦N) は、同一の文章を発話した音声データであり、
学習対象言語の音素と合成対象言語の音素の対応関係を示す発音ベクトル作成規則を記録した記録部を有するクロスリンガル音声合成用モデル学習装置が、前記目標話者音声データと前記学習対象言語音声データn(1≦n≦N)から、前記目標話者による合成対象言語での音声を合成するクロスリンガル音声合成用モデルを学習するクロスリンガル音声合成用モデル学習方法であって、
前記クロスリンガル音声合成用モデル学習装置が、前記目標話者音声データと前記学習対象言語音声データnとの時間情報を調整し、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnを生成する時間情報調整ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記発音ベクトル作成規則を用いて、前記学習対象言語音声データnに含まれる発話の発話情報の集合である学習対象言語発話情報集合nから、前記発話情報から算出される発音ベクトルの集合である学習対象言語発音ベクトル集合nを生成する第1発音ベクトル生成ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記時間情報調整後目標話者音声データnと前記時間情報調整後学習対象言語音声データnと前記学習対象言語発音ベクトル集合nの組(1≦n≦N)から、任意の音声データを前記目標話者の声質を有する音声データに変換する不特定話者声質変換器を学習する声質変換器学習ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記発音ベクトル作成規則を用いて、合成対象言語入力話者による合成対象言語での音声データである合成対象言語音声データに含まれる発話の発話情報の集合である合成対象言語発話情報集合から、前記発話情報から算出される発音ベクトルの集合である合成対象言語発音ベクトル集合を生成する第2発音ベクトル生成ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記不特定話者声質変換器を用いて、前記合成対象言語音声データと前記合成対象言語発音ベクトル集合から、前記目標話者の声質を有する声質変換後合成対象言語音声データを生成する声質変換ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記声質変換後合成対象言語音声データと前記合成対象言語発話情報集合から、前記クロスリンガル音声合成用モデルを学習する合成用モデル学習ステップと
を含むクロスリンガル音声合成用モデル学習方法。 N is an integer of 1 or more, n is an integer 1 ≦ n ≦ N,
Target language speech data n (1 ≦ n ≦ N), which is the target speaker speech data that is speech data in the target language by the target speaker, and speech data in the target language by the target language input speaker n , Voice data uttering the same sentence,
A model learning device for cross-lingual speech synthesis having a recording unit that records a pronunciation vector creation rule indicating a correspondence relationship between a phoneme of a language to be learned and a phoneme of a language to be synthesized, the target speaker speech data and the learning target language speech data A cross-lingual speech synthesis model learning method for learning a cross-lingual speech synthesis model for synthesizing speech in a synthesis target language by the target speaker from n (1 ≦ n ≦ N),
The cross-lingual speech synthesis model learning device adjusts time information between the target speaker speech data and the learning target language speech data n, and adjusts the time information adjusted target speaker speech data n and the time information adjusted learning target. A time information adjustment step for generating language audio data n ;
The cross-lingual speech synthesis model learning device uses the pronunciation vector creation rule to generate the utterance information from the learning target language utterance information set n , which is a set of utterance information of utterances included in the learning target language speech data n. A first pronunciation vector generation step of generating a learning target language pronunciation vector set n , which is a set of pronunciation vectors calculated from
The model learning device for cross-lingual speech synthesis includes a set of the target speaker speech data n after time information adjustment, the learning target language speech data n after time information adjustment and the learning target language pronunciation vector set n (1 ≦ n ≦ N), a voice quality converter learning step for learning an unspecified speaker voice quality converter for converting arbitrary voice data into voice data having the voice quality of the target speaker;
The cross-lingual speech synthesis model learning device uses the pronunciation vector creation rules to collect speech utterance information included in synthesis target language speech data that is speech data in a synthesis target language by a synthesis target language input speaker. A second pronunciation vector generation step of generating a synthesis target language pronunciation vector set, which is a set of pronunciation vectors calculated from the utterance information, from the synthesis target language utterance information set of
The model learning device for cross-lingual speech synthesis uses the unspecified speaker voice quality converter, and after voice quality conversion having the voice quality of the target speaker from the synthesis target language voice data and the synthesis target language pronunciation vector set A voice conversion step for generating speech data to be synthesized;
The cross-lingual speech synthesis model learning device includes a synthesis model learning step of learning the cross-lingual speech synthesis model from the synthesis target language speech data after the voice quality conversion and the synthesis target language utterance information set. Model learning method for speech synthesis.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016225808A JP6631883B2 (en) | 2016-11-21 | 2016-11-21 | Model learning device for cross-lingual speech synthesis, model learning method for cross-lingual speech synthesis, program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016225808A JP6631883B2 (en) | 2016-11-21 | 2016-11-21 | Model learning device for cross-lingual speech synthesis, model learning method for cross-lingual speech synthesis, program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018084604A true JP2018084604A (en) | 2018-05-31 |
| JP6631883B2 JP6631883B2 (en) | 2020-01-15 |
Family
ID=62238194
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016225808A Active JP6631883B2 (en) | 2016-11-21 | 2016-11-21 | Model learning device for cross-lingual speech synthesis, model learning method for cross-lingual speech synthesis, program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6631883B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112712789A (en) * | 2020-12-21 | 2021-04-27 | 深圳市优必选科技股份有限公司 | Cross-language audio conversion method and device, computer equipment and storage medium |
| CN112767958A (en) * | 2021-02-26 | 2021-05-07 | 华南理工大学 | Zero-learning-based cross-language tone conversion system and method |
| CN112767912A (en) * | 2020-12-28 | 2021-05-07 | 深圳市优必选科技股份有限公司 | Cross-language voice conversion method and device, computer equipment and storage medium |
| WO2022140966A1 (en) * | 2020-12-28 | 2022-07-07 | 深圳市优必选科技股份有限公司 | Cross-language voice conversion method, computer device, and storage medium |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013171196A (en) * | 2012-02-21 | 2013-09-02 | Toshiba Corp | Device, method and program for voice synthesis |
| JP2016020972A (en) * | 2014-07-14 | 2016-02-04 | 株式会社東芝 | Voice synthesis dictionary generation device, voice synthesis device, voice synthesis dictionary generation method and voice synthesis dictionary generation program |
-
2016
- 2016-11-21 JP JP2016225808A patent/JP6631883B2/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013171196A (en) * | 2012-02-21 | 2013-09-02 | Toshiba Corp | Device, method and program for voice synthesis |
| JP2016020972A (en) * | 2014-07-14 | 2016-02-04 | 株式会社東芝 | Voice synthesis dictionary generation device, voice synthesis device, voice synthesis dictionary generation method and voice synthesis dictionary generation program |
Non-Patent Citations (1)
| Title |
|---|
| 能勢 隆: "ニューラルネットワークに基づくユーザ音声を必要としない多対一声質変換の検討", 日本音響学会 2015年 春季研究発表会講演論文集, JPN6019037498, March 2015 (2015-03-01), JP, pages 271 - 274, ISSN: 0004124685 * |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112712789A (en) * | 2020-12-21 | 2021-04-27 | 深圳市优必选科技股份有限公司 | Cross-language audio conversion method and device, computer equipment and storage medium |
| CN112712789B (en) * | 2020-12-21 | 2024-05-03 | 深圳市优必选科技股份有限公司 | Cross-language audio conversion method, device, computer equipment and storage medium |
| CN112767912A (en) * | 2020-12-28 | 2021-05-07 | 深圳市优必选科技股份有限公司 | Cross-language voice conversion method and device, computer equipment and storage medium |
| WO2022140966A1 (en) * | 2020-12-28 | 2022-07-07 | 深圳市优必选科技股份有限公司 | Cross-language voice conversion method, computer device, and storage medium |
| CN112767958A (en) * | 2021-02-26 | 2021-05-07 | 华南理工大学 | Zero-learning-based cross-language tone conversion system and method |
| CN112767958B (en) * | 2021-02-26 | 2023-12-26 | 华南理工大学 | A cross-language timbre conversion system and method based on zero-shot learning |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6631883B2 (en) | 2020-01-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN107610717B (en) | A Many-to-One Speech Conversion Method Based on Speech Posterior Probability | |
| JP6622505B2 (en) | Acoustic model learning device, speech synthesis device, acoustic model learning method, speech synthesis method, program | |
| US8571871B1 (en) | Methods and systems for adaptation of synthetic speech in an environment | |
| JP2023539888A (en) | Synthetic data augmentation using voice conversion and speech recognition models | |
| US11763797B2 (en) | Text-to-speech (TTS) processing | |
| JP6392012B2 (en) | Speech synthesis dictionary creation device, speech synthesis device, speech synthesis dictionary creation method, and speech synthesis dictionary creation program | |
| JP6680933B2 (en) | Acoustic model learning device, speech synthesis device, acoustic model learning method, speech synthesis method, program | |
| US20110238407A1 (en) | Systems and methods for speech-to-speech translation | |
| US20100057435A1 (en) | System and method for speech-to-speech translation | |
| Gutkin et al. | TTS for low resource languages: A Bangla synthesizer | |
| JP2001282282A (en) | Voice information processing method and apparatus, and storage medium | |
| JP2008242317A (en) | Prosody pattern generation device, speech synthesizer, program, and prosody pattern generation method | |
| JP2017058513A (en) | Learning device, speech synthesis device, learning method, speech synthesis method, learning program, and speech synthesis program | |
| US11361780B2 (en) | Real-time speech-to-speech generation (RSSG) apparatus, method and a system therefore | |
| JP6631883B2 (en) | Model learning device for cross-lingual speech synthesis, model learning method for cross-lingual speech synthesis, program | |
| JP5807921B2 (en) | Quantitative F0 pattern generation device and method, model learning device for F0 pattern generation, and computer program | |
| JP2016151736A (en) | Speech processing device and program | |
| Gutkin et al. | Building statistical parametric multi-speaker synthesis for bangladeshi bangla | |
| Chen et al. | Polyglot speech synthesis based on cross-lingual frame selection using auditory and articulatory features | |
| Sawada et al. | The NITech text-to-speech system for the Blizzard Challenge 2016. | |
| Chen et al. | The USTC System for Voice Conversion Challenge 2016: Neural Network Based Approaches for Spectrum, Aperiodicity and F0 Conversion. | |
| Biagetti et al. | HMM speech synthesis based on MDCT representation | |
| JP5722295B2 (en) | Acoustic model generation method, speech synthesis method, apparatus and program thereof | |
| Louw et al. | The Speect text-to-speech entry for the Blizzard Challenge 2016. | |
| JP7173339B2 (en) | Utterance evaluation device, utterance evaluation method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20161121 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181127 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20181127 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190924 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191001 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191112 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191126 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191128 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6631883 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |