[go: up one dir, main page]

JP2018084604A - Cross lingual voice synthesis model learning device, cross lingual voice synthesis device, cross lingual voice synthesis model learning method, and program - Google Patents

Cross lingual voice synthesis model learning device, cross lingual voice synthesis device, cross lingual voice synthesis model learning method, and program Download PDF

Info

Publication number
JP2018084604A
JP2018084604A JP2016225808A JP2016225808A JP2018084604A JP 2018084604 A JP2018084604 A JP 2018084604A JP 2016225808 A JP2016225808 A JP 2016225808A JP 2016225808 A JP2016225808 A JP 2016225808A JP 2018084604 A JP2018084604 A JP 2018084604A
Authority
JP
Japan
Prior art keywords
speech
synthesis
target language
target
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016225808A
Other languages
Japanese (ja)
Other versions
JP6631883B2 (en
Inventor
勇祐 井島
Yusuke Ijima
勇祐 井島
隆 能勢
Takashi Nose
隆 能勢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
NTT Inc
Original Assignee
Tohoku University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Nippon Telegraph and Telephone Corp filed Critical Tohoku University NUC
Priority to JP2016225808A priority Critical patent/JP6631883B2/en
Publication of JP2018084604A publication Critical patent/JP2018084604A/en
Application granted granted Critical
Publication of JP6631883B2 publication Critical patent/JP6631883B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a cross lingual voice synthesis technology which can synthesize voice in a language to be synthesized by a target speaker even when there is only one person's voice data in the language to be synthesized that is not voice data of the target speaker.SOLUTION: There are provided: a time information adjustment part 101 which generates after time information adjustment target speaker voice dataand after time information adjustment learning target language voice datafrom target speaker voice data and learning target language voice data; a vocal quality converter learning part 103 which learns a non-specific speaker vocal quality converter from a set of the after time information adjustment target speaker voice dataand the after time information adjustment learning target language voice data; a vocal quality conversion part 111 which uses the non-specific speaker vocal quality converter to generate after vocal quality conversion language to be synthesized voice data having a target speaker's vocal quality from the language to be synthesized voice data; and a synthesis model learning part 113 which learns a cross lingual voice synthesis model from the after vocal quality conversion language to be synthesized voice data and a set of the language to be synthesized speech information.SELECTED DRAWING: Figure 2

Description

本発明は、音声合成技術に関し、特にクロスリンガル音声合成技術に関する。   The present invention relates to speech synthesis technology, and more particularly to cross-lingual speech synthesis technology.

近年、主流となっている音声合成方式として、統計的パラメトリック音声合成がある。例えば、HMM(Hidden Markov Model)音声合成(非特許文献1)、DNN(Deep Neural Networks)音声合成(非特許文献2)がある。これらの手法では、音声の特徴量であるスペクトルパラメータ(ケプストラム、メルケプストラム等)、音高パラメータ(F0)等の音声パラメータを統計的にモデル化する。これにより、比較的少量の学習用音声データから任意の話者の安定した品質の合成音声を生成することが可能となる。   In recent years, statistical parametric speech synthesis is a speech synthesis method that has become mainstream. For example, there are HMM (Hidden Markov Model) speech synthesis (Non-Patent Document 1) and DNN (Deep Neural Networks) speech synthesis (Non-Patent Document 2). These methods statistically model speech parameters such as spectral parameters (cepstrum, mel cepstrum, etc.) and pitch parameters (F0), which are feature amounts of speech. As a result, it is possible to generate a synthesized speech of a stable quality of an arbitrary speaker from a relatively small amount of learning speech data.

この統計的パラメトリック音声合成を用いて、任意の話者の声質で、日本語や英語などの任意の言語で音声合成を実現する場合、一般には当該話者が当該言語で発話した音声データが必要となる。しかし、当該話者が当該言語を発声できない等の理由でそのような音声データを必ずしも入手できるとは限らない。このような問題を解決するために、クロスリンガル音声合成手法が提案されている(非特許文献3、非特許文献4)。   When using this statistical parametric speech synthesis to achieve speech synthesis in any language, such as Japanese or English, with the voice quality of any speaker, generally the speech data spoken by the speaker in that language is required. It becomes. However, such voice data is not always available because the speaker cannot speak the language. In order to solve such a problem, a cross-lingual speech synthesis method has been proposed (Non-patent Documents 3 and 4).

このクロスリンガル音声合成手法では、合成音声の生成対象となる目標話者の合成対象言語とは異なる学習対象言語の音声データを用いることで、目標話者の声質を持つ合成対象言語での合成音声を生成することが可能となる。   In this cross-lingual speech synthesis method, synthesized speech in the target language that has the voice quality of the target speaker is obtained by using speech data of the target language that is different from the target language of the target speaker to be synthesized. Can be generated.

益子貴史,徳田恵一,小林隆夫,今井聖,“動的特徴を用いたHMMに基づく音声合成”,電子情報通信学会論文誌 D-II, vol.J79-D-II, No.12, pp.2184-2190, 1996.Masashi Takashi, Tokuda Keiichi, Kobayashi Takao, Imai Kiyoshi, "HMM-based speech synthesis using dynamic features", IEICE Transactions D-II, vol.J79-D-II, No.12, pp. 2184-2190, 1996. Heiga Zen, Andrew Senior, Mike Schuster, “Statistical parametric speech synthesis using deep neural networks”, IEEE International Conference on Acoustics, Speech and Signal Processing ICASSP 2013, pp.7962-7966, 2013.Heiga Zen, Andrew Senior, Mike Schuster, “Statistical parametric speech synthesis using deep neural networks”, IEEE International Conference on Acoustics, Speech and Signal Processing ICASSP 2013, pp.7962-7966, 2013. Masanobu Abe, Kiyohiro Shikano, Hisao Kuwabara, “Cross-language voice conversion”, IEEE International Conference on Acoustics, Speech and Signal Processing ICASSP-90, pp.345-348, 1990.Masanobu Abe, Kiyohiro Shikano, Hisao Kuwabara, “Cross-language voice conversion”, IEEE International Conference on Acoustics, Speech and Signal Processing ICASSP-90, pp.345-348, 1990. Yi-Jian Wu, Yoshihiko Nankaku, Keiichi Tokuda, “State mapping based method for cross-lingual speaker adaptation in HMM-based speech synthesis”, INTERSPEECH 2009, 10th Annual Conference of the International Speech Communication Association, pp.528-531, 2009.Yi-Jian Wu, Yoshihiko Nankaku, Keiichi Tokuda, “State mapping based method for cross-lingual speaker adaptation in HMM-based speech synthesis”, INTERSPEECH 2009, 10th Annual Conference of the International Speech Communication Association, pp.528-531, 2009 .

しかし、非特許文献3の手法では、合成対象言語と学習対象言語のバイリンガル話者が発声した両言語の音声データが必要となる。また、非特許文献4の手法では、合成対象言語と学習対象言語の各言語で多くの話者による音声データが必要となる。   However, the method of Non-Patent Document 3 requires speech data in both languages spoken by a bilingual speaker of a synthesis target language and a learning target language. In the method of Non-Patent Document 4, voice data from many speakers is required in each of the synthesis target language and the learning target language.

そのため、バイリンガル話者による音声データを集めること、各言語の多数話者による音声データを集めることが難しい場合、いずれの手法も適用することができない。特に、合成対象言語の数が多くなると、このような問題が顕著になる。   Therefore, if it is difficult to collect speech data from bilingual speakers and collect speech data from many speakers in each language, neither method can be applied. In particular, such a problem becomes more prominent when the number of synthesis target languages increases.

そこで本発明は、目標話者の音声データではない合成対象言語での音声データが1名分しかない場合であっても、その目標話者による合成対象言語での音声を合成することが可能となるクロスリンガル音声合成技術を提供することを目的とする。   Therefore, the present invention can synthesize speech in the synthesis target language by the target speaker even when there is only one speech data in the synthesis target language that is not the target speaker's speech data. An object of the present invention is to provide a cross-lingual speech synthesis technology.

本発明の一態様は、Nを1以上の整数、nを1≦n≦Nなる整数とし、目標話者による学習対象言語での音声データである目標話者音声データと学習対象言語入力話者nによる学習対象言語での音声データである学習対象言語音声データn(1≦n≦N)は、同一の文章を発話した音声データであり、前記目標話者音声データと前記学習対象言語音声データn(1≦n≦N)から、前記目標話者による合成対象言語での音声を合成するクロスリンガル音声合成用モデルを学習するクロスリンガル音声合成用モデル学習装置であって、前記目標話者音声データと前記学習対象言語音声データnとの時間情報を調整し、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnを生成する時間情報調整部と、前記時間情報調整後目標話者音声データnと前記時間情報調整後学習対象言語音声データnの組(1≦n≦N)から、任意の音声データを前記目標話者の声質を有する音声データに変換する不特定話者声質変換器を学習する声質変換器学習部と、前記不特定話者声質変換器を用いて、合成対象言語入力話者による合成対象言語での音声データである合成対象言語音声データから、前記目標話者の声質を有する声質変換後合成対象言語音声データを生成する声質変換部と、前記声質変換後合成対象言語音声データと前記合成対象言語音声データに含まれる発話の発話情報の集合である合成対象言語発話情報集合から、前記クロスリンガル音声合成用モデルを学習する合成用モデル学習部とを含む。 In one embodiment of the present invention, N is an integer greater than or equal to 1, n is an integer satisfying 1 ≦ n ≦ N, and target speaker voice data that is speech data in a target language by a target speaker and a target language input speaker by n is audio data of the learning target language learning target language voice data n (1 ≦ n ≦ n) is a speech data uttered the same sentence, the said target speaker speech data learned language audio data A cross-lingual speech synthesis model learning device for learning a cross-lingual speech synthesis model for synthesizing speech in a synthesis target language by the target speaker from n (1 ≦ n ≦ N), the target speaker speech adjust the time information data and the learned language audio data n, and time information adjusted target speaker speech data n and time information adjusted learned language time to generate audio data n information adjustment unit, the time information After target speaker voice data n after adjustment Learning an unspecified speaker voice quality converter that converts arbitrary voice data into voice data having the voice quality of the target speaker from a set (1 ≦ n ≦ N) of target language voice data n after adjusting the recording time information Using the voice quality converter learning unit and the unspecified speaker voice quality converter, the voice quality of the target speaker is obtained from synthesis target language voice data which is voice data in a synthesis target language by a synthesis target language input speaker. From a voice quality conversion unit that generates post-voice quality conversion synthesis target language voice data, and a synthesis target language utterance information set that is a set of utterance information included in the synthesis target language voice data and the synthesis target language voice data after the voice quality conversion And a synthesis model learning unit for learning the cross-lingual speech synthesis model.

本発明の一態様は、Nを1以上の整数、nを1≦n≦Nなる整数とし、目標話者による学習対象言語での音声データである目標話者音声データと学習対象言語入力話者nによる学習対象言語での音声データである学習対象言語音声データn(1≦n≦N) は、同一の文章を発話した音声データであり、前記目標話者音声データと前記学習対象言語音声データn(1≦n≦N)から、前記目標話者による合成対象言語での音声を合成するクロスリンガル音声合成用モデルを学習するクロスリンガル音声合成用モデル学習装置であって、学習対象言語の音素と合成対象言語の音素の対応関係を示す発音ベクトル作成規則を記録した記録部と、前記目標話者音声データと前記学習対象言語音声データnとの時間情報を調整し、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnを生成する時間情報調整部と、前記発音ベクトル作成規則を用いて、前記学習対象言語音声データnに含まれる発話の発話情報の集合である学習対象言語発話情報集合nから、前記発話情報から算出される発音ベクトルの集合である学習対象言語発音ベクトル集合nを生成する第1発音ベクトル生成部と、前記時間情報調整後目標話者音声データnと前記時間情報調整後学習対象言語音声データnと前記学習対象言語発音ベクトル集合nの組(1≦n≦N)から、任意の音声データを前記目標話者の声質を有する音声データに変換する不特定話者声質変換器を学習する声質変換器学習部と、前記発音ベクトル作成規則を用いて、合成対象言語入力話者による合成対象言語での音声データである合成対象言語音声データに含まれる発話の発話情報の集合である合成対象言語発話情報集合から、前記発話情報から算出される発音ベクトルの集合である合成対象言語発音ベクトル集合を生成する第2発音ベクトル生成部と、前記不特定話者声質変換器を用いて、前記合成対象言語音声データと前記合成対象言語発音ベクトル集合から、前記目標話者の声質を有する声質変換後合成対象言語音声データを生成する声質変換部と、前記声質変換後合成対象言語音声データと前記合成対象言語発話情報集合から、前記クロスリンガル音声合成用モデルを学習する合成用モデル学習部とを含む。 In one embodiment of the present invention, N is an integer greater than or equal to 1, n is an integer satisfying 1 ≦ n ≦ N, and target speaker voice data that is speech data in a target language by a target speaker and a target language input speaker by n is audio data of the learning target language learning target language voice data n (1 ≦ n ≦ n) is a speech data uttered the same sentence, the said target speaker speech data learned language audio data a cross-lingual speech synthesis model learning device for learning a cross-lingual speech synthesis model for synthesizing speech in a synthesis target language by the target speaker from n (1 ≦ n ≦ N), And the time information of the target speaker voice data and the learning target language voice data n are adjusted, and the target information after adjusting the time information is adjusted. 's voice data n and time information tone And the rear learning target language speech data n the time information adjustment unit that generates, using the pronunciation vector construction rules, said a set of speech information speech included in the learning target language speech data n learned the target language utterance information set n A first pronunciation vector generation unit that generates a learning target language pronunciation vector set n , which is a set of pronunciation vectors calculated from the utterance information, the time information adjusted target speaker voice data n, and the time information adjusted Unspecified speaker voice quality conversion for converting arbitrary voice data into voice data having the voice quality of the target speaker from a set of learning target language voice data n and the learning target language pronunciation vector set n (1 ≦ n ≦ N) Included in the synthesis target language speech data, which is speech data in the synthesis target language by the synthesis target language input speaker, using the voice quality converter learning unit that learns the language and the pronunciation vector creation rules A second pronunciation vector generation unit that generates a synthesis target language pronunciation vector set that is a set of pronunciation vectors calculated from the speech information from a synthesis target language utterance information set that is a set of utterance information of the story; A voice quality conversion unit that generates post-speech synthesis target language voice data having voice quality of the target speaker from the synthesis target language voice data and the synthesis target language pronunciation vector set using a voice quality converter; and the voice quality A synthesis model learning unit that learns the cross-lingual speech synthesis model from the post-conversion synthesis target language speech data and the synthesis target language utterance information set.

本発明によれば、任意の音声データを目標話者の声質を有する音声データに変換する声質変換器を学習することにより、目標話者の音声データではない合成対象言語での音声データが1名分しかない場合であっても、その目標話者による合成対象言語での音声を合成するためのモデルを生成することが可能となる。   According to the present invention, by learning a voice quality converter that converts arbitrary voice data into voice data having the voice quality of the target speaker, one voice data in the synthesis target language that is not the voice data of the target speaker is obtained. Even if there is only the case, it is possible to generate a model for synthesizing speech in the synthesis target language by the target speaker.

音素セグメンテーション情報の一例を示す図。The figure which shows an example of phoneme segmentation information. クロスリンガル音声合成用モデル学習装置100の構成の一例を示す図。The figure which shows an example of a structure of the model learning apparatus 100 for cross-lingual speech synthesis. クロスリンガル音声合成用モデル学習装置100の動作の一例を示す図。The figure which shows an example of operation | movement of the model learning apparatus 100 for cross-lingual speech synthesis. 不特定話者声質変換器学習装置110の構成の一例を示す図。The figure which shows an example of a structure of the unspecified speaker voice quality converter learning device. 不特定話者声質変換器学習装置110の動作の一例を示す図。The figure which shows an example of operation | movement of the unspecified speaker voice quality converter learning device 110. 音声合成用モデル学習装置120の構成の一例を示す図。The figure which shows an example of a structure of the model learning apparatus 120 for speech synthesis. 音声合成用モデル学習装置120の動作の一例を示す図。The figure which shows an example of operation | movement of the model learning apparatus 120 for speech synthesis. クロスリンガル音声合成装置200の構成の一例を示す図。1 is a diagram illustrating an example of a configuration of a cross-lingual speech synthesizer 200. FIG. クロスリンガル音声合成装置200の動作の一例を示す図。The figure which shows an example of operation | movement of the cross-lingual speech synthesizer. 発音ベクトル作成規則の一例を示す図。The figure which shows an example of a pronunciation vector creation rule. クロスリンガル音声合成用モデル学習装置300の構成の一例を示す図。The figure which shows an example of a structure of the model learning apparatus 300 for cross-lingual speech synthesis. 不特定話者声質変換器学習装置310の構成の一例を示す図。The figure which shows an example of a structure of the unspecified speaker voice quality converter learning device 310. 不特定話者声質変換器学習装置310の動作の一例を示す図。The figure which shows an example of operation | movement of the unspecified speaker voice quality converter learning device 310. 音声合成用モデル学習装置320の構成の一例を示す図。The figure which shows an example of a structure of the model learning apparatus 320 for speech synthesis. 音声合成用モデル学習装置320の動作の一例を示す図。The figure which shows an example of operation | movement of the model learning apparatus 320 for speech synthesis. 発音ベクトル作成規則生成装置400の構成の一例を示す図。The figure which shows an example of a structure of the pronunciation vector creation rule production | generation apparatus 400. FIG. 発音ベクトル作成規則生成装置400の動作の一例を示す図。The figure which shows an example of operation | movement of the pronunciation vector creation rule production | generation apparatus 400. FIG. 第1発音統計情報生成部410の動作の一例を示す図。The figure which shows an example of operation | movement of the 1st pronunciation statistics information generation part 410. FIG. 発音類似性判定部420の動作の一例を示す図。The figure which shows an example of operation | movement of the pronunciation similarity determination part 420. 音声合成用モデル学習装置520の構成の一例を示す図。The figure which shows an example of a structure of the model learning apparatus 520 for speech synthesis. 音声合成用モデル学習装置520の動作の一例を示す図。The figure which shows an example of operation | movement of the model learning apparatus 520 for speech synthesis. 音声合成用モデル学習装置620の構成の一例を示す図。The figure which shows an example of a structure of the model learning apparatus 620 for speech synthesis. 音声合成用モデル学習装置620の動作の一例を示す図。The figure which shows an example of operation | movement of the model learning apparatus 620 for speech synthesis. 話者類似性判定部612の動作の一例を示す図。The figure which shows an example of operation | movement of the speaker similarity determination part 612. 音声合成用モデル学習装置720の構成の一例を示す図。The figure which shows an example of a structure of the model learning apparatus 720 for speech synthesis. 音声合成用モデル学習装置720の動作の一例を示す図。The figure which shows an example of operation | movement of the model learning apparatus 720 for speech synthesis. 音声合成用モデル学習装置820の構成の一例を示す図。The figure which shows an example of a structure of the model learning apparatus 820 for speech synthesis. 音声合成用モデル学習装置820の動作の一例を示す図。The figure which shows an example of operation | movement of the model learning apparatus 820 for speech synthesis.

以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail. In addition, the same number is attached | subjected to the structure part which has the same function, and duplication description is abbreviate | omitted.

<表記方法>
_(アンダースコア)は下付き添字を表す。例えば、xy_zはyzがxに対する上付き添字であり、xy_zはyzがxに対する下付き添字であることを表す。
<Notation>
_ (Underscore) represents a subscript. For example, xy_z represents that yz is a superscript to x, and xy_z represents that yz is a subscript to x.

<定義>
以下、各実施形態で用いる用語について説明する。
<Definition>
Hereinafter, terms used in each embodiment will be described.

[音声合成用モデル]
音声合成用モデルとは、音声合成に必要となる音声特徴量・音響特徴量(以下、音声パラメータという)を統計的にモデル化したものである。音声パラメータの例として、ケプストラム、メルケプストラム等のスペクトルパラメータや基本周波数(F0)等の音高パラメータがある。音声合成用モデルは、後述する音声データと発話情報を用いて学習する。音声合成用モデルの学習手法はいくつか提案されており、例えばHMM音声合成(非特許文献1)、DNN音声合成(非特許文献2)がある。
[Model for speech synthesis]
The speech synthesis model is a statistical model of speech feature quantity / acoustic feature quantity (hereinafter referred to as speech parameters) required for speech synthesis. Examples of audio parameters include spectral parameters such as cepstrum and mel cepstrum, and pitch parameters such as fundamental frequency (F0). The speech synthesis model learns using speech data and utterance information described later. Several methods for learning a model for speech synthesis have been proposed. For example, there are HMM speech synthesis (Non-Patent Document 1) and DNN speech synthesis (Non-Patent Document 2).

[音声データ]
音声データとは、各学習(具体的には、不特定話者声質変換器の学習、クロスリンガル音声合成用モデルの学習)に用いるため、あらかじめ収録しておく音声データのことである。音声データは、話者が発話した文章の音声であり、音声データに対して信号処理を行った結果、得られる音声パラメータ(スペクトルパラメータ、音高パラメータ)として記録するのでもよい。
[Audio data]
The voice data is voice data recorded in advance for use in each learning (specifically, learning of an unspecified speaker voice quality converter and learning of a model for cross-lingual voice synthesis). The voice data is a voice of a sentence uttered by a speaker, and may be recorded as a voice parameter (spectrum parameter, pitch parameter) obtained as a result of performing signal processing on the voice data.

不特定話者声質変換器の学習には、目標話者による学習対象言語での音声データ(以下、目標話者音声データという)、N名の話者による学習対象言語での音声データ(以下、学習対象言語音声データn(1≦n≦N)という)が必要である。ここで、目標話者とは合成対象言語での合成音声の生成の対象となる主体である。目標話者音声データと学習対象言語音声データn(1≦n≦N)は、同一の文章を発話した音声データである必要がある。 For non-specific speaker voice quality converter learning, voice data in the target language of the target speaker (hereinafter referred to as target speaker voice data), voice data in the target language of learning by N speakers (hereinafter referred to as the target speaker voice data) Learning language speech data n (referred to as 1 ≦ n ≦ N) is required. Here, the target speaker is a subject that is a target for generating synthesized speech in a synthesis target language. The target speaker voice data and the learning target language voice data n (1 ≦ n ≦ N) need to be voice data obtained by uttering the same sentence.

また、クロスリンガル音声合成用モデルの学習には、M名の話者による合成対象言語での音声データ(以下、合成対象言語音声データm(1≦m≦M)という)が必要である。ただし、M=1であってもよい。つまり最低1名分の合成対象言語音声データがあればよい。このとき、合成対象言語音声データ1の代わりに単に合成対象言語音声データということにする。 In addition, learning of a model for cross-lingual speech synthesis requires speech data in a synthesis target language (hereinafter referred to as synthesis target language speech data m (1 ≦ m ≦ M)) by M speakers. However, M = 1 may be sufficient. That is, it suffices if there is at least one person to be synthesized speech data. At this time, instead of the synthesis target language speech data 1 , it is simply referred to as synthesis target language speech data.

なお、学習対象言語音声データnを発話した話者のことを学習対象言語入力話者nという。また、合成対象言語音声データmを発話した話者のことを合成対象言語入力話者mという。一般に、学習対象言語入力話者n(1≦n≦N)、合成対象言語入力話者m(1≦m≦M)は、目標話者と異なる。 Note that a speaker who utters the learning target language voice data n is referred to as a learning target language input speaker n . A speaker who utters the synthesis target language speech data m is referred to as a synthesis target language input speaker m . In general, the learning target language input speaker n (1 ≦ n ≦ N) and the synthesis target language input speaker m (1 ≦ m ≦ M) are different from the target speaker.

[発話情報]
発話情報とは、音声データ中の各発話(話者が発話した文章の音声)に対して付与される発音情報等の情報のことである。音声データ中の各発話に一つの発話情報が付与されている。
[Speech information]
The utterance information is information such as pronunciation information given to each utterance (speech of a sentence uttered by a speaker) in voice data. One utterance information is assigned to each utterance in the voice data.

発話情報には、少なくとも各発話に対応する発音情報(読み、音素)が含まれる。また、各音素の開始時間と終了時間の情報である音素セグメンテーション情報が含まれていてもよい。ここでいう開始時間・終了時間は、各発話の始点を0[秒]としたときの経過時間のことである。音素セグメンテーション情報の一例を図1に示す。   The utterance information includes at least pronunciation information (reading and phonemes) corresponding to each utterance. In addition, phoneme segmentation information that is information on the start time and end time of each phoneme may be included. The start time and end time here are the elapsed time when the start point of each utterance is set to 0 [seconds]. An example of phoneme segmentation information is shown in FIG.

また、発話情報には、音素や音素セグメンテーション情報以外の情報、例えば、アクセント情報(アクセント型、アクセント句長)、品詞情報を含んでいてもよい。   Further, the speech information may include information other than phonemes and phoneme segmentation information, for example, accent information (accent type, accent phrase length), and part of speech information.

<第一実施形態>
以下、図2〜図9を参照してクロスリンガル音声合成用モデル学習装置100、クロスリンガル音声合成装置200について説明する。
<First embodiment>
The cross-lingual speech synthesis model learning device 100 and the cross-lingual speech synthesis device 200 will be described below with reference to FIGS.

[クロスリンガル音声合成用モデル学習装置100]
図2に示すようにクロスリンガル音声合成用モデル学習装置100は、不特定話者声質変換器学習装置110、音声合成用モデル学習装置120、記録部190を含む。記録部190は、クロスリンガル音声合成用モデル学習装置100の処理に必要な情報を適宜記録する構成部である。クロスリンガル音声合成用モデル学習装置100は、目標話者音声データ、学習対象言語音声データn(1≦n≦N)、合成対象言語音声データとその合成対象言語音声データに含まれる発話の発話情報の集合(以下、合成対象言語発話情報集合という)を入力として、目標話者による合成対象言語での音声を合成するクロスリンガル音声合成モデルを学習し、出力する。
[Cross-Lingual Speech Synthesis Model Learning Device 100]
As shown in FIG. 2, the cross-lingual speech synthesis model learning device 100 includes an unspecified speaker voice quality converter learning device 110, a speech synthesis model learning device 120, and a recording unit 190. The recording unit 190 is a component that appropriately records information necessary for processing by the model learning device 100 for cross-lingual speech synthesis. The cross-lingual speech synthesis model learning apparatus 100 includes target speaker speech data, learning target language speech data n (1 ≦ n ≦ N), synthesis target language speech data, and speech information included in the synthesis target language speech data. Is used as an input to learn and output a cross-lingual speech synthesis model for synthesizing speech in the synthesis target language by the target speaker.

図3に従いクロスリンガル音声合成用モデル学習装置100の動作について説明する。不特定話者声質変換器学習装置110は、目標話者音声データ、学習対象言語音声データn(1≦n≦N)を入力として、任意の音声データを目標話者の声質を有する音声データへ変換する不特定話者声質変換器を学習し、出力する(S110)。音声合成用モデル学習装置120は、合成対象言語音声データと合成対象言語発話情報集合を入力として、クロスリンガル音声合成モデルを学習し、出力する(S120)。その際、不特定話者声質変換器を用いて、合成対象言語音声データを目標話者の声質を持つ音声データ(以下、声質変換後合成対象言語音声データという)へ変換する。 The operation of the cross-lingual speech synthesis model learning apparatus 100 will be described with reference to FIG. The unspecified speaker voice quality converter learning device 110 receives the target speaker voice data and the learning target language voice data n (1 ≦ n ≦ N) as input, and converts any voice data into voice data having the target speaker voice quality. An unspecified speaker voice quality converter to be converted is learned and output (S110). The speech synthesis model learning device 120 receives the synthesis target language speech data and the synthesis target language utterance information set as input, learns and outputs a cross-lingual speech synthesis model (S120). At that time, the unspecified speaker voice quality converter is used to convert the synthesis target language voice data into voice data having the voice quality of the target speaker (hereinafter referred to as synthesized voice language data after voice quality conversion).

以下、不特定話者声質変換器学習装置110、音声合成用モデル学習装置120の構成、動作について詳細に説明していく。   The configurations and operations of the unspecified speaker voice quality converter learning device 110 and the speech synthesis model learning device 120 will be described in detail below.

まず、図4〜図5を参照して不特定話者声質変換器学習装置110について説明する。図4に示すように不特定話者声質変換器学習装置110は、時間情報調整部101、声質変換器学習部103を含む。図5に従い不特定話者声質変換器学習装置110の動作について説明する。   First, the unspecified speaker voice quality converter learning device 110 will be described with reference to FIGS. As shown in FIG. 4, the unspecified speaker voice quality converter learning device 110 includes a time information adjustment unit 101 and a voice quality converter learning unit 103. The operation of the unspecified speaker voice quality converter learning device 110 will be described with reference to FIG.

時間情報調整部101は、目標話者音声データ、学習対象言語音声データn(1≦n≦N)を入力として、目標話者音声データと学習対象言語音声データnに含まれる各文章の音声(つまり、発話)の時間情報をそろえた音声データ(以下、時間情報調整後目標話者音声データn、時間情報調整後学習対象言語音声データnという)を生成し、出力する(S101)。目標話者音声データについては、学習対象言語音声データn(1≦n≦N)それぞれと時間情報を調整するため、N名の学習対象言語入力話者それぞれに対する時間調整後の音声データである時間情報調整後目標話者音声データn(1≦n≦N)が生成される。時間情報の調整には、目標話者音声データと学習対象言語音声データnのフレーム間の対応付けを行う方法を用いればよい。例えば、多くの声質変換手法と同様、動的時間伸縮(Dynamic Time Warping, DTW)、DP(Dynamic Programming)マッチングを用いることができる。 The time information adjustment unit 101 receives the target speaker voice data and the learning target language voice data n (1 ≦ n ≦ N) as inputs, and the voices of the sentences included in the target speaker voice data and the learning target language voice data n ( In other words, voice data (hereinafter referred to as target speaker voice data n after time information adjustment, and target language voice data n after time information adjustment) is generated and output (S101). For the target speaker voice data, the time that is the voice data after time adjustment for each of the N learning target language input speakers in order to adjust the time information with each of the learning target language voice data n (1 ≦ n ≦ N) Information-adjusted target speaker voice data n (1 ≦ n ≦ N) is generated. For adjusting the time information, a method of associating the frames of the target speaker voice data and the learning target language voice data n may be used. For example, as with many voice quality conversion methods, dynamic time warping (DTW) and DP (Dynamic Programming) matching can be used.

声質変換器学習部103は、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnの組(1≦n≦N)を入力として、不特定話者声質変換器を学習し、出力する(S103)。例えば、時間情報調整後目標話者音声データn、時間情報調整後学習対象言語音声データnがスペクトルパラメータとして表現される場合、次のようにして不特定話者声質変換器を学習する。 The voice quality converter learning unit 103 receives a set (1 ≦ n ≦ N) of the target speaker voice data n after time information adjustment and the target language voice data n after time information adjustment (1 ≦ n ≦ N) as an unspecified speaker voice quality converter. Learning and outputting (S103). For example, when the target speaker voice data n after time information adjustment and the learning target language voice data n after time information adjustment are expressed as spectrum parameters, the unspecified speaker voice quality converter is learned as follows.

時間情報調整後目標話者音声データnのスペクトルパラメータをCn,target(t)、時間情報調整後学習対象言語音声データnのスペクトルパラメータをCn,train(t)とする(tはフレーム番号を表す)。時間情報調整後学習対象言語音声データnのスペクトルパラメータCn,train(t)と時間情報調整後目標話者音声データnのスペクトルパラメータCn,target(t)の組を学習データとして、入力話者スペクトルパラメータctrain(t)から目標話者の声質に対応する目標話者スペクトルパラメータc^target(t)へ変換する不特定話者声質変換器ftrain→targetを学習する。 Spectral parameters of target speaker voice data n after time information adjustment are C n, target (t), and spectral parameters of target language voice data n after time information adjustment are C n, train (t) (t is the frame number) Represents). The set of spectral parameters C n, train (t) of the target language speech data n after time information adjustment and the spectral parameters C n, target (t) of the target speaker speech data n after time information adjustment is used as the learning data. An unspecified speaker voice quality converter f train → target is converted from the speaker spectrum parameter c train (t) to the target speaker spectrum parameter c ^ target (t) corresponding to the voice quality of the target speaker.

Figure 2018084604
Figure 2018084604

ここで、不特定話者声質変換器ftrain→targetは、あるフレームtの任意の入力話者スペクトルパラメータから目標話者スペクトルパラメータへ変換する声質変換器となる。 Here, the unspecified speaker voice quality converter f train → target is a voice quality converter that converts an arbitrary input speaker spectrum parameter of a certain frame t into a target speaker spectrum parameter.

一般的な声質変換器の学習方法では、話者Bの声質を有する音声データへ変換する声質変換器を学習するために話者Aの音声データを用いると、声質変換器の学習に使用した話者Aの音声データを入力しない限り、話者Bの声質を有する音声データへ変換することができない。そこで、ここでは、声質変換器の学習方法として、(参考非特許文献1)のニューラルネットワークに基づく方法を用いる。
(参考非特許文献1)能勢隆,篠崎隆宏,伊藤洋二郎,伊藤彰則,“ニューラルネットワークに基づくユーザ音声を必要としない多対一声質変換の検討”, 日本音響学会論文集2015年3月, 3-2-1, pp.271-274, 2015
(参考非特許文献1)では、声質変換器を学習する際、声質変換器の入力となる多数の学習対象言語入力話者の音声データと、声質変換器の出力となる1名の目標話者の音声データを学習データとして用いる。これにより、どのような話者の音声データを入力しても目標話者の声質を有する音声データに変換することが可能となる。
In a general voice quality converter learning method, when the voice data of speaker A is used to learn a voice quality converter that converts voice data having the voice quality of speaker B, the speech used for the voice quality converter learning is used. Unless voice data of the speaker A is input, the voice data having the voice quality of the speaker B cannot be converted. Therefore, here, a method based on the neural network of (Reference Non-Patent Document 1) is used as a learning method of the voice quality converter.
(Non-patent document 1) Takashi Nose, Takahiro Shinozaki, Yojiro Ito, Akinori Ito, “Examination of many-to-one voice quality conversion that does not require user speech based on neural network”, Transactions of the Acoustical Society of Japan, March 2015, 3 -2-1, pp.271-274, 2015
(Reference Non-Patent Document 1), when learning a voice quality converter, voice data of a large number of target language input speakers that are input to the voice quality converter and one target speaker that is the output of the voice quality converter Are used as learning data. As a result, it is possible to convert any voice data of the speaker into voice data having the voice quality of the target speaker.

次に、図6〜図7を参照して音声合成用モデル学習装置120について説明する。図6に示すように音声合成用モデル学習装置120は、声質変換部111、合成用モデル学習部113を含む。図7に従い音声合成用モデル学習装置120の動作について説明する。   Next, the speech synthesis model learning device 120 will be described with reference to FIGS. As shown in FIG. 6, the speech synthesis model learning device 120 includes a voice quality conversion unit 111 and a synthesis model learning unit 113. The operation of the speech synthesis model learning device 120 will be described with reference to FIG.

声質変換部111は、合成対象言語音声データを入力として、不特定話者声質変換器を用いて声質変換後合成対象言語音声データを生成し、出力する(S111)。例えば、不特定話者声質変換器が式(1)で表される場合、合成対象言語音声データのスペクトルパラメータCsynth,org(t)から目標話者の声質を有する合成対象言語の目標話者スペクトルパラメータC^synth,target(t)へ変換する(tはフレーム番号)。 The voice quality conversion unit 111 receives the synthesis target language voice data as input and generates and outputs voice quality converted synthesis target language voice data using an unspecified speaker voice quality converter (S111). For example, when the unspecified speaker voice quality converter is expressed by Equation (1), the target speaker of the synthesis target language having the voice quality of the target speaker from the spectrum parameter C synth, org (t) of the synthesis target language speech data. Convert to spectrum parameter C ^ synth, target (t) (t is frame number).

Figure 2018084604
Figure 2018084604

声質変換器の学習に(参考非特許文献1)を用いた場合は、(参考非特許文献1)に従い声質変換を行えばよい。式(1)に従い計算された目標話者スペクトルパラメータC^synth,target(t)が声質変換後合成対象言語音声データである。 When (Reference Non-Patent Document 1) is used for learning of the voice quality converter, the voice quality conversion may be performed according to (Reference Non-Patent Document 1). The target speaker spectrum parameter C ^ synth, target (t) calculated according to the equation (1) is the speech data to be synthesized after the voice quality conversion.

合成用モデル学習部113は、S111で生成した声質変換後合成対象言語音声データと、合成対象言語発話情報集合を入力として、クロスリンガル音声合成モデルを学習し、出力する(S113)。クロスリンガル音声合成用モデルの学習には、(非特許文献1)、(非特許文献2)などを用いることができる。   The synthesis model learning unit 113 learns and outputs a cross-lingual speech synthesis model, using the post-voice quality conversion synthesis target language speech data generated in S111 and the synthesis target language utterance information set as inputs (S113). For learning of a model for cross-lingual speech synthesis, (Non-patent Document 1), (Non-Patent Document 2), etc. can be used.

以下、クロスリンガル音声合成装置200について説明していくが、クロスリンガル音声合成用モデルは(非特許文献1)にあるようなHMM音声合成用モデルであるとする。   Hereinafter, the cross-lingual speech synthesis apparatus 200 will be described. It is assumed that the cross-lingual speech synthesis model is an HMM speech synthesis model as described in (Non-Patent Document 1).

[クロスリンガル音声合成装置200]
図8に示すようにクロスリンガル音声合成装置200は、テキスト解析部210、音声パラメータ生成部220、音声波形生成部230、記録部290を含む。記録部290は、クロスリンガル音声合成装置200の処理に必要な情報を適宜記録する構成部である。クロスリンガル音声合成装置200は、音声合成の対象となる合成対象言語でのテキストである合成テキストを入力として、クロスリンガル音声合成用モデルを用いて、合成テキストを読み上げた合成音声を生成し、出力する。
[Cross-Lingual Speech Synthesizer 200]
As shown in FIG. 8, the cross-lingual speech synthesizer 200 includes a text analysis unit 210, a speech parameter generation unit 220, a speech waveform generation unit 230, and a recording unit 290. The recording unit 290 is a component that appropriately records information necessary for processing of the cross-lingual speech synthesizer 200. The cross-lingual speech synthesizer 200 receives a synthesized text that is a text in a synthesis target language that is a target of speech synthesis, generates a synthesized speech that reads out the synthesized text using a cross-lingual speech synthesis model, and outputs the synthesized speech. To do.

図9に従いクロスリンガル音声合成装置200の動作について説明する。テキスト解析部210は、合成テキストを入力として、テキスト解析により、合成テキストの読み、アクセント等のコンテキスト情報を生成し、出力する(S210)。音声パラメータ生成部220は、S210で生成したコンテキスト情報を入力として、クロスリンガル音声合成用モデルを用いて音声パラメータ(スペクトルパラメータや音高パラメータ)を生成し、出力する(S220)。音声波形生成部230は、S220で生成した音声パラメータを入力として、音声合成フィルタを用いて合成音声を生成し、出力する(S230)。音声合成フィルタは、例えば、(参考非特許文献2)に記載のものを用いればよい。
(参考非特許文献2)今井聖,住田一男,古市千枝子,“音声合成のためのメル対数スペクトル近似(MLSA)フィルタ”,電子情報通信学会論文誌 A, Vol.J66-A, No.2, pp.122-129, 1983.
The operation of the cross-lingual speech synthesizer 200 will be described with reference to FIG. The text analysis unit 210 receives the synthesized text as input and generates and outputs context information such as reading of the synthesized text and accent by text analysis (S210). The voice parameter generation unit 220 receives the context information generated in S210, generates a voice parameter (spectrum parameter or pitch parameter) using the cross-lingual voice synthesis model, and outputs it (S220). The speech waveform generation unit 230 receives the speech parameter generated in S220, generates a synthesized speech using a speech synthesis filter, and outputs the synthesized speech (S230). As the speech synthesis filter, for example, a filter described in (Reference Non-Patent Document 2) may be used.
(Reference Non-Patent Document 2) Sei Imai, Kazuo Sumita, Chieko Furuichi, “Mel Log Spectrum Approximation (MLSA) Filter for Speech Synthesis”, IEICE Transactions A, Vol. J66-A, No. 2, pp.122-129, 1983.

なお、目標話者音声データ、学習対象言語音声データn(1≦n≦N)の代わりに、あらかじめ時間情報を調整した時間情報調整後目標話者音声データn(1≦n≦N)、時間情報調整後学習対象言語音声データn(1≦n≦N)をクロスリンガル音声合成用モデル学習装置に入力するように構成することもできる。 Instead of target speaker voice data and learning target language voice data n (1 ≤ n ≤ N), time information adjusted target speaker voice data n (1 ≤ n ≤ N), time The information-adjusted learning target language speech data n (1 ≦ n ≦ N) may be input to the model learning device for cross-lingual speech synthesis.

本実施形態の発明によれば、あらかじめ用意した目標話者音声データとN名分の学習対象言語音声データを入力として学習した不特定話者声質変換器を用いて、目標話者とは異なる1名分の合成対象言語音声データを目標話者の声質を有する声質変換後合成対象言語音声データに変換する。次に、声質変換後合成対象言語音声データと、合成対象言語音声データの発話情報の集合から統計的パラメトリック音声合成であるクロスリンガル音声合成用モデル、つまり目標話者による合成対象言語での音声を合成するためのモデルを学習する。   According to the invention of the present embodiment, an unspecified speaker voice quality converter that is trained by using target speaker voice data prepared in advance and N target language voice data for learning as input is different from the target speaker. The synthesis target language speech data of the name is converted into the synthesis target language speech data after voice quality conversion having the voice quality of the target speaker. Next, a speech model in cross-lingual speech synthesis that is statistical parametric speech synthesis, that is, speech in the target language by the target speaker, is obtained from a set of speech data after speech quality conversion and speech information of the target language speech data. Learn a model to synthesize.

これにより、N名分の学習対象言語音声データと1名分の合成対象言語音声データからのクロスリンガル音声合成のためのモデルを生成することが可能となり、当該モデルを用いることでクロスリンガル音声合成が可能となる。このため、学習対象言語と合成対象言語のバイリンガル話者による音声データや、学習対象言語と合成対象言語のそれぞれについて多数の話者による音声データを事前に用意する必要がなくなる。したがって、従来に比して低コストでクロスリンガル音声合成を実現することができる。   This makes it possible to generate a model for cross-lingual speech synthesis from N language learning language speech data and one synthesis target language speech data. By using this model, cross-lingual speech synthesis is possible. Is possible. For this reason, it is not necessary to prepare speech data by a bilingual speaker in the learning target language and the synthesis target language, or speech data by a large number of speakers for each of the learning target language and the synthesis target language. Therefore, cross-lingual speech synthesis can be realized at a lower cost than in the past.

<第二実施形態>
第一実施形態では、不特定話者声質変換器の学習、不特定話者声質変換器による声質変換に際して、音声データ(スペクトルパラメータ)のみを使用している。つまり、音声データに付随する発話情報を使用せずに学習した不特定話者声質変換器を用いて声質変換をしている。このため、声質変換の精度が劣化し、最終的な合成音声の品質が劣化してしまう可能性がある。
<Second embodiment>
In the first embodiment, only voice data (spectrum parameters) is used for learning of the unspecified speaker voice quality converter and voice quality conversion by the unspecified speaker voice quality converter. That is, voice quality conversion is performed using an unspecified speaker voice quality converter that has been learned without using the utterance information accompanying the voice data. For this reason, the accuracy of voice quality conversion may deteriorate, and the quality of the final synthesized speech may deteriorate.

そこで、本実施形態では、不特定話者声質変換器の学習、不特定話者声質変換器による声質変換に際して、発話情報も使用することを考える。しかし、一般に言語が異なると、例えば、音素体系のような発音情報が異なってしまうため、このままでは不特定話者声質変換器の学習、不特定話者声質変換器による声質変換に際して、発話情報を使用することはできない。発話情報を使用することができるようするため、学習対象言語と合成対象言語における発音情報の違いを吸収する目的で、両言語の類似した発音情報(音素)の対応関係を作成する。これにより、両言語間の発音情報の違いを考慮した不特定話者声質変換器の学習、不特定話者声質変換器による声質変換を実現する。   Therefore, in the present embodiment, it is considered that the speech information is also used for the learning of the unspecified speaker voice quality converter and the voice quality conversion by the unspecified speaker voice quality converter. However, generally speaking, if the language is different, pronunciation information such as phoneme system will be different.For this reason, the utterance information will be used for learning of the unspecified speaker voice quality converter and voice quality conversion by the unspecified speaker voice quality converter. Cannot be used. In order to use the utterance information, a correspondence relationship between similar pronunciation information (phonemes) in both languages is created in order to absorb the difference in pronunciation information between the learning target language and the synthesis target language. Thereby, learning of the unspecified speaker voice quality converter considering the difference in pronunciation information between the two languages, and voice quality conversion by the unspecified speaker voice quality converter are realized.

以下、学習対象言語と合成対象言語の類似した発音情報(音素)の対応関係のことを発音ベクトル作成規則という。その一例を図10に示す。図10の表の各行は類似する学習対象言語の音素と合成対象言語の音素を組にしてインデックスを付したもの、行数は学習対象言語の音素の数Lとなっている。この例では、学習対象言語は日本語、合成対象言語は英語であり、例えば、3行目(インデックスが3である行)をみると、日本語の音素”s”と英語の音素”s”,”th”が類似関係にあり、対応することがわかる。   Hereinafter, the correspondence between similar pronunciation information (phonemes) between the learning target language and the synthesis target language is referred to as a pronunciation vector creation rule. An example is shown in FIG. Each row in the table of FIG. 10 is obtained by indexing a phoneme of a similar learning target language and a phoneme of a synthesis target language, and the number of rows is the number L of phonemes of the learning target language. In this example, the language to be learned is Japanese and the language to be synthesized is English. For example, looking at the third line (the line where the index is 3), the Japanese phoneme "s" and the English phoneme "s" , “Th” is in a similar relationship and can be seen to correspond.

なお、発音ベクトル作成規則の表現は、図10のような、学習対象言語の音素の数Lを行数とする、学習対象言語の各音素に類似する合成対象言語の音素を示した表に限られるものではないが、以下の説明では発音ベクトル作成規則が図10のような行数Lの表で表現されているものとする。   The expression of the pronunciation vector creation rule is limited to the table shown in FIG. 10 that shows the phonemes of the synthesis target language similar to the phonemes of the learning target language, where the number of phonemes L of the learning target language is the number of rows. However, in the following description, it is assumed that the pronunciation vector creation rules are represented by a table with the number of rows L as shown in FIG.

以下、図11〜図15を参照してクロスリンガル音声合成用モデル学習装置300について説明する。なお、合成音声の生成にはクロスリンガル音声合成装置200を用いることができる。   The cross-lingual speech synthesis model learning apparatus 300 will be described below with reference to FIGS. Note that the cross-lingual speech synthesizer 200 can be used to generate synthesized speech.

[クロスリンガル音声合成用モデル学習装置300]
図11に示すようにクロスリンガル音声合成用モデル学習装置300は、不特定話者声質変換器学習装置310、音声合成用モデル学習装置320、記録部190を含む。記録部190には、事前に発音ベクトル作成規則が記録されているものとする。クロスリンガル音声合成用モデル学習装置300は、目標話者音声データ、学習対象言語音声データn(1≦n≦N)、学習対象言語音声データnに含まれる発話の発話情報の集合(以下、学習対象言語発話情報集合n(1≦n≦N)という)、合成対象言語音声データ、合成対象言語発話情報集合を入力として、クロスリンガル音声合成モデルを学習し、出力する。
[Cross-Lingual Speech Synthesis Model Learning Device 300]
As shown in FIG. 11, the cross-lingual speech synthesis model learning device 300 includes an unspecified speaker voice quality converter learning device 310, a speech synthesis model learning device 320, and a recording unit 190. It is assumed that a pronunciation vector creation rule is recorded in the recording unit 190 in advance. The model learning device 300 for cross-lingual speech synthesis includes a target speaker speech data, learning target language speech data n (1 ≦ n ≦ N), and a set of utterance information of speech included in the learning target language speech data n (hereinafter referred to as learning). The target language utterance information set n (referred to as 1 ≦ n ≦ N), the synthesis target language speech data, and the synthesis target language utterance information set are input and the cross-lingual speech synthesis model is learned and output.

以下、不特定話者声質変換器学習装置310、音声合成用モデル学習装置320の構成、動作について詳細に説明していく。   Hereinafter, the configuration and operation of the unspecified speaker voice quality converter learning device 310 and the speech synthesis model learning device 320 will be described in detail.

まず、図12〜図13を参照して不特定話者声質変換器学習装置310について説明する。図12に示すように不特定話者声質変換器学習装置310は、時間情報調整部101、第1発音ベクトル生成部302、声質変換器学習部303を含む。図13に従い不特定話者声質変換器学習装置310の動作について説明する。   First, the unspecified speaker voice quality converter learning device 310 will be described with reference to FIGS. As shown in FIG. 12, the unspecified speaker voice quality converter learning device 310 includes a time information adjustment unit 101, a first pronunciation vector generation unit 302, and a voice quality converter learning unit 303. The operation of the unspecified speaker voice quality converter learning device 310 will be described with reference to FIG.

時間情報調整部101は、目標話者音声データ、学習対象言語音声データn(1≦n≦N)を入力として、目標話者音声データと学習対象言語音声データnに含まれる各文章の音声(発話)の時間情報をそろえた音声データである時間情報調整後目標話者音声データn、時間情報調整後学習対象言語音声データnを生成し、出力する(S101)。 The time information adjustment unit 101 receives the target speaker voice data and the learning target language voice data n (1 ≦ n ≦ N) as inputs, and the voices of the sentences included in the target speaker voice data and the learning target language voice data n ( The target speaker voice data n after adjusting time information and the learning target language voice data n after adjusting time information are generated and output (S101).

第1発音ベクトル生成部302は、学習対象言語発話情報集合nを入力として、記録部190から読み込んだ発音ベクトル作成規則を用いて、学習対象言語発音ベクトル集合nを生成し、出力する(S302)。ここで、発音ベクトルとは、音声データ中の発話の各フレームに対して算出されるベクトルであり、そのフレームがどのような発音情報(音素)であるかを示すベクトルである。発音ベクトル作成規則が図10のような行数Lの表で表現されている場合、発音ベクトルの次元はLとなる。学習対象言語発話情報集合nの発話情報から発音ベクトル(以下、学習対象言語発音ベクトルという)を算出していき、その集合を学習対象言語発音ベクトル集合nとして生成する。 The first pronunciation vector generation unit 302 receives the learning target language utterance information set n as an input, generates and outputs a learning target language pronunciation vector set n using the pronunciation vector creation rules read from the recording unit 190 (S302). . Here, the pronunciation vector is a vector calculated for each frame of speech in the speech data, and is a vector indicating what kind of pronunciation information (phoneme) the frame is. When the pronunciation vector creation rule is expressed by a table with the number of rows L as shown in FIG. 10, the dimension of the pronunciation vector is L. A pronunciation vector (hereinafter referred to as a learning target language pronunciation vector) is calculated from the utterance information of the learning target language utterance information set n , and the set is generated as a learning target language pronunciation vector set n .

以下、具体的に、ある発話情報に含まれる発音情報(音素)から発音ベクトルを算出する方法について説明していく。まず、発音情報(音素)に対して、発音ベクトル作成規則を用いて対応するインデックスidxを求める(ただし、1≦idx≦L)。図10の例でいえば、真ん中の列の中から学習対象言語音素(ここでは日本語の音素)がある行を見出し、インデックスidxを得る。次に、得られたインデックスidxを数値ベクトル化し、発音ベクトルを算出する。数値ベクトル化の方法として、例えば、以下のような意図情報の1-of-K表現を使用し、インデックスidxから発音ベクトルV=(v1, v2, …, vL)(Lは学習対象言語の音素数)を算出する。 Hereinafter, a method for calculating a pronunciation vector from pronunciation information (phonemes) included in certain utterance information will be specifically described. First, for the pronunciation information (phoneme), a corresponding index idx is obtained using a pronunciation vector creation rule (where 1 ≦ idx ≦ L). In the example of FIG. 10, a row having a learning target language phoneme (here, Japanese phoneme) is found from the middle column, and an index idx is obtained. Next, the obtained index idx is converted into a numerical vector to calculate a pronunciation vector. As a numerical vectorization method, for example, the following 1-of-K representation of intention information is used, and the pronunciation vector V = (v 1 , v 2 ,…, v L ) (L is the learning target) from the index idx Language phoneme number).

Figure 2018084604
Figure 2018084604

ただし、j=1,…,Lである。 However, j = 1,..., L.

発音ベクトルに1-of-K表現を使用するのは、一般に、L個の値を取る情報(ここでは、インデックスidx)をニューラルネットの入力とする場合、1次元の数値として取り扱うよりも1-of-K表現として取り扱う方がより高性能の学習結果(つまり、不特定話者声質変換器)が得られるからである。   The 1-of-K expression is used for the pronunciation vector in general when 1-dimensional numerical values are used instead of 1-dimensional numerical values when L-valued information (here, index idx) is used as the input of the neural network. This is because a higher-performance learning result (that is, an unspecified speaker voice quality converter) can be obtained by treating as an of-K expression.

声質変換器学習部303は、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnと学習対象言語発音ベクトル集合nの組(1≦n≦N)を入力として、不特定話者声質変換器を学習し、出力する(S303)。例えば、時間情報調整後目標話者音声データn、時間情報調整後学習対象言語音声データnがスペクトルパラメータとして表現される場合、次のようにして不特定話者声質変換器を学習する。 The voice quality converter learning unit 303 receives a set (1 ≦ n ≦ N) of the target speaker voice data n after time information adjustment, the learning target language voice data n after time information adjustment, and the learning target language pronunciation vector set n as inputs. An unspecified speaker voice quality converter is learned and output (S303). For example, when the target speaker voice data n after time information adjustment and the learning target language voice data n after time information adjustment are expressed as spectrum parameters, the unspecified speaker voice quality converter is learned as follows.

時間情報調整後目標話者音声データnのスペクトルパラメータをCn,target(t)、時間情報調整後学習対象言語音声データnのスペクトルパラメータをCn,train(t)、学習対象言語発音ベクトル集合nの要素である学習対象言語発音ベクトルをVn,train(t)とする(tはフレーム番号を表す)。時間情報調整後学習対象言語音声データnのスペクトルパラメータCn,train(t)と対応する学習対象言語発音ベクトルVn,train(t)の組(Cn,train(t), Vn,train(t))と時間情報調整後目標話者音声データnのスペクトルパラメータCn,target(t)の組を学習データとして、拡張入力話者スペクトルパラメータ(ctrain(t), vtrain(t))から目標話者の声質に対応する目標話者スペクトルパラメータc^target(t)へ変換する不特定話者声質変換器ftrain→targetを学習する。 Spectral parameters of target speaker speech data n after time information adjustment is C n, target (t), spectral parameters of learning target language speech data n after time information adjustment is C n, train (t), and learning target language pronunciation vector set Let V n, train (t) be the learning target language pronunciation vector that is an element of n (t represents the frame number). Spectral parameters C n, train (t) of the target language speech data n after time information adjustment and the corresponding language target pronunciation vector V n, train (t) (C n, train (t), V n, train (t)) and spectral parameter C n, target (t) of target speaker speech data n after time information adjustment are used as training data, and extended input speaker spectral parameters (c train (t), v train (t) ) To an unspecified speaker voice quality converter f train → target for conversion to a target speaker spectrum parameter c ^ target (t) corresponding to the voice quality of the target speaker.

Figure 2018084604
Figure 2018084604

ここで、不特定話者声質変換器ftrain→targetは、あるフレームtの任意の拡張入力話者スペクトルパラメータから目標話者スペクトルパラメータへ変換する声質変換器となる。 Here, the unspecified speaker voice quality converter f train → target is a voice quality converter for converting any extended input speaker spectrum parameter of a certain frame t into a target speaker spectrum parameter.

不特定話者声質変換器ftrain→targetの学習アルゴリズムは、第一実施形態と同じ(参考非特許文献1)記載の方法を用いればよい。ただし、学習データとして、時間情報調整後学習対象言語音声データnのスペクトルパラメータと対応する学習対象言語発音ベクトルの組と時間情報調整後目標話者音声データnのスペクトルパラメータの組を用いる点が異なる。 The learning algorithm of the unspecified speaker voice quality converter f train → target may be the same method as described in the first embodiment (reference non-patent document 1). However, as learning data, is that it uses a set of spectral parameters of the spectral parameters and the set time information adjusted target speaker speech data n corresponding learning target language pronunciation vector after time information adjustment learned language audio data n different .

次に、図14〜図15を参照して音声合成用モデル学習装置320について説明する。図14に示すように音声合成用モデル学習装置320は、声質変換部311、第2発音ベクトル生成部312、合成用モデル学習部313を含む。図15に従い音声合成用モデル学習装置320の動作について説明する。   Next, the speech synthesis model learning device 320 will be described with reference to FIGS. As shown in FIG. 14, the speech synthesis model learning device 320 includes a voice quality conversion unit 311, a second pronunciation vector generation unit 312, and a synthesis model learning unit 313. The operation of the speech synthesis model learning device 320 will be described with reference to FIG.

第2発音ベクトル生成部312は、合成対象言語発話情報集合を入力として、記録部190から読み込んだ発音ベクトル作成規則を用いて、合成対象言語発音ベクトル集合を生成し、出力する(S312)。合成対象言語発音ベクトル集合の生成方法は、第1発音ベクトル生成部302における学習対象言語発音ベクトル集合nの生成方法と同様であり、合成対象言語発話情報集合の発話情報から算出される発音ベクトル(以下、合成対象言語発音ベクトルという)の集合が合成対象言語発音ベクトル集合である。 The second pronunciation vector generation unit 312 receives the synthesis target language utterance information set as an input, and generates and outputs a synthesis target language pronunciation vector set using the pronunciation vector creation rules read from the recording unit 190 (S312). The generation method of the synthesis target language pronunciation vector set is the same as the generation method of the learning target language pronunciation vector set n in the first pronunciation vector generation unit 302, and the pronunciation vector calculated from the utterance information of the synthesis target language utterance information set ( Hereinafter, a set of synthesis target language pronunciation vectors) is a synthesis target language pronunciation vector set.

声質変換部311は、合成対象言語音声データと、S312で生成した合成対象言語発音ベクトル集合を入力として、不特定話者声質変換器を用いて声質変換後合成対象言語音声データを生成し、出力する(S311)。例えば、不特定話者声質変換器が式(2)で表される場合、合成対象言語音声データのスペクトルパラメータCsynth,org(t)と対応する合成対象言語発音ベクトルVsynth,org(t)の組(Csynth,org(t), Vsynth,org(t))から目標話者の声質を有する合成対象言語の目標話者スペクトルパラメータC^synth,target(t)へ変換する。 The voice quality conversion unit 311 receives the synthesis target language voice data and the synthesis target language pronunciation vector set generated in S312 as input, generates voice quality converted synthesis target language voice data using an unspecified speaker voice quality converter, and outputs it. (S311). For example, when the unspecified speaker voice quality converter is expressed by Equation (2), the synthesis target language pronunciation vector V synth, org (t) corresponding to the spectrum parameter C synth, org (t) of the synthesis target language speech data. (C synth, org (t), V synth, org (t)) is converted into a target speaker spectrum parameter C ^ synth, target (t) of the synthesis target language having the target speaker's voice quality.

Figure 2018084604
Figure 2018084604

声質変換器の学習に(参考非特許文献1)を用いた場合は、(参考非特許文献1)に従い声質変換を行えばよい。式(2)に従い計算された目標話者スペクトルパラメータC^synth,target(t)が声質変換後合成対象言語音声データである。 When (Reference Non-Patent Document 1) is used for learning of the voice quality converter, the voice quality conversion may be performed according to (Reference Non-Patent Document 1). The target speaker spectrum parameter C ^ synth, target (t) calculated according to equation (2) is the speech data to be synthesized after voice quality conversion.

合成用モデル学習部313は、S311で生成した声質変換後合成対象言語音声データと、合成対象言語発話情報集合を入力として、クロスリンガル音声合成モデルを学習し、出力する(S313)。   The synthesis model learning unit 313 learns and outputs a cross-lingual speech synthesis model using the post-voice quality conversion synthesis target language speech data generated in S311 and the synthesis target language utterance information set as inputs (S313).

以下、図16〜図17を参照して発音ベクトル作成規則生成装置400について説明する。ここで、発音ベクトル作成規則が学習対象言語の音声データと合成対象言語の音声データから生成できるためには、各音声データの発話情報に音素セグメンテーション情報が含まれている必要がある。   Hereinafter, the pronunciation vector creation rule generation device 400 will be described with reference to FIGS. 16 to 17. Here, in order that the pronunciation vector creation rule can be generated from the speech data of the learning target language and the speech data of the synthesis target language, it is necessary that the speech information of each speech data includes phoneme segmentation information.

なお、国際音声記号(IPA;International Phonetic Alphabet)を用いることができる場合、発音ベクトル作成規則を簡易に生成することができる。ここで、国際音声記号とは、国際音声学会が定めた音声記号であり、あらゆる言語の発音情報(音素)を表記可能な記号である(参考URL)。
(参考URL:https://www.internationalphoneticassociation.org/content/full-ipa-chart)
When an international phonetic alphabet (IPA) can be used, a pronunciation vector creation rule can be easily generated. Here, the international phonetic symbol is a phonetic symbol determined by the International Phonetic Society, and is a symbol that can express pronunciation information (phonemes) in any language (reference URL).
(Reference URL: https://www.internationalphoneticassociation.org/content/full-ipa-chart)

学習対象言語の発話情報からIPAへ変換するための規則、合成対象言語の発話情報からIPAへ変換するための規則がそれぞれ用意されている場合、各言語からIPAへの変換規則を介して対応関係、つまり発音ベクトル作成規則を作成することができる。   If there are rules for converting speech information in the target language to IPA and rules for converting speech information in the target language into IPA, correspondences are established via the conversion rules from each language to IPA. That is, a pronunciation vector creation rule can be created.

[発音ベクトル作成規則生成装置400]
図16に示すように発音ベクトル作成規則生成装置400は、第1発音統計情報生成部410、第2発音統計情報生成部415、発音類似性判定部420、記録部490を含む。記録部490は、発音ベクトル作成規則生成装置400の処理に必要な情報を適宜記録する構成部である。発音ベクトル作成規則生成装置400は、目標話者音声データと目標話者音声データに含まれる発話の発話情報の集合(以下、目標話者発話情報集合という)、合成対象言語音声データと合成対象言語発話情報集合を入力として、発音ベクトル作成規則を生成し、出力する。
[Pronunciation vector creation rule generator 400]
As shown in FIG. 16, the pronunciation vector creation rule generation device 400 includes a first pronunciation statistical information generation unit 410, a second pronunciation statistical information generation unit 415, a pronunciation similarity determination unit 420, and a recording unit 490. The recording unit 490 is a component that appropriately records information necessary for the processing of the pronunciation vector creation rule generation device 400. The pronunciation vector creation rule generation device 400 includes a target speaker voice data, a set of speech information included in the target speaker voice data (hereinafter referred to as a target speaker speech information set), a synthesis target language voice data, and a synthesis target language. Using the utterance information set as an input, a pronunciation vector creation rule is generated and output.

以下、図17に従い発音ベクトル作成規則生成装置400の動作について説明する。   Hereinafter, the operation of the pronunciation vector creation rule generation device 400 will be described with reference to FIG.

第1発音統計情報生成部410は、目標話者音声データと目標話者発話情報集合を入力として、学習対象言語発音統計情報を生成し、出力する(S410)。第1発音統計情報生成部410の動作は、具体的には、以下のようになる(図18参照)。目標話者音声データから学習対象言語音素j(j=1,…,L、ただし、Lは学習対象言語の音素数)の音声区間を特定し、学習対象言語音素jの音声データ(例えば、スペクトルパラメータ)を抽出する(S410−1)。抽出された学習対象言語音素jの音声データを用いて、学習対象言語音素jの発音統計情報を算出する(S410−2)。学習対象言語音素1の発音統計情報、…、学習対象言語音素Lの発音統計情報の集合として学習対象言語発音統計情報を生成する(S410−3)。ここで、統計情報として、学習対象言語音素jの音声データ全体の平均値、分散、四分位数や、例えば、正規混合分布(Gaussian Mixture Model, GMM)のような統計モデルを使用することができる。なお、目標話者音声データと目標話者発話情報集合の代わりに、学習対象言語音声データnと学習対象言語発話情報集合nを用いてもよい(ただし、nは1以上N以下の整数)。 The first pronunciation statistic information generation unit 410 receives the target speaker voice data and the target speaker utterance information set as input, and generates and outputs learning target language pronunciation statistic information (S410). The operation of the first pronunciation statistic information generation unit 410 is specifically as follows (see FIG. 18). The speech segment of the target language phoneme j (j = 1, ..., L, where L is the number of phonemes in the target language) is identified from the target speaker voice data, and the target language phoneme j speech data (eg, spectrum) Parameter) is extracted (S410-1). Using the voice data of the extracted learned target language phoneme j, calculates pronunciation statistics learning target language phoneme j (S410-2). Learning target language pronunciation statistical information is generated as a collection of pronunciation statistical information of the learning target language phoneme 1 ,..., Pronunciation statistical information of the learning target language phoneme L (S410-3). Here, as the statistical information, it is possible to use an average value, variance, quartile, or a statistical model such as a normal mixture distribution (Gaussian Mixture Model, GMM) of the entire speech data of the language phoneme j to be learned. it can. Note that the learning target language speech data n and the learning target language utterance information set n may be used instead of the target speaker voice data and the target speaker utterance information set (where n is an integer of 1 to N).

第2発音統計情報生成部415は、合成対象言語音声データと合成対象言語発話情報集合を入力として、合成対象言語発音統計情報を生成し、出力する(S415)。第2発音情報統計取得部415の動作は、第1発音統計情報生成部410の動作と同様であり、合成対象言語音素1の発音統計情報、…、合成対象言語音素Kの発音統計情報の集合として合成対象言語発音統計情報を生成する(ただし、Kは合成対象言語の音素数)。 The second pronunciation statistic information generation unit 415 receives the synthesis target language speech data and the synthesis target language utterance information set as input, and generates and outputs synthesis target language pronunciation statistical information (S415). Operation of the second sound information statistics acquisition unit 415 is similar to the operation of the first sound statistical information generating unit 410, a set of sound statistics synthesized target language phoneme 1, ..., pronunciation statistics synthesized target language phoneme K As a synthesis target language pronunciation statistical information (where K is the number of phonemes in the synthesis target language).

発音類似性判定部420は、S410で生成した学習対象言語発音統計情報と、S415で生成した合成対象言語発音統計情報を入力として、発音ベクトル作成規則を生成し、出力する(S420)。発音類似性判定部420の動作は、具体的には、以下のようになる(図19参照)。まず、合成対象言語音素iの発音統計情報(i=1,…,K)と学習対象言語音素jの発音統計情報(j=1,…,L)の距離dijを算出する(S420−1)。発音統計情報間の距離の算出方法は、用いる発音統計情報によって異なる。例えば、発音統計情報としてGMMを用いた場合、確率分布間の差異を測る尺度であるKLダイバージェンスを用いることができる。また、平均値、分散を用いた場合は、マハラノビス距離、四分位数を用いた場合は、四分位数のユークリッド距離を用いて距離dijを算出すればよい。次に、合成対象言語音素iについて、学習対象言語音素1との距離di1、…、学習対象言語音素Lとの距離diLの中から最小となる学習対象言語音素j_min(1≦jmin≦L)を特定する(S420−2)。合成対象言語音素iと学習対象言語音素j_minを対応するものとして、インデックス、学習対象言語音素j_min、合成対象言語音素iの組を表に追加していき、最終的に発音ベクトル作成規則を生成する(S420−3)。 The pronunciation similarity determination unit 420 receives the learning target language pronunciation statistical information generated in S410 and the synthesis target language pronunciation statistical information generated in S415, and generates and outputs a pronunciation vector creation rule (S420). The operation of the pronunciation similarity determination unit 420 is specifically as follows (see FIG. 19). First, the distance d ij between the pronunciation statistical information (i = 1,..., K) of the synthesis target language phoneme i and the pronunciation statistical information (j = 1,..., L) of the learning target language phoneme j is calculated (S420-1). ). The calculation method of the distance between pronunciation statistical information changes with pronunciation statistical information to be used. For example, when GMM is used as pronunciation statistical information, KL divergence, which is a measure for measuring a difference between probability distributions, can be used. Further, when the average value and the variance are used, the Mahalanobis distance and when the quartile is used, the distance dij may be calculated using the Euclidean distance of the quartile. Next, for the synthesis target language phoneme i , the learning target language phoneme j_min (1 ≦ j min ≦) is the smallest among the distances d i1 to the learning target language phoneme 1 and the distances d iL to the learning target language phoneme L. L) is specified (S420-2). Assuming that the target language phoneme i and the target language phoneme j_min correspond to each other, the index, the target language phoneme j_min , and the target language phoneme i are added to the table, and finally the pronunciation vector creation rule is generated (S420-3).

本実施形態の発明によれば、学習対象言語の発話情報も用いて不特定話者声質変換器を生成することにより、合成音声の品質を向上させるクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより合成音声の品質を向上させることができる。   According to the invention of this embodiment, a cross-lingual speech synthesis model that improves the quality of synthesized speech can be generated by generating an unspecified speaker voice quality converter using speech information of a language to be learned. . In addition, the quality of synthesized speech can be improved by using the cross-lingual speech synthesis model.

<第三実施形態>
第一実施形態では、合成対象言語音声データとして1名の話者の音声データを使用している。
<Third embodiment>
In the first embodiment, voice data of one speaker is used as the synthesis target language voice data.

本実施形態では、合成対象言語音声データとして複数の話者の音声データを使用する。これにより、合成音声の品質を向上させることができる。   In the present embodiment, voice data of a plurality of speakers is used as the synthesis target language voice data. As a result, the quality of the synthesized speech can be improved.

以下、図20〜図21を参照して音声合成用モデル学習装置520について説明する。なお、不特定話者声質変換器の生成には不特定話者声質変換器学習装置110を用いることができる。つまり、不特定話者声質変換器学習装置110と、音声合成用モデル学習装置520と、記録部190を含むクロスリンガル音声合成用モデル学習装置を構成することができる。また、合成音声の生成にはクロスリンガル音声合成装置200を用いることができる。   Hereinafter, the speech synthesis model learning device 520 will be described with reference to FIGS. The unspecified speaker voice quality converter learning device 110 can be used to generate the unspecified speaker voice quality converter. That is, a non-specific speaker voice quality converter learning device 110, a speech synthesis model learning device 520, and a cross-lingual speech synthesis model learning device including the recording unit 190 can be configured. In addition, the cross-lingual speech synthesizer 200 can be used to generate synthesized speech.

[音声合成用モデル学習装置520]
図20に示すように音声合成用モデル学習装置520は、声質変換部511、合成用モデル学習部513を含む。図21に従い音声合成用モデル学習装置520の動作について説明する。ここでは、合成対象言語音声データm(1≦m≦M)が必要である。
[Speech Synthesis Model Learning Device 520]
As shown in FIG. 20, the speech synthesis model learning device 520 includes a voice quality conversion unit 511 and a synthesis model learning unit 513. The operation of the speech synthesis model learning device 520 will be described with reference to FIG. Here, synthesis target language speech data m (1 ≦ m ≦ M) is required.

声質変換部511は、合成対象言語音声データmを入力として、不特定話者声質変換器を用いて声質変換後合成対象言語音声データmを生成し、出力する(S511)。例えば、不特定話者声質変換器が式(1)で表される場合、合成対象言語音声データmのスペクトルパラメータCsynth,org,m(t)から目標話者の声質を有する合成対象言語の目標話者スペクトルパラメータm C^synth,target,m(t)へ変換する。 The voice quality conversion unit 511 receives the synthesis target language voice data m as input, generates post-voice quality conversion synthesis target language voice data m using an unspecified speaker voice quality converter, and outputs it (S511). For example, when the unspecified speaker voice quality converter is expressed by the equation (1), the synthesis target language having the voice quality of the target speaker is obtained from the spectrum parameter C synth, org, m (t) of the synthesis target language voice data m . Convert to target speaker spectrum parameter m C ^ synth, target, m (t).

Figure 2018084604
Figure 2018084604

声質変換器の学習に(参考非特許文献1)を用いた場合は、(参考非特許文献1)に従い声質変換を行えばよい。式(1)に従い計算された目標話者スペクトルパラメータm C^synth,target,m(t)が声質変換後合成対象言語音声データmである。 When (Reference Non-Patent Document 1) is used for learning of the voice quality converter, the voice quality conversion may be performed according to (Reference Non-Patent Document 1). The target speaker spectrum parameter m C ^ synth, target, m (t) calculated according to the equation (1) is the speech data m to be synthesized after voice conversion.

合成用モデル学習部513は、S511で生成した声質変換後合成対象言語音声データmと、合成対象言語発話情報集合mを入力として、クロスリンガル音声合成モデルを学習し、出力する(S513)。クロスリンガル音声合成用モデルの学習には、(非特許文献1)、(非特許文献2)を用いることができる。また、(参考非特許文献3)のように複数の話者の音声データを用いて学習する平均声モデルを音声合成用モデルとして用いることもできる。
(参考非特許文献3)田村正統,益子貴史,徳田恵一,小林隆夫,“HMMに基づく音声合成におけるピッチ・スペクトルの話者適応”,電子情報通信学会論文誌 D, Vol.J85-D2, No.4, pp.545-553, 2002.
The synthesis model learning unit 513 learns and outputs a cross-lingual speech synthesis model using the post-voice quality conversion synthesis target language speech data m generated in S511 and the synthesis target language utterance information set m as inputs (S513). (Non-Patent Document 1) and (Non-Patent Document 2) can be used for learning a model for cross-lingual speech synthesis. Further, as in (Reference Non-Patent Document 3), an average voice model learned using voice data of a plurality of speakers can be used as a voice synthesis model.
(Non-patent document 3) Masanori Tamura, Takashi Masuko, Keiichi Tokuda, Takao Kobayashi, “Speaker adaptation of pitch spectrum in speech synthesis based on HMM”, IEICE Transactions D, Vol.J85-D2, No .4, pp.545-553, 2002.

一般に、音声合成用モデルを学習する際、学習に使用できる音声データ、発話情報の量が多いほど高品質な合成音声を生成することが可能である。本実施形態では、M名の合成対象言語音声データを用いている。M名の合成対象言語音声データを用いた場合、目標話者の声質を有する、M名の声質変換後合成対象言語音声データを音声合成用モデルの学習データとして使用することができる。これにより、1名分の合成対象言語音声データを使用する場合に比して、音声合成用モデル学習に使用可能な音声データの量が増加するため、合成音声の品質を向上させるクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより合成音声の品質を向上させることができる。   In general, when learning a speech synthesis model, it is possible to generate higher-quality synthesized speech as the amount of speech data and speech information that can be used for learning increases. In the present embodiment, M name synthesis target language speech data is used. In the case of using the M synthesis target language speech data, the M name speech quality-converted synthesis target language speech data having the voice quality of the target speaker can be used as learning data for the speech synthesis model. This increases the amount of speech data that can be used for speech synthesis model learning compared to the case of using one target language speech data for synthesis, so cross-lingual speech synthesis improves the quality of synthesized speech. Model can be generated. In addition, the quality of synthesized speech can be improved by using the cross-lingual speech synthesis model.

<第四実施形態>
第三実施形態では、M名の話者による合成対象言語音声データから生成した声質変換後合成対象言語音声データをすべて音声合成用モデル学習に使用している。
<Fourth embodiment>
In the third embodiment, all post-voice-quality synthesis target language speech data generated from synthesis target language speech data by M speakers is used for speech synthesis model learning.

しかし、合成対象言語入力話者mと目標話者の話者性が大きく異なる場合、声質変換部511が生成する声質変換後合成対象言語音声データmの変換精度が劣化する場合がある。したがって、必ずしもM名すべての声質変換後合成用対象言語音声データを音声合成用モデル学習に使用することが適切であるとは限らない。 However, when the speech characteristics of the synthesis target language input speaker m and the target speaker are greatly different, the conversion accuracy of the post-voice quality conversion target language speech data m generated by the voice quality conversion unit 511 may deteriorate. Accordingly, it is not always appropriate to use the target language speech data for synthesis after voice quality conversion for all M names for speech synthesis model learning.

そこで、本実施形態では、この問題を回避するために、M名の声質変換後合成用対象言語音声データのうち、変換精度が高いもののみを音声合成用モデルの学習に使用する。
これにより、合成音声の品質を向上させることができる。
Therefore, in the present embodiment, in order to avoid this problem, only speech data with a high conversion accuracy among the M language voice synthesis target language speech data for speech synthesis conversion is used for learning the speech synthesis model.
As a result, the quality of the synthesized speech can be improved.

以下、図22〜図23を参照して音声合成用モデル学習装置620について説明する。なお、不特定話者声質変換器の生成には不特定話者声質変換器学習装置110を用いることができる。つまり、不特定話者声質変換器学習装置110と、音声合成用モデル学習装置620と、記録部190を含むクロスリンガル音声合成用モデル学習装置を構成することができる。また、合成音声の生成にはクロスリンガル音声合成装置200を用いることができる。   Hereinafter, the speech synthesis model learning device 620 will be described with reference to FIGS. 22 to 23. The unspecified speaker voice quality converter learning device 110 can be used to generate the unspecified speaker voice quality converter. That is, a non-specific speaker voice quality converter learning device 110, a speech synthesis model learning device 620, and a cross-lingual speech synthesis model learning device including the recording unit 190 can be configured. In addition, the cross-lingual speech synthesizer 200 can be used to generate synthesized speech.

[音声合成用モデル学習装置620]
図22に示すように音声合成用モデル学習装置620は、声質変換部511、話者類似性判定部612、合成用モデル学習部513を含む。図23に従い音声合成用モデル学習装置620の動作について説明する。
[Speech Synthesis Model Learning Device 620]
As illustrated in FIG. 22, the speech synthesis model learning device 620 includes a voice quality conversion unit 511, a speaker similarity determination unit 612, and a synthesis model learning unit 513. The operation of the speech synthesis model learning device 620 will be described with reference to FIG.

声質変換部511は、合成対象言語音声データmを入力として、不特定話者声質変換器を用いて声質変換後合成対象言語音声データmを生成し、出力する(S511)。 The voice quality conversion unit 511 receives the synthesis target language voice data m as input, generates post-voice quality conversion synthesis target language voice data m using an unspecified speaker voice quality converter, and outputs it (S511).

話者類似性判定部612は、S511で生成した声質変換後合成対象言語音声データm (1≦m≦M)と目標話者音声データを入力として、声質変換後合成対象言語音声データmと目標話者音声データの類似の程度を示す類似度mを算出し、類似度mに基づいて声質変換後合成対象言語音声データmが目標話者音声データに類似していると判定される場合、声質変換後合成対象言語音声データmを目標話者音声データに類似している声質変換後合成対象言語音声データの集合である目標話者類似合成対象言語音声データ集合に追加していくことにより、目標話者類似合成対象言語音声データ集合を生成する(S612)。類似度の算出には、声質変換後合成対象言語音声データmと目標話者音声データとの差、例えばスペクトルパラメータの差を利用する。そのような方法として、正規混合分布(GMM)を使用する(参考非特許文献4)の方法がある。
(参考非特許文献4)D. A. Reynolds, “Speaker identification and verification using Gaussian mixture speaker models”, Speech Communication, vol.17, Issues 1-2, pp.91-108, 1995.
The speaker similarity determination unit 612 receives the voice quality-converted synthesis target language voice data m (1 ≦ m ≦ M) and the target speaker voice data generated in S511 and inputs the voice quality-converted target language voice data m and the target voice data m. calculating a similarity m indicating the degree of similarity of the speaker's speech data, if after voice conversion synthesized target language voice data m, based on the similarity m is determined to be similar to the target-speaker speech data, voice By adding the post-conversion synthesis target language speech data m to the target speaker-similar synthesis target language speech data set, which is a set of post-conversion speech synthesis target language speech data similar to the target speaker speech data, A speaker-like synthesis target language speech data set is generated (S612). For the calculation of the similarity, the difference between the speech quality conversion target speech data m after the voice quality conversion and the target speaker voice data, for example, the difference in the spectral parameters is used. As such a method, there is a method of using a normal mixture distribution (GMM) (reference non-patent document 4).
(Reference Non-Patent Document 4) DA Reynolds, “Speaker identification and verification using Gaussian mixture speaker models”, Speech Communication, vol.17, Issues 1-2, pp.91-108, 1995.

話者類似性判定部612の動作は、具体的には、以下のようになる(図24参照)。まず、目標話者音声データを使用して、目標話者のGMMを学習する(S612−1)。次に、学習した目標話者のGMMに対して、声質変換後合成対象言語音声データmを入力し、合成対象言語入力話者mの尤度を類似度mとして算出する(S612−2)。最後に、類似度mが所定の閾値以上である(または、所定の閾値より大きい)場合、声質変換後合成対象言語音声データmと目標話者音声データは類似していると判定(つまり、合成対象言語入力話者mを目標話者と類似性が高い話者と判定)し、声質変換後合成対象言語音声データmを目標話者類似合成対象言語音声データ集合の要素として決定する(S612−3)。 The operation of the speaker similarity determination unit 612 is specifically as follows (see FIG. 24). First, the target speaker's voice data is used to learn the target speaker's GMM (S612-1). Then, the target speaker GMM learned, enter the post-voice conversion synthesized target language voice data m, and calculates the likelihood of the synthesis target language input speaker m as the similarity m (S612-2). Finally, when the similarity m is equal to or higher than a predetermined threshold (or larger than the predetermined threshold), it is determined that the synthesis target language voice data m after voice quality conversion and the target speaker voice data are similar (that is, synthesis) The target language input speaker m is determined to be a speaker having high similarity to the target speaker), and the speech-to-synthesized synthesis target language speech data m is determined as an element of the target speaker similar synthesis target language speech data set (S612-). 3).

合成用モデル学習部513は、S612で生成した目標話者類似合成対象言語音声データ集合と、合成対象言語発話情報集合m(1≦m≦M)を入力として、クロスリンガル音声合成モデルを学習し、出力する(S513)。ここでは、目標話者類似合成対象言語音声データ集合の要素である声質変換後合成対象言語音声データmに対応する合成対象言語発話情報集合mのみが使用されることになる。 The synthesis model learning unit 513 learns a cross-lingual speech synthesis model using the target speaker similar synthesis target language speech data set generated in S612 and the synthesis target language utterance information set m (1 ≦ m ≦ M) as inputs. Are output (S513). Here, only the synthesis target language utterance information set m corresponding to the synthesis target language speech data m after voice quality conversion, which is an element of the target speaker similar synthesis target language speech data set, is used.

なお、S612で目標話者類似合成対象言語音声データ集合を生成する代わりに、最も類似度が大きい声質変換後合成対象言語音声データを目標話者類似合成対象言語音声データとして生成するのでもよい。この場合、合成用モデル学習部513は、S612で生成した目標話者類似合成対象言語音声データと、合成対象言語発話情報集合m(1≦m≦M)を入力として、クロスリンガル音声合成モデルを学習し、出力する。 Note that, instead of generating the target speaker similar synthesis target language speech data set in S612, the synthesized speech language data after voice quality conversion having the highest similarity may be generated as the target speaker similar synthesis target language speech data. In this case, the synthesis model learning unit 513 receives the target speaker similar synthesis target language speech data generated in S612 and the synthesis target language utterance information set m (1 ≦ m ≦ M) as input, and generates a cross-lingual speech synthesis model. Learn and output.

本実施形態では、類似度が大きい声質変換後合成対象言語音声データのみを音声合成用モデルの学習データとして用いている。これにより、合成音声の品質を向上させるクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより合成音声の品質を向上させることができる。   In the present embodiment, only the speech data after speech quality conversion with high similarity is used as learning data for the speech synthesis model. This makes it possible to generate a cross-lingual speech synthesis model that improves the quality of the synthesized speech. In addition, the quality of synthesized speech can be improved by using the cross-lingual speech synthesis model.

特に、最も類似度が大きい声質変換後合成対象言語音声データのみを学習データとして用いる場合は、目標話者による合成対象言語での音声データが利用できる場合に生成されるような音声合成用モデルによる合成音声の品質に近いクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより目標話者による合成対象言語での音声データが利用できる場合に生成されるような音声合成用モデルによる合成音声の品質に近い合成音声を生成することができる。   In particular, when only speech data after speech quality conversion with the highest degree of similarity is used as learning data, it is based on a speech synthesis model that is generated when speech data in the synthesis target language by the target speaker is available. A model for cross-lingual speech synthesis close to the quality of synthesized speech can be generated. In addition, by using the cross-lingual speech synthesis model, a synthesized speech that is close to the quality of the synthesized speech by the speech synthesis model that is generated when speech data in the target language by the target speaker is available is generated. be able to.

<第五実施形態>
第二実施形態では、合成対象言語音声データとして1名の話者の音声データを使用している。
<Fifth embodiment>
In the second embodiment, voice data of one speaker is used as the synthesis target language voice data.

本実施形態では、合成対象言語音声データとして複数の話者の音声データを使用する。これにより、合成音声の品質を向上させることができる。   In the present embodiment, voice data of a plurality of speakers is used as the synthesis target language voice data. As a result, the quality of the synthesized speech can be improved.

以下、図25〜図26を参照して音声合成用モデル学習装置720について説明する。なお、不特定話者声質変換器の生成には不特定話者声質変換器学習装置310を用いることができる。つまり、不特定話者声質変換器学習装置310と、音声合成用モデル学習装置720と、記録部190を含むクロスリンガル音声合成用モデル学習装置を構成することができる。ここで、記録部190には、事前に発音ベクトル作成規則が記録されているものとする。また、合成音声の生成にはクロスリンガル音声合成装置200を用いることができる。   Hereinafter, the speech synthesis model learning apparatus 720 will be described with reference to FIGS. Note that the unspecified speaker voice quality converter learning device 310 can be used to generate the unspecified speaker voice quality converter. That is, a cross-lingual speech synthesis model learning device including the unspecified speaker voice quality converter learning device 310, the speech synthesis model learning device 720, and the recording unit 190 can be configured. Here, it is assumed that a pronunciation vector creation rule is recorded in the recording unit 190 in advance. In addition, the cross-lingual speech synthesizer 200 can be used to generate synthesized speech.

[音声合成用モデル学習装置720]
図25に示すように音声合成用モデル学習装置720は、声質変換部711、第2発音ベクトル生成部712、合成用モデル学習部713を含む。図26に従い音声合成用モデル学習装置720の動作について説明する。ここでは、合成対象言語音声データm(1≦m≦M)が必要である。
[Speech Synthesis Model Learning Device 720]
As shown in FIG. 25, the speech synthesis model learning device 720 includes a voice quality conversion unit 711, a second pronunciation vector generation unit 712, and a synthesis model learning unit 713. The operation of the speech synthesis model learning device 720 will be described with reference to FIG. Here, synthesis target language speech data m (1 ≦ m ≦ M) is required.

第2発音ベクトル生成部712は、合成対象言語発話情報集合mを入力として、記録部190から読み込んだ発音ベクトル作成規則を用いて、合成対象言語発音ベクトル集合mを生成し、出力する(S712)。合成対象言語発音ベクトル集合mの生成方法は、第2発音ベクトル生成部312における合成対象言語発音ベクトル集合の生成方法と同様であり、合成対象言語発話情報集合mの発話情報から算出される発音ベクトル(以下、合成対象言語発音ベクトルという)の集合が合成対象言語発音ベクトル集合mである。 The second pronunciation vector generation unit 712 receives the synthesis target language utterance information set m as an input, generates a synthesis target language pronunciation vector set m using the pronunciation vector creation rules read from the recording unit 190, and outputs it (S712). . The generation method of the synthesis target language pronunciation vector set m is the same as the generation method of the synthesis target language pronunciation vector set in the second pronunciation vector generation unit 312, and the pronunciation vector calculated from the utterance information of the synthesis target language utterance information set m A set of synthesis target language pronunciation vectors (hereinafter referred to as a synthesis target language pronunciation vector) is a synthesis target language pronunciation vector set m .

声質変換部711は、合成対象言語音声データmと、S712で生成した合成対象言語発音ベクトル集合mを入力として、不特定話者声質変換器を用いて声質変換後合成対象言語音声データmを生成し、出力する(S711)。例えば、不特定話者声質変換器が式(2)で表される場合、合成対象言語音声データmのスペクトルパラメータCsynth,org,m(t)と対応する合成対象言語発音ベクトルVsynth,org,m(t)の組(Csynth,org,m(t), Vsynth,org,m(t))から目標話者の声質を有する合成対象言語の目標話者スペクトルパラメータm C^synth,target,m(t)へ変換する。 The voice quality conversion unit 711 receives the synthesis target language speech data m and the synthesis target language pronunciation vector set m generated in S712 as input, and generates the post-voice quality converted synthesis target language speech data m using an unspecified speaker voice quality converter. And output (S711). For example, when the unspecified speaker voice quality converter is expressed by Equation (2), the synthesis target language pronunciation vector V synth, org corresponding to the spectrum parameter C synth, org, m (t) of the synthesis target speech data m , m (t) (C synth, org, m (t), V synth, org, m (t)) from the target speaker spectral parameter m C ^ synth, Convert to target, m (t).

Figure 2018084604
Figure 2018084604

声質変換器の学習に(参考非特許文献1)を用いた場合は、(参考非特許文献1)に従い声質変換を行えばよい。式(2)に従い計算された目標話者スペクトルパラメータm C^synth,target,m(t)が声質変換後合成対象言語音声データmである。 When (Reference Non-Patent Document 1) is used for learning of the voice quality converter, the voice quality conversion may be performed according to (Reference Non-Patent Document 1). The target speaker spectrum parameter m C ^ synth, target, m (t) calculated according to the equation (2) is the speech data m to be synthesized after voice conversion.

合成用モデル学習部713は、S711で生成した声質変換後合成対象言語音声データmと、合成対象言語発話情報集合mを入力として、クロスリンガル音声合成モデルを学習し、出力する(S713)。クロスリンガル音声合成用モデルの学習には、(非特許文献1)、(非特許文献2)、(参考非特許文献3)を用いることができる。 The synthesis model learning unit 713 learns and outputs a cross-lingual speech synthesis model using the post-voice-quality-converted synthesis target language speech data m generated in S711 and the synthesis target language utterance information set m as inputs (S713). (Non-patent document 1), (Non-patent document 2), and (Reference non-patent document 3) can be used for learning of a model for cross-lingual speech synthesis.

本実施形態では、M名の合成対象言語音声データを用いている。M名の合成対象言語音声データを用いた場合、目標話者の声質を有する、M名の声質変換後合成対象言語音声データを音声合成用モデルの学習データとして使用することができる。これにより、1名分の合成対象言語音声データを使用する場合に比して、音声合成用モデル学習に使用可能な音声データの量が増加するため、合成音声の品質を向上させるクロスリンガル音声合成用モデルを生成することができる。その上、第二実施形態同様、学習対象言語の発話情報も用いて学習した不特定話者声質変換器を用いているため、合成音声の品質をより向上させるクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより合成音声の品質を向上させることができる。   In the present embodiment, M name synthesis target language speech data is used. In the case of using the M synthesis target language speech data, the M name speech quality-converted synthesis target language speech data having the voice quality of the target speaker can be used as learning data for the speech synthesis model. This increases the amount of speech data that can be used for speech synthesis model learning compared to the case of using one target language speech data for synthesis, so cross-lingual speech synthesis improves the quality of synthesized speech. Model can be generated. In addition, as in the second embodiment, since the unspecified speaker voice quality converter learned using the speech information of the language to be learned is used, a cross-lingual speech synthesis model that further improves the quality of the synthesized speech is generated. be able to. In addition, the quality of synthesized speech can be improved by using the cross-lingual speech synthesis model.

<第六実施形態>
第五実施形態では、M名の話者による合成対象言語音声データから生成した声質変換後合成対象言語音声データをすべて音声合成用モデル学習に使用している。
<Sixth embodiment>
In the fifth embodiment, all post-voice quality conversion target language speech data generated from synthesis target language speech data by M speakers is used for speech synthesis model learning.

しかし、合成対象言語入力話者mと目標話者の話者性が大きく異なる場合、声質変換部711が生成する声質変換後合成対象言語音声データmの変換精度が劣化する場合がある。したがって、必ずしもM名すべての声質変換後合成用対象言語音声データを音声合成用モデル学習に使用することが適切であるとは限らない。 However, if the speech characteristics of the synthesis target language input speaker m and the target speaker are greatly different, the conversion accuracy of the post-voice quality conversion synthesis target language speech data m generated by the voice quality conversion unit 711 may deteriorate. Accordingly, it is not always appropriate to use the target language speech data for synthesis after voice quality conversion for all M names for speech synthesis model learning.

そこで、本実施形態では、この問題を回避するために、M名の声質変換後合成用対象言語音声データのうち、変換精度が高いもののみを音声合成用モデルの学習に使用する。
これにより、合成音声の品質を向上させることができる。
Therefore, in the present embodiment, in order to avoid this problem, only speech data with a high conversion accuracy among the M language voice synthesis target language speech data for speech synthesis conversion is used for learning the speech synthesis model.
As a result, the quality of the synthesized speech can be improved.

以下、図27〜図28を参照して音声合成用モデル学習装置820について説明する。なお、不特定話者声質変換器の生成には不特定話者声質変換器学習装置310を用いることができる。つまり、不特定話者声質変換器学習装置310と、音声合成用モデル学習装置820と、記録部190を含むクロスリンガル音声合成用モデル学習装置を構成することができる。ここで、記録部190には、事前に発音ベクトル作成規則が記録されているものとする。また、合成音声の生成にはクロスリンガル音声合成装置200を用いることができる。   Hereinafter, the speech synthesis model learning device 820 will be described with reference to FIGS. 27 to 28. Note that the unspecified speaker voice quality converter learning device 310 can be used to generate the unspecified speaker voice quality converter. That is, a cross-lingual speech synthesis model learning device including the unspecified speaker voice quality converter learning device 310, the speech synthesis model learning device 820, and the recording unit 190 can be configured. Here, it is assumed that a pronunciation vector creation rule is recorded in the recording unit 190 in advance. In addition, the cross-lingual speech synthesizer 200 can be used to generate synthesized speech.

[音声合成用モデル学習装置820]
図27に示すように音声合成用モデル学習装置820は、声質変換部711、第2発音ベクトル生成部712、話者類似性判定部812、合成用モデル学習部713を含む。図28に従い音声合成用モデル学習装置820の動作について説明する。
[Speech Synthesis Model Learning Device 820]
As shown in FIG. 27, the speech synthesis model learning device 820 includes a voice quality conversion unit 711, a second pronunciation vector generation unit 712, a speaker similarity determination unit 812, and a synthesis model learning unit 713. The operation of the speech synthesis model learning device 820 will be described with reference to FIG.

第2発音ベクトル生成部712は、合成対象言語発話情報集合mを入力として、記録部190から読み込んだ発音ベクトル作成規則を用いて、合成対象言語発音ベクトル集合mを生成し、出力する(S712)。 The second pronunciation vector generation unit 712 receives the synthesis target language utterance information set m as an input, generates a synthesis target language pronunciation vector set m using the pronunciation vector creation rules read from the recording unit 190, and outputs it (S712). .

声質変換部711は、合成対象言語音声データmと、S712で生成した合成対象言語発音ベクトル集合mを入力として、不特定話者声質変換器を用いて声質変換後合成対象言語音声データmを生成し、出力する(S711)。 The voice quality conversion unit 711 receives the synthesis target language speech data m and the synthesis target language pronunciation vector set m generated in S712 as input, and generates the post-voice quality converted synthesis target language speech data m using an unspecified speaker voice quality converter. And output (S711).

話者類似性判定部812は、S711で生成した声質変換後合成対象言語音声データm (1≦m≦M)と目標話者音声データを入力として、声質変換後合成対象言語音声データmと目標話者音声データの類似の程度を示す類似度mを算出し、類似度mに基づいて声質変換後合成対象言語音声データmが目標話者音声データに類似していると判定される場合、声質変換後合成対象言語音声データmを目標話者音声データに類似している声質変換後合成対象言語音声データの集合である目標話者類似合成対象言語音声データ集合に追加していくことにより、目標話者類似合成対象言語音声データ集合を生成する(S812)。話者類似性判定部812の動作は、話者類似性判定部612の動作と同様でよい。 The speaker similarity determination unit 812 receives the post-voice quality conversion synthesis target language voice data m (1 ≦ m ≦ M) and the target speaker voice data generated in S711, and inputs the post-voice quality conversion target language voice data m and the target. calculating a similarity m indicating the degree of similarity of the speaker's speech data, if after voice conversion synthesized target language voice data m, based on the similarity m is determined to be similar to the target-speaker speech data, voice By adding the post-conversion synthesis target language speech data m to the target speaker-similar synthesis target language speech data set, which is a set of post-conversion speech synthesis target language speech data similar to the target speaker speech data, A speaker-like synthesis target language speech data set is generated (S812). The operation of the speaker similarity determination unit 812 may be the same as the operation of the speaker similarity determination unit 612.

合成用モデル学習部713は、S812で生成した目標話者類似合成対象言語音声データ集合と、合成対象言語発話情報集合m(1≦m≦M)を入力として、クロスリンガル音声合成モデルを学習し、出力する(S713)。ここでは、目標話者類似合成対象言語音声データ集合の要素である声質変換後合成対象言語音声データmに対応する合成対象言語発話情報集合mのみが使用されることになる。 The synthesis model learning unit 713 learns a cross-lingual speech synthesis model using the target speaker similar synthesis target language speech data set generated in S812 and the synthesis target language utterance information set m (1 ≦ m ≦ M) as inputs. Are output (S713). Here, only the synthesis target language utterance information set m corresponding to the synthesis target language speech data m after voice quality conversion, which is an element of the target speaker similar synthesis target language speech data set, is used.

なお、S812で目標話者類似合成対象言語音声データ集合を生成する代わりに、最も類似度が大きい声質変換後合成対象言語音声データを目標話者類似合成対象言語音声データとして生成するのでもよい。この場合、合成用モデル学習部713は、S812で生成した目標話者類似合成対象言語音声データと、合成対象言語発話情報集合m(1≦m≦M)を入力として、クロスリンガル音声合成モデルを学習し、出力する。 Note that, instead of generating the target speaker similar synthesis target language speech data set in S812, the speech quality converted synthesis target language speech data having the highest degree of similarity may be generated as the target speaker similar synthesis target language speech data. In this case, the synthesis model learning unit 713 receives the target speaker similar synthesis target language speech data generated in S812 and the synthesis target language utterance information set m (1 ≦ m ≦ M) as input, and generates a cross-lingual speech synthesis model. Learn and output.

本実施形態では、類似度が大きい声質変換後合成対象言語音声データのみを音声合成用モデルの学習データとして用いている。これにより、合成音声の品質を向上させるクロスリンガル音声合成用モデルを生成することができる。その上、第二実施形態同様、学習対象言語の発話情報も用いて学習した不特定話者声質変換器を用いているため、合成音声の品質をより向上させるクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより合成音声の品質を向上させることができる。   In the present embodiment, only the speech data after speech quality conversion with high similarity is used as learning data for the speech synthesis model. This makes it possible to generate a cross-lingual speech synthesis model that improves the quality of the synthesized speech. In addition, as in the second embodiment, since the unspecified speaker voice quality converter learned using the speech information of the language to be learned is used, a cross-lingual speech synthesis model that further improves the quality of the synthesized speech is generated. be able to. In addition, the quality of synthesized speech can be improved by using the cross-lingual speech synthesis model.

特に、最も類似度が大きい声質変換後合成対象言語音声データのみを学習データとして用いる場合は、目標話者による合成対象言語での音声データが利用できる場合に生成されるような音声合成用モデルによる合成音声の品質に近いクロスリンガル音声合成用モデルを生成することができる。また、当該クロスリンガル音声合成用モデルを用いることにより目標話者による合成対象言語での音声データが利用できる場合に生成されるような音声合成用モデルによる合成音声の品質に近い合成音声を生成することができる。   In particular, when only speech data after speech quality conversion with the highest degree of similarity is used as learning data, it is based on a speech synthesis model that is generated when speech data in the synthesis target language by the target speaker is available. A model for cross-lingual speech synthesis close to the quality of synthesized speech can be generated. In addition, by using the cross-lingual speech synthesis model, a synthesized speech that is close to the quality of the synthesized speech by the speech synthesis model that is generated when speech data in the target language by the target speaker is available is generated. be able to.

<変形例>
この発明は上述の実施形態に限定されるものではなく、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。上記実施形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
<Modification>
The present invention is not limited to the above-described embodiment, and it goes without saying that modifications can be made as appropriate without departing from the spirit of the present invention. The various processes described in the above embodiment may be executed not only in time series according to the order of description, but also in parallel or individually as required by the processing capability of the apparatus that executes the processes or as necessary.

<補記>
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
<Supplementary note>
The apparatus of the present invention includes, for example, a single hardware entity as an input unit to which a keyboard or the like can be connected, an output unit to which a liquid crystal display or the like can be connected, and a communication device (for example, a communication cable) capable of communicating outside the hardware entity. Can be connected to a communication unit, a CPU (Central Processing Unit, may include a cache memory or a register), a RAM or ROM that is a memory, an external storage device that is a hard disk, and an input unit, an output unit, or a communication unit thereof , A CPU, a RAM, a ROM, and a bus connected so that data can be exchanged between the external storage devices. If necessary, the hardware entity may be provided with a device (drive) that can read and write a recording medium such as a CD-ROM. A physical entity having such hardware resources includes a general-purpose computer.

ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。   The external storage device of the hardware entity stores a program necessary for realizing the above functions and data necessary for processing the program (not limited to the external storage device, for example, reading a program) It may be stored in a ROM that is a dedicated storage device). Data obtained by the processing of these programs is appropriately stored in a RAM or an external storage device.

ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成要件)を実現する。   In the hardware entity, each program stored in an external storage device (or ROM or the like) and data necessary for processing each program are read into a memory as necessary, and are interpreted and executed by a CPU as appropriate. . As a result, the CPU realizes a predetermined function (respective component requirements expressed as the above-described unit, unit, etc.).

本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。   The present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the spirit of the present invention. In addition, the processing described in the above embodiment may be executed not only in time series according to the order of description but also in parallel or individually as required by the processing capability of the apparatus that executes the processing. .

既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。   As described above, when the processing functions in the hardware entity (the apparatus of the present invention) described in the above embodiments are realized by a computer, the processing contents of the functions that the hardware entity should have are described by a program. Then, by executing this program on a computer, the processing functions in the hardware entity are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。   The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used. Specifically, for example, as a magnetic recording device, a hard disk device, a flexible disk, a magnetic tape or the like, and as an optical disk, a DVD (Digital Versatile Disc), a DVD-RAM (Random Access Memory), a CD-ROM (Compact Disc Read Only). Memory), CD-R (Recordable) / RW (ReWritable), etc., magneto-optical recording medium, MO (Magneto-Optical disc), etc., semiconductor memory, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory), etc. Can be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own recording medium and executes a process according to the read program. As another execution form of the program, the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good. Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   In this embodiment, a hardware entity is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.

Claims (8)

Nを1以上の整数、nを1≦n≦Nなる整数とし、
目標話者による学習対象言語での音声データである目標話者音声データと学習対象言語入力話者nによる学習対象言語での音声データである学習対象言語音声データn(1≦n≦N)は、同一の文章を発話した音声データであり、
前記目標話者音声データと前記学習対象言語音声データn(1≦n≦N)から、前記目標話者による合成対象言語での音声を合成するクロスリンガル音声合成用モデルを学習するクロスリンガル音声合成用モデル学習装置であって、
前記目標話者音声データと前記学習対象言語音声データnとの時間情報を調整し、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnを生成する時間情報調整部と、
前記時間情報調整後目標話者音声データnと前記時間情報調整後学習対象言語音声データnの組(1≦n≦N)から、任意の音声データを前記目標話者の声質を有する音声データに変換する不特定話者声質変換器を学習する声質変換器学習部と、
前記不特定話者声質変換器を用いて、合成対象言語入力話者による合成対象言語での音声データである合成対象言語音声データから、前記目標話者の声質を有する声質変換後合成対象言語音声データを生成する声質変換部と、
前記声質変換後合成対象言語音声データと前記合成対象言語音声データに含まれる発話の発話情報の集合である合成対象言語発話情報集合から、前記クロスリンガル音声合成用モデルを学習する合成用モデル学習部と
を含むクロスリンガル音声合成用モデル学習装置。
N is an integer of 1 or more, n is an integer 1 ≦ n ≦ N,
Target language speech data n (1 ≦ n ≦ N), which is the target speaker speech data that is speech data in the target language by the target speaker, and speech data in the target language by the target language input speaker n , Voice data uttering the same sentence,
Cross-lingual speech synthesis for learning a cross-lingual speech synthesis model for synthesizing speech in the synthesis target language by the target speaker from the target speaker speech data and the learning target language speech data n (1 ≦ n ≦ N) Model learning device for
The target speaker speech data and adjusts the time information of the learned language audio data n, the time information adjusted target speaker speech data n and time information adjusted learned language time to generate audio data n information adjustment unit When,
From the set (1 ≦ n ≦ N) of the target speaker voice data n after the time information adjustment and the learning target language voice data n after the time information adjustment, arbitrary voice data is converted into voice data having the voice quality of the target speaker. A voice quality converter learning unit for learning an unspecified speaker voice quality converter to be converted;
Using the unspecified speaker voice quality converter, the voice to be synthesized after synthesis of speech having the voice quality of the target speaker from the synthesis target language voice data which is voice data in the synthesis target language by the synthesis target language input speaker A voice quality conversion unit for generating data;
A synthesis model learning unit that learns the cross-lingual speech synthesis model from the synthesis target language speech information set that is a set of speech information included in the synthesis target language speech data after the voice quality conversion and the synthesis target language speech data A model learning device for cross-lingual speech synthesis including and.
Nを1以上の整数、nを1≦n≦Nなる整数とし、
目標話者による学習対象言語での音声データである目標話者音声データと学習対象言語入力話者nによる学習対象言語での音声データである学習対象言語音声データn(1≦n≦N) は、同一の文章を発話した音声データであり、
前記目標話者音声データと前記学習対象言語音声データn(1≦n≦N)から、前記目標話者による合成対象言語での音声を合成するクロスリンガル音声合成用モデルを学習するクロスリンガル音声合成用モデル学習装置であって、
学習対象言語の音素と合成対象言語の音素の対応関係を示す発音ベクトル作成規則を記録した記録部と、
前記目標話者音声データと前記学習対象言語音声データnとの時間情報を調整し、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnを生成する時間情報調整部と、
前記発音ベクトル作成規則を用いて、前記学習対象言語音声データnに含まれる発話の発話情報の集合である学習対象言語発話情報集合nから、前記発話情報から算出される発音ベクトルの集合である学習対象言語発音ベクトル集合nを生成する第1発音ベクトル生成部と、
前記時間情報調整後目標話者音声データnと前記時間情報調整後学習対象言語音声データnと前記学習対象言語発音ベクトル集合nの組(1≦n≦N)から、任意の音声データを前記目標話者の声質を有する音声データに変換する不特定話者声質変換器を学習する声質変換器学習部と、
前記発音ベクトル作成規則を用いて、合成対象言語入力話者による合成対象言語での音声データである合成対象言語音声データに含まれる発話の発話情報の集合である合成対象言語発話情報集合から、前記発話情報から算出される発音ベクトルの集合である合成対象言語発音ベクトル集合を生成する第2発音ベクトル生成部と、
前記不特定話者声質変換器を用いて、前記合成対象言語音声データと前記合成対象言語発音ベクトル集合から、前記目標話者の声質を有する声質変換後合成対象言語音声データを生成する声質変換部と、
前記声質変換後合成対象言語音声データと前記合成対象言語発話情報集合から、前記クロスリンガル音声合成用モデルを学習する合成用モデル学習部と
を含むクロスリンガル音声合成用モデル学習装置。
N is an integer of 1 or more, n is an integer 1 ≦ n ≦ N,
Target language speech data n (1 ≦ n ≦ N), which is the target speaker speech data that is speech data in the target language by the target speaker, and speech data in the target language by the target language input speaker n , Voice data uttering the same sentence,
Cross-lingual speech synthesis for learning a cross-lingual speech synthesis model for synthesizing speech in the synthesis target language by the target speaker from the target speaker speech data and the learning target language speech data n (1 ≦ n ≦ N) Model learning device for
A recording unit that records a pronunciation vector creation rule indicating a correspondence relationship between a phoneme of a language to be learned and a phoneme of a language to be synthesized;
The target speaker speech data and adjusts the time information of the learned language audio data n, the time information adjusted target speaker speech data n and time information adjusted learned language time to generate audio data n information adjustment unit When,
Learning, which is a set of pronunciation vectors calculated from the utterance information, from the learning target language utterance information set n , which is a set of utterance information of utterances included in the learning target language speech data n , using the pronunciation vector creation rule A first pronunciation vector generation unit for generating a target language pronunciation vector set n ;
From the set (1 ≦ n ≦ N) of the target speaker speech data n after the time information adjustment, the learning target language speech data n after the time information adjustment and the learning target language pronunciation vector set n (1 ≦ n ≦ N), the target speech data A voice quality converter learning unit for learning an unspecified speaker voice quality converter for converting into voice data having the voice quality of the speaker;
Using the pronunciation vector creation rule, from the synthesis target language utterance information set, which is a set of utterance information of the utterance included in the synthesis target language speech data that is speech data in the synthesis target language by the synthesis target language input speaker, A second pronunciation vector generation unit that generates a synthesis target language pronunciation vector set that is a set of pronunciation vectors calculated from the utterance information;
Using the unspecified speaker voice quality converter, a voice quality conversion unit that generates voice-converted synthesis target language voice data having the voice quality of the target speaker from the synthesis target language voice data and the synthesis target language pronunciation vector set When,
A cross-lingual speech synthesis model learning device comprising: a synthesis model learning unit that learns the cross-lingual speech synthesis model from the synthesis target language speech data after voice quality conversion and the synthesis target language utterance information set.
請求項1に記載のクロスリンガル音声合成用モデル学習装置であって、
Mを1以上の整数、mを1≦m≦Mなる整数とし、
前記声質変換部は、合成対象言語入力話者mによる合成対象言語での音声データである合成対象言語音声データmから、前記目標話者の声質を有する声質変換後合成対象言語音声データmを生成し、
前記合成用モデル学習部は、前記声質変換後合成対象言語音声データmと前記合成対象言語音声データmに含まれる発話の発話情報の集合である合成対象言語発話情報集合m(1≦m≦M)から、前記クロスリンガル音声合成用モデルを学習する
ことを特徴とするクロスリンガル音声合成用モデル学習装置。
A model learning device for cross-lingual speech synthesis according to claim 1,
M is an integer of 1 or more, m is an integer satisfying 1 ≦ m ≦ M,
The voice quality conversion unit generates post-voice quality synthesis target language voice data m having the voice quality of the target speaker from synthesis target language voice data m which is voice data in a synthesis target language by a synthesis target language input speaker m. And
The synthesis model learning unit includes a synthesis target language utterance information set m (1 ≦ m ≦ M), which is a set of utterance information included in the synthesis target language speech data m and the synthesis target language speech data m. ) To learn the cross-lingual speech synthesis model. A cross-lingual speech synthesis model learning device.
請求項3に記載のクロスリンガル音声合成用モデル学習装置であって、
さらに、
前記声質変換後合成対象言語音声データmと前記目標話者音声データの類似の程度を示す類似度mを算出し、前記類似度mに基づいて前記声質変換後合成対象言語音声データmが前記目標話者音声データに類似していると判定される場合、前記声質変換後合成対象言語音声データmを前記目標話者音声データに類似している声質変換後合成対象言語音声データの集合である目標話者類似合成対象言語音声データ集合に追加していくことにより、前記目標話者類似合成対象言語音声データ集合を生成する話者類似性判定部を含み、
前記合成用モデル学習部は、前記目標話者類似合成対象言語音声データ集合と前記合成対象言語発話情報m(1≦m≦M)から、前記クロスリンガル音声合成用モデルを学習する
ことを特徴とするクロスリンガル音声合成用モデル学習装置。
A model learning device for cross-lingual speech synthesis according to claim 3,
further,
A similarity m indicating a degree of similarity between the voice quality converted synthesis target language voice data m and the target speaker voice data is calculated, and the voice quality converted synthesis target language voice data m is calculated based on the similarity m. When it is determined that the speech data is similar to the speaker voice data, the target speech data m is a set of post-voice quality synthesis target language speech data similar to the target speaker voice data. A speaker similarity determination unit that generates the target speaker similar synthesis target language speech data set by adding to the speaker similar synthesis target language speech data set;
The synthesis model learning unit learns the cross-lingual speech synthesis model from the target speaker similar synthesis target language speech data set and the synthesis target language utterance information m (1 ≦ m ≦ M). Model learning device for cross-lingual speech synthesis.
請求項1ないし4のいずれか1項に記載のクロスリンガル音声合成用モデル学習装置で学習したクロスリンガル音声合成用モデルを用いて、音声合成の対象となる合成対象言語でのテキストである合成テキストから当該合成テキストの合成音声を生成するクロスリンガル音声合成装置であって、
前記合成テキストから、当該合成テキストのコンテキスト情報を生成するテキスト解析部と、
前記クロスリンガル音声合成用モデルを用いて、前記コンテキスト情報から音声パラメータを生成する音声パラメータ生成部と、
前記音声パラメータから、前記合成音声を生成する音声波形生成部と
を含むクロスリンガル音声合成装置。
Synthetic text that is text in a synthesis target language that is a target of speech synthesis using the cross-lingual speech synthesis model learned by the cross-lingual speech synthesis model learning device according to any one of claims 1 to 4. A cross-lingual speech synthesizer for generating synthesized speech of the synthesized text from
A text analysis unit that generates context information of the synthesized text from the synthesized text;
Using the cross-lingual speech synthesis model, a speech parameter generation unit that generates speech parameters from the context information;
A cross-lingual speech synthesizer comprising: a speech waveform generator that generates the synthesized speech from the speech parameters.
Nを1以上の整数、nを1≦n≦Nなる整数とし、
目標話者による学習対象言語での音声データである目標話者音声データと学習対象言語入力話者nによる学習対象言語での音声データである学習対象言語音声データn(1≦n≦N) は、同一の文章を発話した音声データであり、
クロスリンガル音声合成用モデル学習装置が、前記目標話者音声データと前記学習対象言語音声データn(1≦n≦N)から、前記目標話者による合成対象言語での音声を合成するクロスリンガル音声合成用モデルを学習するクロスリンガル音声合成用モデル学習方法であって、
前記クロスリンガル音声合成用モデル学習装置が、前記目標話者音声データと前記学習対象言語音声データnとの時間情報を調整し、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnを生成する時間情報調整ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記時間情報調整後目標話者音声データnと前記時間情報調整後学習対象言語音声データnの組(1≦n≦N)から、任意の音声データを前記目標話者の声質を有する音声データに変換する不特定話者声質変換器を学習する声質変換器学習ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記不特定話者声質変換器を用いて、合成対象言語入力話者による合成対象言語での音声データである合成対象言語音声データから、前記目標話者の声質を有する声質変換後合成対象言語音声データを生成する声質変換ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記声質変換後合成対象言語音声データと前記合成対象言語音声データに含まれる発話の発話情報の集合である合成対象言語発話情報集合から、前記クロスリンガル音声合成用モデルを学習する合成用モデル学習ステップと
を含むクロスリンガル音声合成用モデル学習方法。
N is an integer of 1 or more, n is an integer 1 ≦ n ≦ N,
Target language speech data n (1 ≦ n ≦ N), which is the target speaker speech data that is speech data in the target language by the target speaker, and speech data in the target language by the target language input speaker n , Voice data uttering the same sentence,
The cross-lingual speech synthesis model learning device synthesizes speech in the synthesis target language by the target speaker from the target speaker speech data and the learning target language speech data n (1 ≦ n ≦ N). A cross-lingual speech synthesis model learning method for learning a synthesis model,
The cross-lingual speech synthesis model learning device adjusts time information between the target speaker speech data and the learning target language speech data n, and adjusts the time information adjusted target speaker speech data n and the time information adjusted learning target. A time information adjustment step for generating language audio data n ;
The cross-lingual speech synthesis model learning device is configured to convert arbitrary speech data from the set (1 ≦ n ≦ N) of the target speaker speech data n after the time information adjustment and the target language speech data n after the time information adjustment. A voice quality converter learning step for learning an unspecified speaker voice quality converter for converting into voice data having the voice quality of the target speaker;
The cross-lingual speech synthesis model learning device uses the unspecified speaker voice quality converter from the synthesis target language speech data which is speech data in a synthesis target language by a synthesis target language input speaker, and the target speaker A voice quality conversion step of generating speech data to be synthesized after voice quality conversion having the voice quality of:
The cross-lingual speech synthesis model learning device uses the cross-lingual speech from a synthesis target language utterance information set, which is a set of utterance information included in the synthesis target language speech data and the synthesis target language speech data after the voice quality conversion. A model learning method for cross-lingual speech synthesis, comprising: a model learning step for synthesis for learning a model for synthesis.
Nを1以上の整数、nを1≦n≦Nなる整数とし、
目標話者による学習対象言語での音声データである目標話者音声データと学習対象言語入力話者nによる学習対象言語での音声データである学習対象言語音声データn(1≦n≦N) は、同一の文章を発話した音声データであり、
学習対象言語の音素と合成対象言語の音素の対応関係を示す発音ベクトル作成規則を記録した記録部を有するクロスリンガル音声合成用モデル学習装置が、前記目標話者音声データと前記学習対象言語音声データn(1≦n≦N)から、前記目標話者による合成対象言語での音声を合成するクロスリンガル音声合成用モデルを学習するクロスリンガル音声合成用モデル学習方法であって、
前記クロスリンガル音声合成用モデル学習装置が、前記目標話者音声データと前記学習対象言語音声データnとの時間情報を調整し、時間情報調整後目標話者音声データnと時間情報調整後学習対象言語音声データnを生成する時間情報調整ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記発音ベクトル作成規則を用いて、前記学習対象言語音声データnに含まれる発話の発話情報の集合である学習対象言語発話情報集合nから、前記発話情報から算出される発音ベクトルの集合である学習対象言語発音ベクトル集合nを生成する第1発音ベクトル生成ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記時間情報調整後目標話者音声データnと前記時間情報調整後学習対象言語音声データnと前記学習対象言語発音ベクトル集合nの組(1≦n≦N)から、任意の音声データを前記目標話者の声質を有する音声データに変換する不特定話者声質変換器を学習する声質変換器学習ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記発音ベクトル作成規則を用いて、合成対象言語入力話者による合成対象言語での音声データである合成対象言語音声データに含まれる発話の発話情報の集合である合成対象言語発話情報集合から、前記発話情報から算出される発音ベクトルの集合である合成対象言語発音ベクトル集合を生成する第2発音ベクトル生成ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記不特定話者声質変換器を用いて、前記合成対象言語音声データと前記合成対象言語発音ベクトル集合から、前記目標話者の声質を有する声質変換後合成対象言語音声データを生成する声質変換ステップと、
前記クロスリンガル音声合成用モデル学習装置が、前記声質変換後合成対象言語音声データと前記合成対象言語発話情報集合から、前記クロスリンガル音声合成用モデルを学習する合成用モデル学習ステップと
を含むクロスリンガル音声合成用モデル学習方法。
N is an integer of 1 or more, n is an integer 1 ≦ n ≦ N,
Target language speech data n (1 ≦ n ≦ N), which is the target speaker speech data that is speech data in the target language by the target speaker, and speech data in the target language by the target language input speaker n , Voice data uttering the same sentence,
A model learning device for cross-lingual speech synthesis having a recording unit that records a pronunciation vector creation rule indicating a correspondence relationship between a phoneme of a language to be learned and a phoneme of a language to be synthesized, the target speaker speech data and the learning target language speech data A cross-lingual speech synthesis model learning method for learning a cross-lingual speech synthesis model for synthesizing speech in a synthesis target language by the target speaker from n (1 ≦ n ≦ N),
The cross-lingual speech synthesis model learning device adjusts time information between the target speaker speech data and the learning target language speech data n, and adjusts the time information adjusted target speaker speech data n and the time information adjusted learning target. A time information adjustment step for generating language audio data n ;
The cross-lingual speech synthesis model learning device uses the pronunciation vector creation rule to generate the utterance information from the learning target language utterance information set n , which is a set of utterance information of utterances included in the learning target language speech data n. A first pronunciation vector generation step of generating a learning target language pronunciation vector set n , which is a set of pronunciation vectors calculated from
The model learning device for cross-lingual speech synthesis includes a set of the target speaker speech data n after time information adjustment, the learning target language speech data n after time information adjustment and the learning target language pronunciation vector set n (1 ≦ n ≦ N), a voice quality converter learning step for learning an unspecified speaker voice quality converter for converting arbitrary voice data into voice data having the voice quality of the target speaker;
The cross-lingual speech synthesis model learning device uses the pronunciation vector creation rules to collect speech utterance information included in synthesis target language speech data that is speech data in a synthesis target language by a synthesis target language input speaker. A second pronunciation vector generation step of generating a synthesis target language pronunciation vector set, which is a set of pronunciation vectors calculated from the utterance information, from the synthesis target language utterance information set of
The model learning device for cross-lingual speech synthesis uses the unspecified speaker voice quality converter, and after voice quality conversion having the voice quality of the target speaker from the synthesis target language voice data and the synthesis target language pronunciation vector set A voice conversion step for generating speech data to be synthesized;
The cross-lingual speech synthesis model learning device includes a synthesis model learning step of learning the cross-lingual speech synthesis model from the synthesis target language speech data after the voice quality conversion and the synthesis target language utterance information set. Model learning method for speech synthesis.
請求項1ないし4のいずれか1項に記載のクロスリンガル音声合成用モデル学習装置、または請求項5に記載のクロスリンガル音声合成装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the cross-lingual speech synthesis model learning device according to any one of claims 1 to 4 or the cross-lingual speech synthesis device according to claim 5.
JP2016225808A 2016-11-21 2016-11-21 Model learning device for cross-lingual speech synthesis, model learning method for cross-lingual speech synthesis, program Active JP6631883B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016225808A JP6631883B2 (en) 2016-11-21 2016-11-21 Model learning device for cross-lingual speech synthesis, model learning method for cross-lingual speech synthesis, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016225808A JP6631883B2 (en) 2016-11-21 2016-11-21 Model learning device for cross-lingual speech synthesis, model learning method for cross-lingual speech synthesis, program

Publications (2)

Publication Number Publication Date
JP2018084604A true JP2018084604A (en) 2018-05-31
JP6631883B2 JP6631883B2 (en) 2020-01-15

Family

ID=62238194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016225808A Active JP6631883B2 (en) 2016-11-21 2016-11-21 Model learning device for cross-lingual speech synthesis, model learning method for cross-lingual speech synthesis, program

Country Status (1)

Country Link
JP (1) JP6631883B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112712789A (en) * 2020-12-21 2021-04-27 深圳市优必选科技股份有限公司 Cross-language audio conversion method and device, computer equipment and storage medium
CN112767958A (en) * 2021-02-26 2021-05-07 华南理工大学 Zero-learning-based cross-language tone conversion system and method
CN112767912A (en) * 2020-12-28 2021-05-07 深圳市优必选科技股份有限公司 Cross-language voice conversion method and device, computer equipment and storage medium
WO2022140966A1 (en) * 2020-12-28 2022-07-07 深圳市优必选科技股份有限公司 Cross-language voice conversion method, computer device, and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171196A (en) * 2012-02-21 2013-09-02 Toshiba Corp Device, method and program for voice synthesis
JP2016020972A (en) * 2014-07-14 2016-02-04 株式会社東芝 Voice synthesis dictionary generation device, voice synthesis device, voice synthesis dictionary generation method and voice synthesis dictionary generation program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171196A (en) * 2012-02-21 2013-09-02 Toshiba Corp Device, method and program for voice synthesis
JP2016020972A (en) * 2014-07-14 2016-02-04 株式会社東芝 Voice synthesis dictionary generation device, voice synthesis device, voice synthesis dictionary generation method and voice synthesis dictionary generation program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
能勢 隆: "ニューラルネットワークに基づくユーザ音声を必要としない多対一声質変換の検討", 日本音響学会 2015年 春季研究発表会講演論文集, JPN6019037498, March 2015 (2015-03-01), JP, pages 271 - 274, ISSN: 0004124685 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112712789A (en) * 2020-12-21 2021-04-27 深圳市优必选科技股份有限公司 Cross-language audio conversion method and device, computer equipment and storage medium
CN112712789B (en) * 2020-12-21 2024-05-03 深圳市优必选科技股份有限公司 Cross-language audio conversion method, device, computer equipment and storage medium
CN112767912A (en) * 2020-12-28 2021-05-07 深圳市优必选科技股份有限公司 Cross-language voice conversion method and device, computer equipment and storage medium
WO2022140966A1 (en) * 2020-12-28 2022-07-07 深圳市优必选科技股份有限公司 Cross-language voice conversion method, computer device, and storage medium
CN112767958A (en) * 2021-02-26 2021-05-07 华南理工大学 Zero-learning-based cross-language tone conversion system and method
CN112767958B (en) * 2021-02-26 2023-12-26 华南理工大学 A cross-language timbre conversion system and method based on zero-shot learning

Also Published As

Publication number Publication date
JP6631883B2 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
CN107610717B (en) A Many-to-One Speech Conversion Method Based on Speech Posterior Probability
JP6622505B2 (en) Acoustic model learning device, speech synthesis device, acoustic model learning method, speech synthesis method, program
US8571871B1 (en) Methods and systems for adaptation of synthetic speech in an environment
JP2023539888A (en) Synthetic data augmentation using voice conversion and speech recognition models
US11763797B2 (en) Text-to-speech (TTS) processing
JP6392012B2 (en) Speech synthesis dictionary creation device, speech synthesis device, speech synthesis dictionary creation method, and speech synthesis dictionary creation program
JP6680933B2 (en) Acoustic model learning device, speech synthesis device, acoustic model learning method, speech synthesis method, program
US20110238407A1 (en) Systems and methods for speech-to-speech translation
US20100057435A1 (en) System and method for speech-to-speech translation
Gutkin et al. TTS for low resource languages: A Bangla synthesizer
JP2001282282A (en) Voice information processing method and apparatus, and storage medium
JP2008242317A (en) Prosody pattern generation device, speech synthesizer, program, and prosody pattern generation method
JP2017058513A (en) Learning device, speech synthesis device, learning method, speech synthesis method, learning program, and speech synthesis program
US11361780B2 (en) Real-time speech-to-speech generation (RSSG) apparatus, method and a system therefore
JP6631883B2 (en) Model learning device for cross-lingual speech synthesis, model learning method for cross-lingual speech synthesis, program
JP5807921B2 (en) Quantitative F0 pattern generation device and method, model learning device for F0 pattern generation, and computer program
JP2016151736A (en) Speech processing device and program
Gutkin et al. Building statistical parametric multi-speaker synthesis for bangladeshi bangla
Chen et al. Polyglot speech synthesis based on cross-lingual frame selection using auditory and articulatory features
Sawada et al. The NITech text-to-speech system for the Blizzard Challenge 2016.
Chen et al. The USTC System for Voice Conversion Challenge 2016: Neural Network Based Approaches for Spectrum, Aperiodicity and F0 Conversion.
Biagetti et al. HMM speech synthesis based on MDCT representation
JP5722295B2 (en) Acoustic model generation method, speech synthesis method, apparatus and program thereof
Louw et al. The Speect text-to-speech entry for the Blizzard Challenge 2016.
JP7173339B2 (en) Utterance evaluation device, utterance evaluation method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191128

R150 Certificate of patent or registration of utility model

Ref document number: 6631883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250