JP2018005048A - Voice quality conversion system - Google Patents
Voice quality conversion system Download PDFInfo
- Publication number
- JP2018005048A JP2018005048A JP2016133530A JP2016133530A JP2018005048A JP 2018005048 A JP2018005048 A JP 2018005048A JP 2016133530 A JP2016133530 A JP 2016133530A JP 2016133530 A JP2016133530 A JP 2016133530A JP 2018005048 A JP2018005048 A JP 2018005048A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- voice quality
- actor
- conversion
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】アクターの声質をターゲットの声質に変換することを可能な声質変換システムを提供する。【解決手段】声質学習装置10は、ターゲット2の第1の音声信号から第1の特徴量を抽出する。声質学習装置10は、アクター1の第2の音声信号に含まれる基本周波数を所定の倍率で変換し、基本周波数が変換された第2の音声信号から第2の特徴量を抽出する。声質学習装置10は、抽出された第1の特徴量及び第2の特徴量間の対応関係をモデル化することによって得られるモデルデータをデータベースDBに格納する。声質変換装置20は、アクター1の第3の音声信号に含まれる基本周波数を所定の倍率で変換し、基本周波数が変換された第3の音声信号から第3の特徴量を抽出する。声質変換装置20は、データベースDBに格納されたモデルデータ及び抽出された第3の特徴量に基づいて、アクター1の声質がターゲット2の声質に変換された第4の音声信号を生成する。【選択図】図1A voice quality conversion system capable of converting the voice quality of an actor into the voice quality of a target is provided. A voice quality learning device (10) extracts a first feature quantity from a first speech signal of a target (2). The voice quality learning apparatus 10 transforms the fundamental frequency contained in the second audio signal of the actor 1 by a predetermined magnification, and extracts the second feature quantity from the second audio signal whose fundamental frequency has been transformed. Voice quality learning apparatus 10 stores model data obtained by modeling the correspondence relationship between the extracted first feature amount and second feature amount in database DB. The voice conversion device 20 converts the fundamental frequency included in the third audio signal of the actor 1 by a predetermined magnification, and extracts the third feature amount from the third audio signal whose fundamental frequency has been converted. The voice quality conversion device 20 generates a fourth voice signal in which the voice quality of the actor 1 is converted into the voice quality of the target 2 based on the model data stored in the database DB and the extracted third feature amount. [Selection drawing] Fig. 1
Description
本発明は、声質変換システムに関する。 The present invention relates to a voice quality conversion system.
近年では、テーマパークまたはイベント会場等にキャラクタが登場することにより、集客を図ることが行われている。 In recent years, attracting customers has been performed by characters appearing in theme parks or event venues.
このキャラクタには、例えば映画、アニメ、コミック及びゲーム等に登場する様々なキャラクタが含まれる。更に、音楽の分野においては、キャラクタがアーティストとして活動を行う場合もある。 This character includes various characters appearing in, for example, movies, anime, comics, games, and the like. Further, in the music field, a character may act as an artist.
キャラクタは、例えば現実空間内に着ぐるみとして登場する場合もあれば、映像として登場する場合もある。このようなキャラクタの視覚的な要素は、着ぐるみの精度向上及びコンピュータグラフィクスの技術の進歩等により、十分に観客を楽しませることができる。 For example, the character may appear as a costume in the real space or may appear as a video. Such a visual element of the character can sufficiently entertain the audience by improving the accuracy of the costume and improving the technology of computer graphics.
ところで、キャラクタの声を録音した音声を同時に流すか、あるいは現場のアクター(声優)が演じることによって、当該キャラクタが話しているように見せることが一般的に行われている。 By the way, it is common practice to make the character appear to be speaking by playing the voice recording the voice of the character at the same time or by being played by an actor (voice actor) in the field.
しかしながら、録音した音声の再生タイミングや収録内容が現場と合わなかったり、アクターの声質がキャラクタの声質と異なる場合があり、この場合には観客は違和感を感じてしまう場合がある。 However, there are cases where the playback timing and recorded content of the recorded voice do not match the actual site, or the voice quality of the actor is different from the voice quality of the character. In this case, the audience may feel uncomfortable.
このため特定のキャラクタの声は実際の声優本人が自らアクターとなるか、あるいはキャラクタに似た声を出すことが出来るような特定のアクターのみが演じる場合も見られるが、テーマパークまたはイベント会場に長時間登場するようなキャラクタの場合には、アクターが喉を傷めてしまうような事態が発生し得る。また、このような状況下ではアクターは喉を酷使するため、同一のアクターであっても例えば朝と夜とで声質が変化してしまうことがある。 For this reason, the voice of a specific character can be seen as the actual voice actor himself acting as an actor, or only by a specific actor who can make a voice similar to the character, but at the theme park or event venue In the case of a character that appears for a long time, a situation may occur in which an actor hurts his throat. In such a situation, since the actor overuses the throat, even if the actor is the same, the voice quality may change between morning and evening, for example.
なお、テーマパークまたはイベント会場に登場するキャラクタは例えばステージやスクリーン上で、リアルタイムで観客と会話するようなことも求められており、予めキャラクタの声を録音した音声で用意しておくようなことは困難である。 Characters appearing in theme parks or event venues are also required to have real-time conversations with the audience on the stage or on the screen, for example. It is difficult.
したがって、異なるアクターであっても同一のキャラクタ(ターゲット)の声で自由に話すことができるような技術が望まれている。 Therefore, there is a demand for a technique that allows different actors to speak freely with the voice of the same character (target).
そこで、本発明の目的は、アクターの声質をターゲットの声質に変換することが可能な声質変換システムを提供することにある。 Therefore, an object of the present invention is to provide a voice quality conversion system capable of converting an actor's voice quality into a target voice quality.
本発明の1つの態様によれば、声質学習装置及び声質変換装置を備え、アクターの声質をターゲットの声質に変換する声質変換システムが提供される。前記声質学習装置は、前記ターゲットの第1の音声信号を入力する第1の入力手段と、前記入力された第1の音声信号から第1の特徴量を抽出する第1の抽出手段と、前記第1の音声信号に対応する前記アクターの第2の音声信号を入力する第2の入力手段と、前記入力された第2の音声信号に含まれる基本周波数を所定の倍率で変換する第1の変換手段と、前記基本周波数が変換された第2の音声信号から第2の特徴量を抽出する第2の抽出手段と、前記抽出された第1の特徴量及び第2の特徴量間の対応関係をモデル化することによって得られるモデルデータを格納するデータベースとを含む。前記声質変換装置は、前記アクターの第3の音声信号を入力する第3の入力手段と、前記入力された第3の音声信号に含まれる基本周波数を前記所定の倍率で変換する第2の変換手段と、前記基本周波数が変換された第3の音声信号から第3の特徴量を抽出する第3の抽出手段と、前記データベースに格納されたモデルデータ及び前記抽出された第3の特徴量に基づいて、前記アクターの声質が前記ターゲットの声質に変換された第4の音声信号を生成する生成手段と、前記生成された第4の音声信号を出力する出力手段とを含む。 According to one aspect of the present invention, a voice quality conversion system that includes a voice quality learning device and a voice quality conversion device and converts an actor's voice quality to a target voice quality is provided. The voice quality learning device includes: a first input unit that inputs a first audio signal of the target; a first extraction unit that extracts a first feature amount from the input first audio signal; A second input means for inputting a second audio signal of the actor corresponding to the first audio signal; and a first input for converting a fundamental frequency contained in the input second audio signal at a predetermined magnification. Correspondence between the converting means, the second extracting means for extracting the second feature value from the second audio signal whose fundamental frequency has been converted, and the extracted first feature value and second feature value And a database that stores model data obtained by modeling the relationship. The voice quality conversion device includes: a third input unit that inputs a third audio signal of the actor; and a second conversion that converts a fundamental frequency included in the input third audio signal at the predetermined magnification. Means, third extraction means for extracting a third feature amount from the third audio signal whose fundamental frequency has been converted, model data stored in the database, and the extracted third feature amount. And generating means for generating a fourth voice signal in which the voice quality of the actor is converted to the voice quality of the target, and output means for outputting the generated fourth voice signal.
本発明は、アクターの声質をターゲットの声質に変換することを可能とする。 The present invention makes it possible to convert an actor's voice quality to a target voice quality.
以下、図面を参照して、本発明の実施形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本実施形態に係る声質変換システムの構成を概略的に示す図である。本実施形態に係る声質変換システムは、例えば声優のようなアクターと称される人物(以下、単にアクターと表記)1の声質をターゲットと称される例えばキャラクタ(以下、単にターゲットと表記)2の声質に変換するために用いられる。 FIG. 1 is a diagram schematically showing a configuration of a voice quality conversion system according to the present embodiment. The voice quality conversion system according to the present embodiment includes, for example, a character (hereinafter simply referred to as a target) 2 called a voice quality of a person (hereinafter simply referred to as an actor) 1 called an actor such as a voice actor. Used to convert to voice quality.
具体的には、声質変換システムは、例えばテーマパークまたはイベント会場等において、アクター1が発声した際に、当該アクター1の声質をターゲット2の声質に変換して音声を出力することによって、ターゲット2と声質の異なるアクター1であっても当該ターゲット2の声質で話すことができるようにするといった用途に用いることができる。
Specifically, the voice quality conversion system converts the voice quality of the
なお、本実施形態の説明においてはアクター1が人物であるものとして説明するが、当該アクター1は、音声を発するものであればよく、例えば機械的に生成された音声を発するものであってもよい。また、ターゲット2(キャラクタ)は、当該キャラクタの声を演じる人物であってもよいし、当該キャラクタの声を機械的に発する機器等であってもよい。ターゲット2はキャラクタではなく、有名人や俳優、歌手などの人物の声でもよい。
In the description of the present embodiment, the
図1に示すように、声質変換システムは、声質学習装置10及び声質変換装置20を備える。
As shown in FIG. 1, the voice quality conversion system includes a voice
声質学習装置10は、各種プログラム(ソフトウェア)を実行可能なCPUのようなプロセッサ(コンピュータ)を備えるパーソナルコンピュータ等を含む。声質学習装置10は、解析エンジン10a及びデータベース(DB)10bを有する。
The voice
解析エンジン10aは、ターゲット2の音声(ターゲット2が発音した声)と、当該ターゲット2の音声におけるイントネーション、発音タイミング及び音程等を真似て発音したアクター1の音声とを用いて学習処理を実行する(声質変換モデルを学習する)。解析エンジン10aは、学習処理の結果(学習結果)をもとに解析を実行し、データベース10bを作成する。
The
なお、図1には示されていないが、声質学習装置10は、上記したアクター1及びターゲット2の音声を入力するためのマイクロフォン等を備えている。なお、声質学習装置10は、例えばアクター1及びターゲット2の音声が予め収録された音声ファイルを入力する構成であってもよい。
Although not shown in FIG. 1, the voice
声質変換装置20は、声質学習装置10と同様に、各種プログラム(ソフトウェアを実行可能なCPUのようなプロセッサ(コンピュータ)を備えるパーソナルコンピュータ等を含む。
Similar to the voice
声質変換装置20は、上記した声質学習装置10において作成されたデータベース10bを利用してアクター1の声質をターゲット2の声質に変換する。このように声質変換装置20において声質が変換された音声は、声質変換装置20に備えられる例えばスピーカ20aから出力される。なお、声質変換装置20において声質が変換された音声は、例えば音声ファイルとして出力され、声質変換装置20内で管理されてもよいし、外部のサーバ装置等に送信されても構わない。
The voice
なお、図1には示されていないが、声質変換装置20は、アクター1の音声を入力するためのマイクロフォン等を備えている。また、上記した声質学習装置10と同様に、声質変換装置20は、アクター1の音声が予め収録された音声ファイルを入力する構成であってもい。
Although not shown in FIG. 1, the voice
本実施形態に係る声質変換システムにおいては、声質学習装置10及び声質変換装置20が別個の装置であるものとして説明するが、当該声質学習装置10及び声質変換装置20は、1つの装置として実現されていても構わない。
In the voice quality conversion system according to the present embodiment, the voice
更に、声質学習装置10及び声質変換装置20は、パーソナルコンピュータ以外の電子機器、例えばスマートフォンまたはタブレット端末等として実現されていてもよい。また、声質学習装置10及び声質変換装置20は、本実施形態において説明する各機能がチップなどに格納され一体化されたマイクのような形態を有していてもよいし、他の形態を有する専用機器として実現されていてもよい。
Furthermore, the voice
以下、本実施形態に係る声質変換システムにおける声質の変換手法の概要について説明する。 The outline of the voice quality conversion method in the voice quality conversion system according to this embodiment will be described below.
本実施形態に係る声質変換システムにおいては、混合正規分布モデル(GMM:Gaussian Mixture Model)に基づいて声質を変換する手法(以下、GMMに基づく声質変換と表記)が採用されているものとする。このGMMに基づく声質変換においては、上述した声質学習装置10によって学習処理が実行され、声質変換装置20によって変換処理が実行される。
In the voice quality conversion system according to the present embodiment, a technique for converting voice quality based on a mixed normal distribution model (GMM: Gaussian Mixture Model) (hereinafter referred to as voice conversion based on GMM) is adopted. In the voice quality conversion based on this GMM, the learning process is executed by the voice
まず、学習処理について簡単に説明する。学習処理では、例えば同一のセリフ(文等)を同一のイントネーション及び音程で発声した際のアクター1及びターゲット2それぞれの音声信号(音声データ)を用意する。
First, the learning process will be briefly described. In the learning process, for example, voice signals (voice data) of the
声質学習装置10は、このアクター1及びターゲット2それぞれの音声信号(つまり、アクター1及びターゲット2による同一内容発声の音声信号)を入力する。
The voice
声質学習装置10は、双方の音声信号を各フレームに分割して短時間分析処理を実行する。通常は、固定長(例えば 5 ms)で分析区間をシフトさせることで、双方の音声信号を短時間音声波形に分割する。
The voice
声質学習装置10は、分割されたフレーム毎に音声の特徴を表す特徴量の分析(スペクトル分析)を行い、局所的な時間フレーム系列の伸縮を行い、時間同期をとることによって、双方の音声フレーム間のマッチングを行う。対応するフレーム毎のスペクトルを結合したデータを順次算出し、結合確率密度関数をGMMでモデル化する。
The voice
本実施形態においては、このような学習処理によって得られるモデルデータ(声質変換モデルデータ)がデータベース10bに蓄積される。
In the present embodiment, model data (voice quality conversion model data) obtained by such learning processing is accumulated in the
すなわち、上記した学習処理においては、時間の対応付けがされたアクター1及びターゲット2の音声(波形)の特徴量のペアから、当該アクター1の声質をターゲット2の声質に変換するための変換規則が統計的にモデル化される。
That is, in the learning process described above, a conversion rule for converting the voice quality of the
次に、変換処理について簡単に説明する。上記したGMMに基づく声質変換の変換処理においては一般的に音声合成技術を使用して基本音声を作り出すが、本実施形態における変換処理では、機械的な音声ではなく比較的自然な音声を出力するために、アクター1の音声(波形)をそのまま使用するものとする。
Next, the conversion process will be briefly described. In the above-described conversion processing of voice quality conversion based on GMM, a basic speech is generally generated using a speech synthesis technique. However, in the conversion processing according to the present embodiment, relatively natural speech is output instead of mechanical speech. Therefore, the voice (waveform) of the
すなわち、この変換処理では、音声の特徴量を変換するのではなく、アクター1の音声と出力すべきターゲット2の音声との特徴量の差分を上記GMMに基づき推定し、当該アクター1の音声(波形)に合成フィルタにより畳み込む(すなわち、差分スペクトル補正を適用する)ことによって、アクター1の声質をターゲット2の声質に変換する。
That is, in this conversion process, the feature amount of the voice is not converted, but the difference in the feature amount between the voice of the
上述したように、GMMに基づく声質変換においては、学習処理によって作成されたデータベース10b(に蓄積されたモデルデータ)を利用して、変換処理によってアクター1の声質をターゲット2の声質に変換することができる。
As described above, in voice quality conversion based on the GMM, the voice quality of the
なお、本実施形態において採用されるGMMに基づく声質変換については例えば「小林和弘、戸田智基、Graham Neubig、Sakriani Sakti、中村哲(奈良先端大・情報)、“差分スペクトル補正に基づく統計的歌声声質変換”、[online]、2014年3月、日本音響学会講演論文集、[平成28年6月27日検索]、インターネット<URL:http:www.phontron.com/paper/kobayashi14asj.pdf>」及び「戸田智基、“音声音響信号処理〜統計的手法による音声変換〜”、[online]、2014年1月20日、[平成28年6月27日検索]、インターネット<http://hil.t.u-tokyo.ac.jp/~kameoka/SAP/SAP13_11.pdf>」等に開示されているため、ここではその詳しい説明については省略する。 For voice quality conversion based on GMM adopted in this embodiment, for example, “Kazuhiro Kobayashi, Tomoki Toda, Graham Neubig, Sakriani Sakti, Satoshi Nakamura (NAIST, Information),“ Statistical singing voice quality based on differential spectrum correction ” "Conversion", [online], March 2014, Proceedings of the Acoustical Society of Japan, [Search June 27, 2016], Internet <URL: http: www.phontron.com/paper/kobayashi14asj.pdf> "Tomochi Toda," Speech and acoustic signal processing-Voice conversion using statistical methods ", [online], January 20, 2014, [Search June 27, 2016], Internet <http: //hil.tu -tokyo.ac.jp/~kameoka/SAP/SAP13_11.pdf> ”, etc., and detailed description thereof is omitted here.
ところで、例えばアクター1及びターゲット2の性別が異なるような場合、当該アクター1とターゲット2とで発声することが可能な音域が異なる。
By the way, for example, when the genders of the
このようにアクター1とターゲット2とで音域が異なる場合、当該アクター1の声質を当該GMMに基づく声質変換によってターゲット2の声質に変換したとしても、出力される音声はターゲット2の音声として認識できない程度のものとなる。
In this way, when the sound range is different between the
このため、上述した変換処理において、アクター1の音声の基本周波数(f0)をターゲット2(の音声)の音域に合わせて変換する処理(以下、基本周波数変換と表記)を実行する必要がある。基本周波数は、声の高さ(音高)等を表現する音声の特徴量の1つである。なお、変換処理ではアクター1の音声がそのまま使用されるため、本実施形態においては、アクター1の音声(波形)を信号処理で加工する基本周波数変換が必要となる。
For this reason, in the conversion process described above, it is necessary to execute a process for converting the fundamental frequency (f0) of the voice of the
ここで、上述した音声波形を信号処理で加工する基本周波数変換の手法としては、例えばW−SOLA等のタイムストレッチ及びリサンプルを用いた比較的簡易な手法がある。このような音声波形を時間軸上で加工する比較的簡易な手法による基本周波数変換には、例えば、音声基本周波数推定処理を必要としない、ボコーダによる音声分析合成処理を必要としない、CPU負荷が少ないという利点がある。なお、基本周波数変換として他の手法が用いられても構わない。 Here, as a fundamental frequency conversion technique for processing the above-described speech waveform by signal processing, for example, there is a relatively simple technique using time stretching and resampling such as W-SOLA. Basic frequency conversion by a relatively simple method of processing such a speech waveform on the time axis does not require, for example, speech fundamental frequency estimation processing, does not require speech analysis / synthesis processing by a vocoder, and has a CPU load. There is an advantage of less. Note that other methods may be used as the fundamental frequency conversion.
しかしながら、このような基本周波数変換が実行された場合、アクター1の音声のスペクトル(フォルマント)に伸縮が生じるため、当該アクター1の声質が変化してしまう。このような基本周波数変換が声質変換装置20における変換処理の前段で実行される場合には、声質学習装置10における学習処理の際に与えられたアクター1の音声のフォルマントと、当該変換処理の際に与えられるアクター1の音声のフォルマントとが異なることになるため、変換処理においてアクター1の声質をターゲット2の声質に適切に変換することは困難となる。
However, when such fundamental frequency conversion is executed, the voice spectrum of the
一方、基本周波数変換が声質変換装置20における変換処理の後段で実行される(つまり、変換処理によって声質が変換された後に音声の基本周波数が変換される)場合には、既に変換処理によって得られたターゲット2の声質が基本周波数変換によって生じるフォルマントの伸縮により異なるものに変化してしまう。この場合には、ターゲット2の声質の音声を出力することはできない。
On the other hand, when the fundamental frequency conversion is performed after the conversion process in the voice quality conversion device 20 (that is, the basic frequency of the voice is converted after the voice quality is converted by the conversion process), it is already obtained by the conversion process. The voice quality of the
ここで、上述したように基本周波数変換は音声のフォルマント(スペクトル)の伸縮を生じさせるが、常に一定の倍率で基本周波数を変換した場合には、声質は変化してしまうものの、当該フォルマント同様に一定の倍率で伸縮することにより安定する(つまり、安定した個性を持ったフォルマントの声質を得ることができる)。 Here, as described above, the fundamental frequency conversion causes the expansion and contraction of the formant (spectrum) of the speech. However, if the fundamental frequency is always converted at a constant magnification, the voice quality will change, but as with the formant. It stabilizes by expanding and contracting at a certain magnification (that is, it is possible to obtain a formant voice quality with a stable personality).
本実施形態においては、このような特性に着目し、声質変換システムにおける学習処理及び変換処理の双方の前段でアクター1の音声に対して基本周波数変換を実行する構成とする。なお、この場合における基本周波数変換は、予め決定された一定の倍率(音高変換倍率)で実行される。
In this embodiment, paying attention to such characteristics, the fundamental frequency conversion is performed on the voice of the
以下、本実施形態に係る声質変換システムに備えられる声質学習装置10及び声質変換装置20の各々の機能構成について説明する。
Hereinafter, functional configurations of the voice
図2は、声質学習装置10の機能構成を示すブロック図である。声質学習装置10は、上記したように声質変換装置20においてアクター1の声質をターゲット2の声質に変換するために、ターゲット2の音声(声質)及びアクター1の音声(声質)を学習しておく機能を有する。
FIG. 2 is a block diagram illustrating a functional configuration of the voice
図2に示すように、声質学習装置10は、第1音声入力部11、第1分析処理部12、倍率決定部13、第2音声入力部14、基本周波数変換部15、第2分析処理部16及びモデル学習部17を含む。
As shown in FIG. 2, the voice
本実施形態において、第1音声入力部11、第1分析処理部12、倍率決定部13、第2音声入力部14、基本周波数変換部15、第2分析処理部16及びモデル学習部17は、図1に示す解析エンジン10aを構成する機能部であり、例えば声質学習装置10に備えられるCPU等のコンピュータにプログラムを実行させること、すなわち、ソフトウェアによって実現されるものとする。なお、これらの各部11〜17の一部または全ては、IC(Integrated Circuit)等のハードウェアによって実現されてもよいし、ソフトウェア及びハードウェアの組み合わせ構成として実現されてもよい。なお、コンピュータに実行させるプログラムは、コンピュータ読み取り可能な記憶媒体に格納して頒布されてもよいし、またはネットワークを通じて声質学習装置10にダウンロードされてもよい。
In the present embodiment, the first
ここで、上記した学習処理のために声質学習装置10に対して発せられたターゲット2の音声は、例えばマイクロフォンを介してアナログ電気信号に変換される。マイクロフォンを介してアナログ電気信号に変換された音声は、更にA/Dコンバータを通してデジタル電気信号に変換され、第1音声入力部11によって入力される。以下、第1音声入力部11によって入力された音声(信号)を便宜的にターゲット2の学習用音声信号と称する。なお、第1音声入力部11は、ターゲット2の学習用音声信号として上記した音声ファイルを入力してもよい。
Here, the voice of the
なお、ターゲット2の学習用音声信号には、ターゲット2の音声の特徴を表すパラメータ(特徴量)として、例えば音韻性及び声質等を表現するスペクトル特徴量(スペクトル包絡)と、声の高さ(音高)及び声のかすれ等を表現する基本周波数及び非周期成分とが含まれる。
In addition, the learning speech signal of the
第1分析処理部12は、ターゲット2の学習用音声信号(に含まれるスペクトル特徴量、基本周波数及び非周期成分)を分析し、当該ターゲット2の学習用音声信号からスペクトル特徴量(第1の特徴量)を抽出する。
The first
倍率決定部13は、上記した基本周波数変換を実行する際の一定の倍率(f0rate)を決定する。具体的には、倍率決定部13は、例えばアクター1の音声の周波数帯域(つまり、音域)の平均値及びターゲット2の音声の周波数帯域(つまり、音域)の平均値に基づいて倍率を決定する。以下、倍率決定部13によって決定された倍率を便宜的に固定倍率と称する。この固定倍率は、声質学習装置10内に保持される。また、この固定倍率は、例えば声質変換装置20に対して送信されることによって、後述するように声質変換装置20内でも保持される。
The
ここで、学習処理のために声質学習装置10に対して発せられたアクター1の音声は、例えばマイクロフォンを介して電気信号(音声信号)に変換される。第2音声入力部14は、マイクロフォンを介して変換された音声信号(第2の音声信号)を入力する。以下、第2音声入力部14によって入力された音声信号を便宜的にアクター1の学習用音声信号と称する。
Here, the voice of the
なお、アクター1の学習用音声信号には、アクター1の音声の特徴を表すパラメータ(特徴量)として、例えば音韻性及び声質等を表現するスペクトル特徴量(スペクトル包絡)と、声の高さ(音高)及び声のかすれ等を表現する基本周波数及び非周期成分とが含まれる。
Note that the learning speech signal of the
基本周波数変換部15は、アクター1の学習用音声信号に含まれる基本周波数を固定倍率で変換する。すなわち、本実施形態においては、この基本周波数変換部15により、学習処理の前段でアクター1の学習用音声信号に対して基本周波数変換が実行される。
The fundamental
第2分析処理部16は、基本周波数が固定倍率で変換された後のアクター1の学習用音声信号(に含まれるスペクトル特徴量、基本周波数及び非周期成分)を分析し、当該アクター1の学習用音声信号からスペクトル特徴量(第2の特徴量)を抽出する。
The second
モデル学習部17は、上述した学習処理を実行する機能部である。モデル学習部17は、第1分析処理部12によって抽出されたスペクトル特徴量(つまり、ターゲット2の音声の特徴量)及び第2分析処理部16によって抽出されたスペクトル特徴量(つまり、アクター1の音声の特徴量)のペアに関する変換規則が統計的にモデル化される。モデル学習部17は、このような学習処理によって得られるモデルデータをデータベース10bに格納(蓄積)する。
The
図3は、声質変換装置20の機能構成を示すブロック図である。声質変換装置20は、アクター1の声質をターゲット2の声質に変換する機能を有する。
FIG. 3 is a block diagram showing a functional configuration of the voice
図3に示すように、声質変換装置20は、変換テーブル21、音声入力部22、基本周波数変換部23、分析処理部24、差分推定部25、声質変換部26及び音声出力部27を含む。
As shown in FIG. 3, the voice
本実施形態において、変換テーブル21は、上記した声質学習装置10のデータベース10bをインストールすることによって生成され、当該データベース10bに蓄積されたモデルデータを保持する。なお、変換テーブル21は、例えば声質変換装置20に備えられる記憶装置等に格納される。
In the present embodiment, the conversion table 21 holds the model data generated by installing the
また、本実施形態において、音声入力部22、基本周波数変換部23、分析処理部24、差分推定部25、声質変換部26及び音声出力部27は、例えば声質変換装置10に備えられるCPU等のコンピュータにプログラムを実行させること、すなわち、ソフトウェアによって実現されるものとする。なお、これらの各部22〜27の一部または全ては、IC(Integrated Circuit)等のハードウェアによって実現されてよいし、ソフトウェア及びハードウェアの組み合わせ構成として実現されてもよい。なお、コンピュータに実行させるプログラムは、コンピュータ読み取り可能な記憶媒体に格納して頒布されてもよいし、またはネットワークを通じて声質変換装置20にダウンロードされてもよい。
In the present embodiment, the
変換処理のために声質変換装置20に対して発せられたアクター1の音声は、例えばマイクロフォンを介してアナログ電気信号に変換される。マイクロフォンを介してアナログ電気信号に変換された音声は、更にA/Dコンバータを通してデジタル電気信号に変換され、音声入力部22によって入力される。以下、音声入力部22によって入力された音声(信号)を便宜的にアクター1の変換用音声信号と称する。なお、音声入力部22は、アクター1の変換用音声信号として上記した音声ファイルを入力してもよい。
The voice of the
アクター1の変換用音声信号には、上記したようにアクター1の音声の特徴を表すパラメータ(特徴量)として、スペクトル特徴量、基本周波数及び非周期成分等が含まれる。
As described above, the conversion voice signal of the
ここで、声質学習装置10内に保持されている固定倍率(つまり、倍率決定部13によって決定された倍率)は、上記したように声質変換装置20内においても保持されているものとする。
Here, the fixed magnification (that is, the magnification determined by the magnification determination unit 13) held in the voice
基本周波数変換部23は、アクター1の変換用音声信号に含まれる基本周波数を声質変換装置20内で保持されている固定倍率で変換する。すなわち、本実施形態においては、この基本周波数変換部23により、変換処理の前段でアクター1の変換用音声信号に対して基本周波数変換が実行される。
The fundamental
分析処理部24は、基本周波数が固定倍率で変換された後のアクター1の変換用音声信号(に含まれるスペクトル特徴量、基本周波数及び非周期成分)を分析し、当該アクター1の変換用音声信号からスペクトル特徴量(第3の特徴量)を抽出する。
The
差分推定部25及び声質変換部26は、上述した変換処理を実行する機能部である。
The
ここで、差分推定部25及び声質変換部26は、変換テーブル21に保持されているモデルデータ及び分析処理部24によって抽出されたスペクトル特徴量に基づく変換処理によって、アクター1の声質がターゲット2の声質に変換された音声信号(第4の音声信号)を生成する。このように生成される音声信号は、アクター1の変換用音声信号に対応するターゲット2の音声信号に相当する。
Here, the
具体的には、差分推定部25は、変換テーブル21(つまり、モデルデータ)を参照して、分析処理部24によって抽出されたスペクトル特徴量(つまり、アクター1の変換用音声信号に含まれるスペクトル特徴量)と当該アクター1の変換用音声信号に対応するターゲット2の音声信号のスペクトル特徴量との差分(以下、差分特徴量と表記)を推定する。
Specifically, the
声質変換部26は、アクター1の変換用音声信号(音声波形)に対して差分推定部25によって推定された差分特徴量を適用する処理(フィルタ処理)を実行する。これにより、音声入力部22によって入力されたアクター1の変換用音声信号において、アクター1の声質をターゲット2の声質に変換することができる。
The voice
音声出力部27は、声質変換部26によって声質が変換された音声信号を例えばスピーカ20aを介して出力する。なお、声質変換部26によって性質が変換された音声信号は、上記したように音声ファイルとして出力されてもよい。
The
以下、本実施形態に係る声質変換システム(声質学習装置10及び声質変換装置20)の動作について説明する。
Hereinafter, the operation of the voice quality conversion system (voice
まず、図4のフローチャートを参照して、声質学習装置10の処理手順について説明する。
First, the processing procedure of the voice
図4に示す処理が実行される場合、例えばターゲット2(特定のキャラクタ)が話すことが多い音素(言い回し等)の包含されたテキストが用意される。 When the process shown in FIG. 4 is executed, for example, a text including a phoneme (phrase) often spoken by the target 2 (specific character) is prepared.
ターゲット2(の声を演じる人物等)は、当該ターゲット2の声のイメージを作り、当該イメージに基づいてイントネーション及び音程の変化等を意識して、用意されたテキストに基づいて発声する。なお、ここで用意されているテキストには、例えば50〜100文程度(のセリフ等)が含まれているものとする。
The target 2 (the person who plays the voice) creates an image of the voice of the
これにより、第1音声入力部11は、ターゲット2の発声に応じて当該ターゲット2(つまり、特定のキャラクタ)の学習用音声信号を入力する(ステップS1)。
Thereby, the 1st audio |
第1分析処理部12は、ステップS1において入力されたターゲット2の学習用音声信号からスペクトル特徴量を抽出する(ステップS2)。
The first
次に、アクター1は、上記したテキストに基づくターゲット2による発声と同様のイントネーション及び音程の変化等を真似て当該テキストに基づいて発声する。
Next, the
これにより、第2音声入力部14は、アクター1の発声に応じて当該アクター1の学習用音声信号(つまり、ステップS1において入力されたターゲット2の学習用音声信号に対応するアクター1の学習用音声信号)を入力する(ステップS3)。
As a result, the second
ここで、上記したように声質学習装置10内には、事前処理として倍率決定部13によって決定された基本周波数変換のための倍率(固定倍率)が保持されている。なお、固定倍率は、上記したようにアクター1の音声の周波数帯域の平均値及びターゲット2の音声の周波数帯域の平均値に基づいて決定される。具体的には、例えばアクター1の音声の周波数帯域の平均値が100Hzであり、ターゲット2の音声の周波数帯域の平均値が130Hzである場合には、固定倍率は1.3(130/100)である。ここでは、固定倍率が「ターゲット2の音声の周波数帯域の平均値/アクター1の音声の周波数帯域の平均値」であるものとして説明したが、当該固定倍率は他の手法によって決定されるものであってもよい。なお、アクター1の音声の周波数帯域の平均値及びターゲット2の音声の周波数帯域の平均値は、予め計測されていればよい。
Here, as described above, the voice
基本周波数変換部15は、上記した固定倍率に基づいて、ステップS3において入力されたアクター1の学習用音声信号に対して基本周波数変換を実行する(ステップS4)。これにより、アクター1の学習用音声信号に含まれる基本周波数が固定倍率で変換される。
Based on the fixed magnification described above, the fundamental
第2分析処理部16は、ステップS4において基本周波数が変換された後のアクター1の学習用音声信号からスペクトル特徴量を抽出する(ステップS5)。
The second
モデル学習部17は、上述した学習処理を実行し、ステップS2において抽出されたスペクトル特徴量(ターゲット2の音声のスペクトル特徴量)及びステップS5において抽出されたスペクトル特徴量(アクター1の音声のスペクトル特徴量)間の対応関係をモデル化する(ステップS6)。具体的には、モデル学習部17は、上述したように時間(フレーム)毎に対応付けられたスペクトル特徴量に基づく変換規則を統計的にモデル化(GMMでモデル化)することによってモデルデータを得ることができる。
The
モデル学習部17によって得られたモデルデータは、データベース10bに蓄積される(ステップS7)。
The model data obtained by the
上記した図4に示す処理によれば、上記したようにアクター1の学習用音声信号に対して固定倍率に基づく基本周波数変換を実行した後で学習処理が実行され、当該学習処理において得られるモデルデータがデータベース10bに蓄積される。
According to the process shown in FIG. 4 described above, the learning process is performed after the fundamental frequency conversion based on the fixed magnification is performed on the learning speech signal of the
次に、図5のフローチャートを参照して、声質変換装置20の処理手順について説明する。
Next, the processing procedure of the voice
本実施形態において、声質変換装置20は、例えばテーマパークまたはイベント会場等において着ぐるみを着用したアクター1が特定のキャラクタ(ターゲット2)の声を演じてリアルタイムで観客等と会話(やりとり)を行うような場合に使用される。なお、声質変換装置20は、映像として映し出された特定のキャラクタの声をアクター1が演じるような場合に使用されても構わない。
In the present embodiment, the voice
なお、このアクター1の音声のスペクトル特徴量及びターゲット2(特定のキャラクタ)の音声のスペクトル特徴量間の対応関係がモデル化されることによって得られるモデルデータは、上述した図4に示す処理が実行されることによって声質学習装置10(データベース10b)に蓄積されているものとする。このモデルデータは、当該声質変換装置20にインストールされ、変換テーブル21に保持されているものとする。
Note that the model data obtained by modeling the correspondence between the spectral feature quantity of the voice of the
アクター1が声質変換装置20を使用する場合、当該アクター1は、上述した図4に示す処理が実行される際に真似た程度のターゲット2のイントネーション及び音程の変化等で発声する(例えば、観客と会話する)。
When the
この場合、音声入力部22は、アクター1の発声に応じて当該アクター1の変換用音声信号を入力する(ステップS11)。
In this case, the
ここで、上記したように声質変換装置10内には、声質学習装置10内に保持されている固定倍率(倍率決定部13によって決定された倍率)と同じ固定倍率が保持されている。
Here, as described above, in the voice
基本周波数変換部15は、声質変換装置10内に保持されている固定倍率に基づいて、ステップS11において入力されたアクター1の変換用音声信号に対して基本周波数変換を実行する(ステップS12)。これにより、アクター1の変換用音声信号に含まれる基本周波数が固定倍率で変換される。
The fundamental
分析処理部24は、ステップS12において基本周波数が変換された後のアクター1の変換用音声信号からスペクトル特徴量を抽出する(ステップS13)。
The
以下、差分推定部25及び声質変換部26は、上述した変換処理を実行する。具体的には、差分推定部25は、ステップS13において抽出されたスペクトル特徴量(アクター1の音声のスペクトル特徴量)とステップS11において入力されたアクター1の変換用音声信号に対応するターゲット2の音声信号との差分特徴量を、変換テーブル21に保持されているモデルデータ(GMM)に基づいて推定する(ステップS14)。なお、ステップS14における推定処理においては、例えばGMMに対して変数変換を行うことによりアクター1の音声のスペクトル特徴量(ベクトル)と差分特徴量(ベクトル)の結合確率密度をモデル化したGMMを導出し、このように導出されたGMMに基づき差分特徴量を推定するものとする。
Hereinafter, the
次に、声質変換部26は、ステップS13において抽出されたスペクトル特徴量に対して、ステップS14において推定された差分特徴量を合成フィルタにより畳み込む(合成する)ことにより、アクター1の声質がターゲット2の声質に変換された音声信号を生成する(ステップS15)。なお、合成フィルタとしては、音声合成に用いられる例えばMLSA(Mel-Log Spectrum Approximation)フィルタ等を使用することができる。
Next, the voice
この声質変換部26によって声質が変換された後の音声信号は、音声出力部27によって出力される(ステップS16)。
The voice signal whose voice quality has been converted by the voice
上記した図5に示す処理によれば、アクター1の変換用音声信号に対して固定倍率に基づく基本周波数変換を実行した後で変換処理が実行され、当該変換処理によってアクター1の声質をターゲット2の声質にリアルタイムに変換した音声信号を出力することが可能となる。なお、図5に示す処理は、アクター1の音声信号が入力される度に実行される。具体的には、連続的に入力されるアクター1の音声信号を例えば5ms程度の固定長毎に処理することによって、リアルタイムでの声質変換を実現することが可能となる。
According to the process shown in FIG. 5 described above, the conversion process is executed after the fundamental frequency conversion based on the fixed magnification is performed on the conversion audio signal of the
上記したように本実施形態において、声質学習装置10は、ターゲット2の学習用音声信号(第1の音声信号)及び当該ターゲット2の学習用音声信号に対応するアクター1の学習用音声信号(第2の音声信号)を入力する。声質学習装置10は、学習処理の前段で、アクター1の学習用音声信号に含まれる基本周波数を所定の倍率(固定倍率)で変換する。また、声質学習装置10は、学習処理として、ターゲット2の学習用音声信号から抽出されたスペクトル特徴量(第1の特徴量)及び基本周波数が変換されたアクター1の学習用音声信号から抽出されたスペクトル特徴量(第2の特徴量)間の対応関係をモデル化することによって得られるモデルデータ(声質変換モデルデータ)をデータベース10bに格納(蓄積)する。
As described above, in the present embodiment, the voice
一方、声質変換装置20は、アクター1の変換用音声信号(第3の音声信号)を入力し、変換処理の前段で、当該アクター1の変換用音声信号に含まれる基本周波数を上記した所定の倍率(固定倍率)で変換する。声質変換装置20は、変換処理として、データベース10bに蓄積されたモデルデータ及び基本周波数が変換されたアクター1の変換用音声信号から抽出されたスペクトル特徴量(第3の特徴量)に基づいて、当該アクター1の声質がターゲットの声質に変換された音声信号(第4の音声信号)を生成する。
On the other hand, the voice
なお、声質変換装置20による変換処理においては、データベース10bに格納されたモデルデータ及び基本周波数が変換されたアクター1の変換用音声信号から抽出されたスペクトル特徴量に基づいてターゲット2のスペクトル特徴量との差分特徴量が推定され、当該差分特徴量が当該スペクトル特徴量にフィルタとして適用されることによって、アクター1の声質がターゲット2の声質に変換される。
In the conversion process by the voice
ここで、本実施形態においては、アクター1とターゲット2との音高の差異による影響を低減するために基本周波数変換が学習処理及び変換処理の双方の前段で実行される。すなわち、本実施形態においては、基本周波数変換後のアクター1の音声(信号)で学習処理が実行されるため、変換処理の前段でアクター1の変換用音声信号に対して基本周波数変換が実行された場合であっても、学習処理によって得られたモデルデータに基づいて適切に声質を変換することが可能となる。
Here, in the present embodiment, in order to reduce the influence due to the difference in pitch between the
本実施形態においては、このような構成により、例えばテーマパークまたはイベント会場等におけるアクター1の発声に基づいて入力された音声信号に応じて、当該アクター1の声質がターゲット2の声質に変換された音声信号をリアルタイムに出力することができるため、例えばアクター1は特定のキャラクタ(ターゲット2)の声を容易に発する(つまり、発声する)ことが可能となる。
In this embodiment, the voice quality of the
また、本実施形態においては比較的簡易な基本周波数変換を使用することができるため、性能の低い電子機器(声質学習装置10及び声質変換装置20)であっても声質変換システムを実現することができる。
In addition, since the basic frequency conversion that is relatively simple can be used in the present embodiment, a voice quality conversion system can be realized even with low-performance electronic devices (voice
なお、本実施形態においては学習処理及び変換処理の双方の前段で実行される基本周波数変換における倍率が固定されていればよいため、当該倍率は適宜変更されても構わない。また、例えば学習処理時にターゲット2及びアクター1の音声信号の基本周波数を常に計測して動的な倍率を決定しておき、変換処理においては、入力されたアクター1の音声信号の基本周波数に応じた倍率で基本周波数が変換されるような構成としてもよい。
In the present embodiment, since the magnification in the fundamental frequency conversion executed in the preceding stage of both the learning process and the conversion process only needs to be fixed, the magnification may be changed as appropriate. Also, for example, during the learning process, the basic frequency of the audio signal of the
また、本実施形態においては、説明の便宜のためにアクター1とターゲット2とが1対1の関係であるものとして説明したが、複数のアクター1の各々の音声(信号)とターゲット2の音声(信号)との特徴量間の対応関係をモデル化したモデルデータ(つまり、アクター1毎のモデルデータ)を蓄積しておくことによって、当該複数のアクター1の各々が同一のキャラクタの声質で発声することが可能となる。これによれば、特定のキャラクタの声を演じるアクター1の交代が容易となることにより各アクター1への身体的負担を軽減することができるとともに、複数のアクター1間の声質の相似度の向上を実現することができる。なお、アクター1毎のモデルデータを蓄積しておく場合には、上述した固定倍率は、当該アクター1毎に決定されるものとする。
In the present embodiment, for convenience of explanation, the
また、アクター1の音声(信号)と複数のターゲット2の各々の音声(信号)との特徴量間の対応関係をモデル化したモデルデータ(つまり、ターゲット2毎のモデルデータ)を蓄積しておくことによって、アクター1が所望のターゲット2を選択し、当該選択されたターゲット2の声質に変換された音声信号が出力されるような構成とすることも可能である。
In addition, model data (that is, model data for each target 2) that models the correspondence relationship between the voice (signal) of the
以下、本実施形態に係る声質変換システムの使用態様の例について説明する。本実施形態においては、アクター1の発声に応じて、当該アクター1とは音域の異なるターゲット2の声質の音声信号を出力することができる。このため、例えば女性のアクター1が男性のターゲット2の声質で会話をするようなことが可能となる。また、本実施形態においては、個人の声の音程の差を補うことができるため、アクター1は普段は発声することができないような音域の声を出すことができるようになり、例えばカラオケ等において歌手の声質で歌うことができるとともに、音域の問題も解消することができる。
Hereinafter, examples of usage modes of the voice quality conversion system according to the present embodiment will be described. In this embodiment, according to the utterance of the
また、特定のキャラクタ(ターゲット2)の音声を前もって保存しておくことにより、例えば当該特定のキャラクタの声を演じていた人物(声優)が亡くなった後等に、他の人物(アクター1)の音声と蓄積しておいた当該特定キャラクタの音声との特徴量間の対応関係をモデル化したモデルデータを得るような構成とすることも可能である。このような構成によれば、特定のキャラクタの声を演じていた人物が亡くなった後等であっても、他の人物(アクター1)の発声に応じて当該キャラクタが出演するアニメ映画を制作するようなことが可能となる。すなわち、本実施形態に係る声質変換システムは、アニメ映画の制作の時間的制限をなくすといった従来の音声合成とは異なる分野にも適用可能である。 Further, by storing the voice of a specific character (target 2) in advance, for example, after the person (voice actor) who played the voice of the specific character has died, other persons (actor 1) It is also possible to obtain a configuration in which model data obtained by modeling the correspondence between feature amounts between the voice and the stored voice of the specific character is obtained. According to such a configuration, even after the person who was playing the voice of a specific character died, an animated movie in which the character appears in response to the voice of another person (Actor 1) is produced. It becomes possible. That is, the voice quality conversion system according to the present embodiment can be applied to a field different from conventional speech synthesis, such as eliminating the time limit of production of an animated movie.
また、例えば声優等の人物(ターゲット2)が、将来声質が変化してしまうこと等に備えて、保険として本実施形態に係る声質変化システムを利用することも考えられる。すなわち、予め声優等の人物の音声を保存しておき、実際に病気、怪我または老化等の原因によって声質が変化した際等に、現在の音声と蓄積しておいた過去の音声との特徴量間の対応関係をモデル化したモデルデータを得るような構成とすることも可能である。このような構成によれば、声質が変化した後であっても、例えば若い時のような過去の音声(声質)でセリフを言うまたは会話をすることが可能となる。この場合、例えば無料または低価格で保険として音声を保存しておくことができ、実際に声質変化システムを利用する際に料金を支払うようなサービスを提供することができる。なお、近年では声が出せなくなった後であっても人工的な音声を発することができるような機器が開発されているため、このような機器を利用すれば、声が出せなくなった後であっても過去の音声で会話をするようなことが可能となる。また、現役の声優が本システムで登場機会が失われるのではとの問題が考えられるが、むしろその声優の声を同時に世界中のあらゆる場所で用いられることとなるため、本人がその場に居なくても提供が可能となり、むしろ利用機会がふえるため、利用に応じて声優本人に印税などの形で使用料が戻ってくるようなビジネスモデルも提供できる。 In addition, for example, a voice actor or the like (target 2) may use the voice quality changing system according to the present embodiment as insurance in preparation for a future voice quality change. In other words, when the voice of a person such as a voice actor is saved in advance and the voice quality actually changes due to illness, injury or aging, etc., the feature amount of the current voice and the accumulated past voice It is also possible to obtain a configuration in which model data obtained by modeling the correspondence between the two is obtained. According to such a configuration, even after the voice quality has changed, it is possible to say a speech or have a conversation with a past voice (voice quality) such as when young. In this case, for example, voice can be stored as insurance for free or at a low price, and a service that pays a fee when actually using the voice quality change system can be provided. In recent years, devices have been developed that are capable of producing artificial voice even after they cannot speak. However, it is possible to have conversations with past voices. In addition, there may be a problem that the active voice actor will lose the opportunity to appear in this system, but rather the voice actor's voice will be used at every place in the world at the same time. It is possible to provide the service without the need and rather the opportunity to use it. Therefore, it is possible to provide a business model in which the usage fee is returned to the voice actor in the form of a royalty or the like according to the use.
また、声質変換システムを利用する際にアクター1がモデルデータを登録してない第三者に代えられた場合に警告などを出したり、システムを利用できないようにする等の目的で、予めアクター1の声紋登録を行い、声質変換装置20に音声が入力された際に声紋認証を行い、その声紋がアクター1の声紋と一致しない場合はエラーを表示したり変換を実行しないといった構成にすることも出来る。
In addition, when the voice quality conversion system is used, if the
同様に、映画またはドラマ等の登場人物(例えば、俳優等)の現在の音声と過去の音声との特徴量間の対応関係をモデル化したモデルデータを蓄積しておくことで、例えば当該映画またはドラマ等の回想シーンにおいては当該回想シーンで描かれる時期の当該人物の声質(つまり、過去の音声)でセリフを話すといった用途に声質変化システムが使用されても構わない。 Similarly, by storing model data that models the correspondence between feature amounts of current voices and past voices of characters (eg, actors) of movies or dramas, for example, the movie or drama In a reminiscence scene such as a drama, the voice quality changing system may be used for such purposes as speaking the speech with the voice quality (that is, past voice) of the person at the time drawn in the recollection scene.
更に、例えば海外の映画またはドラマ等において日本語の吹き替えが行われる場合に、当該映画またはドラマに実際に出演している俳優の声質で日本語のセリフを話すようにすることも可能である。 Furthermore, for example, when dubbing in Japanese is performed in an overseas movie or drama, it is possible to speak Japanese words with the voice quality of an actor who actually appears in the movie or drama.
上記したように本実施形態に係る声質変換システムは、言語の影響も少ないため、例えば言語的に意味のないキャラクタの発する特殊言語等であっても声質を変換して出力することが可能である。また、本実施形態に係る声質変換システムは、リアルタイム性を活かして様々な用途に用いることが可能であり、例えば上記したカラオケに用いることも可能であるし、機器による音声合成ガイダンスの声質を変換した音声を出力するような用途に用いることも可能である。 As described above, since the voice quality conversion system according to the present embodiment is less influenced by language, it is possible to convert voice quality even if it is a special language or the like generated by a character that has no linguistic meaning, for example. . In addition, the voice quality conversion system according to the present embodiment can be used for various purposes by taking advantage of real-time characteristics. For example, the voice quality conversion system can also be used for the above-mentioned karaoke, and converts the voice quality of voice synthesis guidance by a device. It is also possible to use it for the purpose of outputting such voice.
また、本実施形態に係る声質変換システムにおいてはGMMに基づく声質変換が採用されるものとして主に説明したが、上述したようにアクター1の音声とターゲット2の音声との特徴量の差分を当該アクター1の音声に合成する(差分スペクトル補正を適用する)ことによってアクター1の声質をターゲット2の声質に変換する手法は例えばGMMではなくニューラルネットワークを用いてモデル化を行う深層学習に基づく声質変換にも適用することができる。このため、本実施形態に係る声質変換システムにおいては、このような深層学習に基づく声質変換が採用されてもよいし、アクター1の音声及びターゲット2の音声を入力して学習を行うものであれば他の声質変換(手法)が採用されても構わない。
In the voice quality conversion system according to the present embodiment, the voice quality conversion based on GMM has been mainly described. However, as described above, the difference in the feature amount between the voice of the
なお、本願発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組合せてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
10…声質学習装置、10a…解析エンジン、10b…データベース、11…第1音声入力部(第1の入力手段)、12…第1分析処理部(第1の抽出手段)、13…倍率決定部、14…第2音声入力部(第2の入力手段)、15…基本周波数変換部(第1の変換手段)、16…第2分析処理部(第2の抽出手段)、17…モデル学習部、20…声質変換装置、20a…スピーカ、21…変換テーブル、22…音声入力部(第3の入力手段)、23…基本周波数変換部(第2の変換手段)、24…分析処理部(第3の抽出手段)、25…差分推定部、26…声質変換部、27…音声出力部。
DESCRIPTION OF
Claims (1)
前記声質学習装置は、
前記ターゲットの第1の音声信号を入力する第1の入力手段と、
前記入力された第1の音声信号から第1の特徴量を抽出する第1の抽出手段と、
前記第1の音声信号に対応する前記アクターの第2の音声信号を入力する第2の入力手段と、
前記入力された第2の音声信号に含まれる基本周波数を所定の倍率で変換する第1の変換手段と、
前記基本周波数が変換された第2の音声信号から第2の特徴量を抽出する第2の抽出手段と、
前記抽出された第1の特徴量及び第2の特徴量間の対応関係をモデル化することによって得られるモデルデータを格納するデータベースと
を含み、
前記声質変換装置は、
前記アクターの第3の音声信号を入力する第3の入力手段と、
前記入力された第3の音声信号に含まれる基本周波数を前記所定の倍率で変換する第2の変換手段と、
前記基本周波数が変換された第3の音声信号から第3の特徴量を抽出する第3の抽出手段と、
前記データベースに格納されたモデルデータ及び前記抽出された第3の特徴量に基づいて、前記アクターの声質が前記ターゲットの声質に変換された第4の音声信号を生成する生成手段と、
前記生成された第4の音声信号を出力する出力手段と
を含む
ことを特徴とする声質変換システム。 In a voice quality conversion system that includes a voice quality learning device and a voice quality conversion device, and converts an actor's voice quality to a target voice quality,
The voice quality learning device includes:
First input means for inputting a first audio signal of the target;
First extraction means for extracting a first feature quantity from the input first audio signal;
Second input means for inputting a second audio signal of the actor corresponding to the first audio signal;
First conversion means for converting a fundamental frequency included in the input second audio signal at a predetermined magnification;
Second extraction means for extracting a second feature quantity from the second audio signal converted from the fundamental frequency;
A database that stores model data obtained by modeling the correspondence between the extracted first feature quantity and second feature quantity, and
The voice quality conversion device includes:
Third input means for inputting a third audio signal of the actor;
Second conversion means for converting a fundamental frequency included in the input third audio signal at the predetermined magnification;
Third extraction means for extracting a third feature amount from the third audio signal converted from the fundamental frequency;
Generating means for generating a fourth audio signal in which the voice quality of the actor is converted to the voice quality of the target based on the model data stored in the database and the extracted third feature quantity;
An output means for outputting the generated fourth voice signal. A voice quality conversion system comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016133530A JP6664670B2 (en) | 2016-07-05 | 2016-07-05 | Voice conversion system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016133530A JP6664670B2 (en) | 2016-07-05 | 2016-07-05 | Voice conversion system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018005048A true JP2018005048A (en) | 2018-01-11 |
| JP6664670B2 JP6664670B2 (en) | 2020-03-13 |
Family
ID=60949228
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016133530A Active JP6664670B2 (en) | 2016-07-05 | 2016-07-05 | Voice conversion system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6664670B2 (en) |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019144404A (en) * | 2018-02-20 | 2019-08-29 | 日本電信電話株式会社 | Voice conversion learning device, voice conversion device, method and program |
| KR102035448B1 (en) * | 2019-02-08 | 2019-11-15 | 세명대학교 산학협력단 | Voice instrument |
| WO2021033685A1 (en) * | 2019-08-19 | 2021-02-25 | 国立大学法人東京大学 | Voice conversion device, voice conversion method, and voice conversion program |
| JP2021525493A (en) * | 2018-06-05 | 2021-09-24 | 安克創新科技股▲ふん▼有限公司Anker Innovations Technology Co.,Ltd. | Sound quality characteristic processing method and system based on deep learning |
| JPWO2020145353A1 (en) * | 2019-01-10 | 2021-12-23 | グリー株式会社 | Computer programs, server devices, terminal devices and audio signal processing methods |
| WO2023276234A1 (en) | 2021-06-29 | 2023-01-05 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
| WO2023276539A1 (en) * | 2021-06-30 | 2023-01-05 | 株式会社ドワンゴ | Voice conversion device, voice conversion method, program, and recording medium |
| JP2023013684A (en) * | 2021-07-16 | 2023-01-26 | クリムゾンテクノロジー株式会社 | Singing voice quality conversion program and singing voice quality conversion device |
| JP7503870B1 (en) | 2023-10-12 | 2024-06-21 | ギャラクシー・ネット株式会社 | Music production support program, music production support device, music production support method, and music playback device |
| JP7652979B1 (en) * | 2024-10-29 | 2025-03-27 | 株式会社ドワンゴ | CONVERSION DEVICE, CONVERSION METHOD, AND PROGRAM |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000276200A (en) * | 1999-03-26 | 2000-10-06 | Matsushita Electric Works Ltd | Voice quality converting system |
| JP2008085421A (en) * | 2006-09-26 | 2008-04-10 | Asahi Kasei Corp | Videophone, calling method, program, voice quality conversion / image editing service providing system, and server |
| WO2011004579A1 (en) * | 2009-07-06 | 2011-01-13 | パナソニック株式会社 | Voice tone converting device, voice pitch converting device, and voice tone converting method |
-
2016
- 2016-07-05 JP JP2016133530A patent/JP6664670B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000276200A (en) * | 1999-03-26 | 2000-10-06 | Matsushita Electric Works Ltd | Voice quality converting system |
| JP2008085421A (en) * | 2006-09-26 | 2008-04-10 | Asahi Kasei Corp | Videophone, calling method, program, voice quality conversion / image editing service providing system, and server |
| WO2011004579A1 (en) * | 2009-07-06 | 2011-01-13 | パナソニック株式会社 | Voice tone converting device, voice pitch converting device, and voice tone converting method |
Non-Patent Citations (3)
| Title |
|---|
| KAORI YUTANI ET AL.: "Voice conversion based on simultaneous modelling of spectrum and F0", 2009 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS,SPEECH AND SIGNAL PROCESSING, JPN6020000810, 19 April 2009 (2009-04-19), US, pages 3897 - 3900, ISSN: 0004193203 * |
| 宇藤陽介他3名: "声質変換のためのスペクトル・F0の同時モデリング", 電子情報通信学会技術研究報告 SP2007−113, vol. 107, no. 406, JPN6020000809, 13 December 2007 (2007-12-13), pages 103 - 108, ISSN: 0004193202 * |
| 広瀬啓吉, 音声・言語処, vol. 初版第1刷, JPN6020000808, 18 May 2015 (2015-05-18), JP, pages 87 - 89, ISSN: 0004193201 * |
Cited By (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019144404A (en) * | 2018-02-20 | 2019-08-29 | 日本電信電話株式会社 | Voice conversion learning device, voice conversion device, method and program |
| WO2019163848A1 (en) * | 2018-02-20 | 2019-08-29 | 日本電信電話株式会社 | Device for learning speech conversion, and device, method, and program for converting speech |
| US11790934B2 (en) | 2018-06-05 | 2023-10-17 | Anker Innovations Technology Co., Ltd. | Deep learning based method and system for processing sound quality characteristics |
| JP2021525493A (en) * | 2018-06-05 | 2021-09-24 | 安克創新科技股▲ふん▼有限公司Anker Innovations Technology Co.,Ltd. | Sound quality characteristic processing method and system based on deep learning |
| JP7137639B2 (en) | 2018-06-05 | 2022-09-14 | 安克創新科技股▲ふん▼有限公司 | SOUND QUALITY CHARACTERISTICS PROCESSING METHOD AND SYSTEM BASED ON DEEP LEARNING |
| JP7309155B2 (en) | 2019-01-10 | 2023-07-18 | グリー株式会社 | Computer program, server device, terminal device and audio signal processing method |
| JP2023123694A (en) * | 2019-01-10 | 2023-09-05 | グリー株式会社 | Computer program, server device, terminal device and voice signal processing method |
| JPWO2020145353A1 (en) * | 2019-01-10 | 2021-12-23 | グリー株式会社 | Computer programs, server devices, terminal devices and audio signal processing methods |
| KR102035448B1 (en) * | 2019-02-08 | 2019-11-15 | 세명대학교 산학협력단 | Voice instrument |
| JP7334942B2 (en) | 2019-08-19 | 2023-08-29 | 国立大学法人 東京大学 | VOICE CONVERTER, VOICE CONVERSION METHOD AND VOICE CONVERSION PROGRAM |
| JP2021032940A (en) * | 2019-08-19 | 2021-03-01 | 国立大学法人 東京大学 | Voice conversion device, voice conversion method, and voice conversion program |
| WO2021033685A1 (en) * | 2019-08-19 | 2021-02-25 | 国立大学法人東京大学 | Voice conversion device, voice conversion method, and voice conversion program |
| WO2023276234A1 (en) | 2021-06-29 | 2023-01-05 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
| WO2023276539A1 (en) * | 2021-06-30 | 2023-01-05 | 株式会社ドワンゴ | Voice conversion device, voice conversion method, program, and recording medium |
| JP2023006218A (en) * | 2021-06-30 | 2023-01-18 | 株式会社ドワンゴ | Voice conversion device, voice conversion method, program, and storage medium |
| JP2023013684A (en) * | 2021-07-16 | 2023-01-26 | クリムゾンテクノロジー株式会社 | Singing voice quality conversion program and singing voice quality conversion device |
| JP7503870B1 (en) | 2023-10-12 | 2024-06-21 | ギャラクシー・ネット株式会社 | Music production support program, music production support device, music production support method, and music playback device |
| WO2025079544A1 (en) * | 2023-10-12 | 2025-04-17 | ギャラクシー・ネット株式会社 | Song creation assistance program, song creation assistance device, song creation assistance method, and musical reproduction device |
| JP2025067267A (en) * | 2023-10-12 | 2025-04-24 | ギャラクシー・ネット株式会社 | Musical piece production support program, musical piece production support device, musical piece production support method, and music reproduction device |
| JP7652979B1 (en) * | 2024-10-29 | 2025-03-27 | 株式会社ドワンゴ | CONVERSION DEVICE, CONVERSION METHOD, AND PROGRAM |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6664670B2 (en) | 2020-03-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6664670B2 (en) | Voice conversion system | |
| US12027165B2 (en) | Computer program, server, terminal, and speech signal processing method | |
| JP4296231B2 (en) | Voice quality editing apparatus and voice quality editing method | |
| US12380905B2 (en) | Signal processing apparatus and method, training apparatus and method | |
| US20160365087A1 (en) | High end speech synthesis | |
| CN113948062A (en) | Data conversion method and computer storage medium | |
| CN102473416A (en) | Voice quality conversion device, method therefor, vowel information generating device, and voice quality conversion system | |
| JP2023007405A (en) | Voice conversion device, voice conversion method, program, and storage medium | |
| CN114999441A (en) | Avatar generation method, apparatus, device, storage medium, and program product | |
| Obin et al. | On the generalization of Shannon entropy for speech recognition | |
| US20220157329A1 (en) | Method of converting voice feature of voice | |
| JP7339151B2 (en) | Speech synthesizer, speech synthesis program and speech synthesis method | |
| CN116364099A (en) | Tone color conversion method, device, electronic apparatus, storage medium, and program product | |
| Kons et al. | Neural TTS voice conversion | |
| CN113345416B (en) | Voice synthesis method and device and electronic equipment | |
| Khadka et al. | Nepali text-to-speech synthesis using tacotron2 for melspectrogram generation | |
| Revis et al. | Vocal flexibility and prosodic strategies in a professional impersonator | |
| JP6424419B2 (en) | Voice control device, voice control method and program | |
| Mamatov et al. | Formation of a Speech Database in the Karakalpak Language for Speech Synthesis Systems | |
| JP2023013684A (en) | Singing voice quality conversion program and singing voice quality conversion device | |
| Yang et al. | Real time voice alteration based on linear prediction. | |
| JP7652979B1 (en) | CONVERSION DEVICE, CONVERSION METHOD, AND PROGRAM | |
| Aso et al. | Speakbysinging: Converting singing voices to speaking voices while retaining voice timbre | |
| CN112164387A (en) | Audio synthesis method and device, electronic equipment and computer-readable storage medium | |
| JP6163454B2 (en) | Speech synthesis apparatus, method and program thereof |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170614 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20170614 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190423 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200108 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200121 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200203 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6664670 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |