[go: up one dir, main page]

JP2018005048A - Voice quality conversion system - Google Patents

Voice quality conversion system Download PDF

Info

Publication number
JP2018005048A
JP2018005048A JP2016133530A JP2016133530A JP2018005048A JP 2018005048 A JP2018005048 A JP 2018005048A JP 2016133530 A JP2016133530 A JP 2016133530A JP 2016133530 A JP2016133530 A JP 2016133530A JP 2018005048 A JP2018005048 A JP 2018005048A
Authority
JP
Japan
Prior art keywords
voice
voice quality
actor
conversion
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016133530A
Other languages
Japanese (ja)
Other versions
JP6664670B2 (en
Inventor
▲高▼橋 賢一
賢一 ▲高▼橋
Kenichi Takahashi
飛河 和生
Kazuo Hikawa
和生 飛河
戸田 智基
Tomoki Toda
智基 戸田
小林 和弘
Kazuhiro Kobayashi
和弘 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Crimson Tech Inc
Original Assignee
Nara Institute of Science and Technology NUC
Crimson Tech Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC, Crimson Tech Inc filed Critical Nara Institute of Science and Technology NUC
Priority to JP2016133530A priority Critical patent/JP6664670B2/en
Publication of JP2018005048A publication Critical patent/JP2018005048A/en
Application granted granted Critical
Publication of JP6664670B2 publication Critical patent/JP6664670B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】アクターの声質をターゲットの声質に変換することを可能な声質変換システムを提供する。【解決手段】声質学習装置10は、ターゲット2の第1の音声信号から第1の特徴量を抽出する。声質学習装置10は、アクター1の第2の音声信号に含まれる基本周波数を所定の倍率で変換し、基本周波数が変換された第2の音声信号から第2の特徴量を抽出する。声質学習装置10は、抽出された第1の特徴量及び第2の特徴量間の対応関係をモデル化することによって得られるモデルデータをデータベースDBに格納する。声質変換装置20は、アクター1の第3の音声信号に含まれる基本周波数を所定の倍率で変換し、基本周波数が変換された第3の音声信号から第3の特徴量を抽出する。声質変換装置20は、データベースDBに格納されたモデルデータ及び抽出された第3の特徴量に基づいて、アクター1の声質がターゲット2の声質に変換された第4の音声信号を生成する。【選択図】図1A voice quality conversion system capable of converting the voice quality of an actor into the voice quality of a target is provided. A voice quality learning device (10) extracts a first feature quantity from a first speech signal of a target (2). The voice quality learning apparatus 10 transforms the fundamental frequency contained in the second audio signal of the actor 1 by a predetermined magnification, and extracts the second feature quantity from the second audio signal whose fundamental frequency has been transformed. Voice quality learning apparatus 10 stores model data obtained by modeling the correspondence relationship between the extracted first feature amount and second feature amount in database DB. The voice conversion device 20 converts the fundamental frequency included in the third audio signal of the actor 1 by a predetermined magnification, and extracts the third feature amount from the third audio signal whose fundamental frequency has been converted. The voice quality conversion device 20 generates a fourth voice signal in which the voice quality of the actor 1 is converted into the voice quality of the target 2 based on the model data stored in the database DB and the extracted third feature amount. [Selection drawing] Fig. 1

Description

本発明は、声質変換システムに関する。   The present invention relates to a voice quality conversion system.

近年では、テーマパークまたはイベント会場等にキャラクタが登場することにより、集客を図ることが行われている。   In recent years, attracting customers has been performed by characters appearing in theme parks or event venues.

このキャラクタには、例えば映画、アニメ、コミック及びゲーム等に登場する様々なキャラクタが含まれる。更に、音楽の分野においては、キャラクタがアーティストとして活動を行う場合もある。   This character includes various characters appearing in, for example, movies, anime, comics, games, and the like. Further, in the music field, a character may act as an artist.

キャラクタは、例えば現実空間内に着ぐるみとして登場する場合もあれば、映像として登場する場合もある。このようなキャラクタの視覚的な要素は、着ぐるみの精度向上及びコンピュータグラフィクスの技術の進歩等により、十分に観客を楽しませることができる。   For example, the character may appear as a costume in the real space or may appear as a video. Such a visual element of the character can sufficiently entertain the audience by improving the accuracy of the costume and improving the technology of computer graphics.

小林和弘、戸田智基、Graham Neubig、Sakriani Sakti、中村哲(奈良先端大・情報)、“差分スペクトル補正に基づく統計的歌声声質変換”、[online]、2014年3月、日本音響学会講演論文集、[平成28年6月27日検索]、インターネット<URL:http:www.phontron.com/paper/kobayashi14asj.pdf>Kazuhiro Kobayashi, Tomoki Toda, Graham Neubig, Sakriani Sakti, Satoshi Nakamura (Nara Institute of Science and Information), “Statistical Voice / Voice Conversion Based on Difference Spectrum Correction”, [online], March 2014, Proc. [Search on June 27, 2016], Internet <URL: http: www.phontron.com/paper/kobayashi14asj.pdf>

ところで、キャラクタの声を録音した音声を同時に流すか、あるいは現場のアクター(声優)が演じることによって、当該キャラクタが話しているように見せることが一般的に行われている。   By the way, it is common practice to make the character appear to be speaking by playing the voice recording the voice of the character at the same time or by being played by an actor (voice actor) in the field.

しかしながら、録音した音声の再生タイミングや収録内容が現場と合わなかったり、アクターの声質がキャラクタの声質と異なる場合があり、この場合には観客は違和感を感じてしまう場合がある。   However, there are cases where the playback timing and recorded content of the recorded voice do not match the actual site, or the voice quality of the actor is different from the voice quality of the character. In this case, the audience may feel uncomfortable.

このため特定のキャラクタの声は実際の声優本人が自らアクターとなるか、あるいはキャラクタに似た声を出すことが出来るような特定のアクターのみが演じる場合も見られるが、テーマパークまたはイベント会場に長時間登場するようなキャラクタの場合には、アクターが喉を傷めてしまうような事態が発生し得る。また、このような状況下ではアクターは喉を酷使するため、同一のアクターであっても例えば朝と夜とで声質が変化してしまうことがある。   For this reason, the voice of a specific character can be seen as the actual voice actor himself acting as an actor, or only by a specific actor who can make a voice similar to the character, but at the theme park or event venue In the case of a character that appears for a long time, a situation may occur in which an actor hurts his throat. In such a situation, since the actor overuses the throat, even if the actor is the same, the voice quality may change between morning and evening, for example.

なお、テーマパークまたはイベント会場に登場するキャラクタは例えばステージやスクリーン上で、リアルタイムで観客と会話するようなことも求められており、予めキャラクタの声を録音した音声で用意しておくようなことは困難である。   Characters appearing in theme parks or event venues are also required to have real-time conversations with the audience on the stage or on the screen, for example. It is difficult.

したがって、異なるアクターであっても同一のキャラクタ(ターゲット)の声で自由に話すことができるような技術が望まれている。   Therefore, there is a demand for a technique that allows different actors to speak freely with the voice of the same character (target).

そこで、本発明の目的は、アクターの声質をターゲットの声質に変換することが可能な声質変換システムを提供することにある。   Therefore, an object of the present invention is to provide a voice quality conversion system capable of converting an actor's voice quality into a target voice quality.

本発明の1つの態様によれば、声質学習装置及び声質変換装置を備え、アクターの声質をターゲットの声質に変換する声質変換システムが提供される。前記声質学習装置は、前記ターゲットの第1の音声信号を入力する第1の入力手段と、前記入力された第1の音声信号から第1の特徴量を抽出する第1の抽出手段と、前記第1の音声信号に対応する前記アクターの第2の音声信号を入力する第2の入力手段と、前記入力された第2の音声信号に含まれる基本周波数を所定の倍率で変換する第1の変換手段と、前記基本周波数が変換された第2の音声信号から第2の特徴量を抽出する第2の抽出手段と、前記抽出された第1の特徴量及び第2の特徴量間の対応関係をモデル化することによって得られるモデルデータを格納するデータベースとを含む。前記声質変換装置は、前記アクターの第3の音声信号を入力する第3の入力手段と、前記入力された第3の音声信号に含まれる基本周波数を前記所定の倍率で変換する第2の変換手段と、前記基本周波数が変換された第3の音声信号から第3の特徴量を抽出する第3の抽出手段と、前記データベースに格納されたモデルデータ及び前記抽出された第3の特徴量に基づいて、前記アクターの声質が前記ターゲットの声質に変換された第4の音声信号を生成する生成手段と、前記生成された第4の音声信号を出力する出力手段とを含む。   According to one aspect of the present invention, a voice quality conversion system that includes a voice quality learning device and a voice quality conversion device and converts an actor's voice quality to a target voice quality is provided. The voice quality learning device includes: a first input unit that inputs a first audio signal of the target; a first extraction unit that extracts a first feature amount from the input first audio signal; A second input means for inputting a second audio signal of the actor corresponding to the first audio signal; and a first input for converting a fundamental frequency contained in the input second audio signal at a predetermined magnification. Correspondence between the converting means, the second extracting means for extracting the second feature value from the second audio signal whose fundamental frequency has been converted, and the extracted first feature value and second feature value And a database that stores model data obtained by modeling the relationship. The voice quality conversion device includes: a third input unit that inputs a third audio signal of the actor; and a second conversion that converts a fundamental frequency included in the input third audio signal at the predetermined magnification. Means, third extraction means for extracting a third feature amount from the third audio signal whose fundamental frequency has been converted, model data stored in the database, and the extracted third feature amount. And generating means for generating a fourth voice signal in which the voice quality of the actor is converted to the voice quality of the target, and output means for outputting the generated fourth voice signal.

本発明は、アクターの声質をターゲットの声質に変換することを可能とする。   The present invention makes it possible to convert an actor's voice quality to a target voice quality.

本発明の実施形態に係る声質変換システムの構成の一例を概略的に示す図。The figure which shows schematically an example of a structure of the voice quality conversion system which concerns on embodiment of this invention. 声質学習装置の機能構成の一例を示すブロック図。The block diagram which shows an example of a function structure of a voice quality learning apparatus. 声質変換装置の機能構成の一例を示すブロック図。The block diagram which shows an example of a function structure of a voice quality conversion apparatus. 声質学習装置の処理手順の一例を示すフローチャート。The flowchart which shows an example of the process sequence of a voice quality learning apparatus. 声質変換装置の処理手順の一例を示すフローチャート。The flowchart which shows an example of the process sequence of a voice quality conversion apparatus.

以下、図面を参照して、本発明の実施形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本実施形態に係る声質変換システムの構成を概略的に示す図である。本実施形態に係る声質変換システムは、例えば声優のようなアクターと称される人物(以下、単にアクターと表記)1の声質をターゲットと称される例えばキャラクタ(以下、単にターゲットと表記)2の声質に変換するために用いられる。   FIG. 1 is a diagram schematically showing a configuration of a voice quality conversion system according to the present embodiment. The voice quality conversion system according to the present embodiment includes, for example, a character (hereinafter simply referred to as a target) 2 called a voice quality of a person (hereinafter simply referred to as an actor) 1 called an actor such as a voice actor. Used to convert to voice quality.

具体的には、声質変換システムは、例えばテーマパークまたはイベント会場等において、アクター1が発声した際に、当該アクター1の声質をターゲット2の声質に変換して音声を出力することによって、ターゲット2と声質の異なるアクター1であっても当該ターゲット2の声質で話すことができるようにするといった用途に用いることができる。   Specifically, the voice quality conversion system converts the voice quality of the actor 1 into the voice quality of the target 2 and outputs the voice when the actor 1 utters, for example, in a theme park or an event venue. Even if the actor 1 has a different voice quality, the voice quality of the target 2 can be used.

なお、本実施形態の説明においてはアクター1が人物であるものとして説明するが、当該アクター1は、音声を発するものであればよく、例えば機械的に生成された音声を発するものであってもよい。また、ターゲット2(キャラクタ)は、当該キャラクタの声を演じる人物であってもよいし、当該キャラクタの声を機械的に発する機器等であってもよい。ターゲット2はキャラクタではなく、有名人や俳優、歌手などの人物の声でもよい。   In the description of the present embodiment, the actor 1 is described as being a person. However, the actor 1 only needs to emit sound, for example, it may emit mechanically generated sound. Good. Further, the target 2 (character) may be a person who plays the voice of the character, or may be a device that mechanically emits the voice of the character. The target 2 may be a voice of a person such as a celebrity, an actor, or a singer instead of a character.

図1に示すように、声質変換システムは、声質学習装置10及び声質変換装置20を備える。   As shown in FIG. 1, the voice quality conversion system includes a voice quality learning device 10 and a voice quality conversion device 20.

声質学習装置10は、各種プログラム(ソフトウェア)を実行可能なCPUのようなプロセッサ(コンピュータ)を備えるパーソナルコンピュータ等を含む。声質学習装置10は、解析エンジン10a及びデータベース(DB)10bを有する。   The voice quality learning apparatus 10 includes a personal computer including a processor (computer) such as a CPU that can execute various programs (software). The voice quality learning apparatus 10 includes an analysis engine 10a and a database (DB) 10b.

解析エンジン10aは、ターゲット2の音声(ターゲット2が発音した声)と、当該ターゲット2の音声におけるイントネーション、発音タイミング及び音程等を真似て発音したアクター1の音声とを用いて学習処理を実行する(声質変換モデルを学習する)。解析エンジン10aは、学習処理の結果(学習結果)をもとに解析を実行し、データベース10bを作成する。   The analysis engine 10a executes the learning process using the voice of the target 2 (voice generated by the target 2) and the voice of the actor 1 which is pronounced by imitating the intonation, the sound generation timing, and the pitch of the target 2 voice. (Learn voice conversion model). The analysis engine 10a performs analysis based on the learning process result (learning result) to create the database 10b.

なお、図1には示されていないが、声質学習装置10は、上記したアクター1及びターゲット2の音声を入力するためのマイクロフォン等を備えている。なお、声質学習装置10は、例えばアクター1及びターゲット2の音声が予め収録された音声ファイルを入力する構成であってもよい。   Although not shown in FIG. 1, the voice quality learning device 10 includes a microphone and the like for inputting the voices of the actor 1 and the target 2 described above. Note that the voice quality learning device 10 may be configured to input a voice file in which voices of the actor 1 and the target 2 are recorded in advance, for example.

声質変換装置20は、声質学習装置10と同様に、各種プログラム(ソフトウェアを実行可能なCPUのようなプロセッサ(コンピュータ)を備えるパーソナルコンピュータ等を含む。   Similar to the voice quality learning device 10, the voice quality conversion device 20 includes various programs (such as a personal computer including a processor (computer) such as a CPU capable of executing software).

声質変換装置20は、上記した声質学習装置10において作成されたデータベース10bを利用してアクター1の声質をターゲット2の声質に変換する。このように声質変換装置20において声質が変換された音声は、声質変換装置20に備えられる例えばスピーカ20aから出力される。なお、声質変換装置20において声質が変換された音声は、例えば音声ファイルとして出力され、声質変換装置20内で管理されてもよいし、外部のサーバ装置等に送信されても構わない。   The voice quality conversion device 20 converts the voice quality of the actor 1 into the voice quality of the target 2 using the database 10b created in the voice quality learning device 10 described above. The voice whose voice quality is converted in the voice quality conversion apparatus 20 in this way is output from, for example, a speaker 20 a provided in the voice quality conversion apparatus 20. Note that the voice whose voice quality is converted in the voice quality conversion apparatus 20 may be output as, for example, a voice file and managed in the voice quality conversion apparatus 20, or may be transmitted to an external server apparatus or the like.

なお、図1には示されていないが、声質変換装置20は、アクター1の音声を入力するためのマイクロフォン等を備えている。また、上記した声質学習装置10と同様に、声質変換装置20は、アクター1の音声が予め収録された音声ファイルを入力する構成であってもい。   Although not shown in FIG. 1, the voice quality conversion device 20 includes a microphone or the like for inputting the voice of the actor 1. Similarly to the voice quality learning apparatus 10 described above, the voice quality conversion apparatus 20 may be configured to input a voice file in which the voice of the actor 1 is recorded in advance.

本実施形態に係る声質変換システムにおいては、声質学習装置10及び声質変換装置20が別個の装置であるものとして説明するが、当該声質学習装置10及び声質変換装置20は、1つの装置として実現されていても構わない。   In the voice quality conversion system according to the present embodiment, the voice quality learning device 10 and the voice quality conversion device 20 will be described as separate devices, but the voice quality learning device 10 and the voice quality conversion device 20 are realized as one device. It does not matter.

更に、声質学習装置10及び声質変換装置20は、パーソナルコンピュータ以外の電子機器、例えばスマートフォンまたはタブレット端末等として実現されていてもよい。また、声質学習装置10及び声質変換装置20は、本実施形態において説明する各機能がチップなどに格納され一体化されたマイクのような形態を有していてもよいし、他の形態を有する専用機器として実現されていてもよい。   Furthermore, the voice quality learning device 10 and the voice quality conversion device 20 may be realized as an electronic device other than a personal computer, such as a smartphone or a tablet terminal. Further, the voice quality learning device 10 and the voice quality conversion device 20 may have a form such as a microphone in which each function described in the present embodiment is stored in a chip or the like, or other forms. It may be realized as a dedicated device.

以下、本実施形態に係る声質変換システムにおける声質の変換手法の概要について説明する。   The outline of the voice quality conversion method in the voice quality conversion system according to this embodiment will be described below.

本実施形態に係る声質変換システムにおいては、混合正規分布モデル(GMM:Gaussian Mixture Model)に基づいて声質を変換する手法(以下、GMMに基づく声質変換と表記)が採用されているものとする。このGMMに基づく声質変換においては、上述した声質学習装置10によって学習処理が実行され、声質変換装置20によって変換処理が実行される。   In the voice quality conversion system according to the present embodiment, a technique for converting voice quality based on a mixed normal distribution model (GMM: Gaussian Mixture Model) (hereinafter referred to as voice conversion based on GMM) is adopted. In the voice quality conversion based on this GMM, the learning process is executed by the voice quality learning apparatus 10 described above, and the conversion process is executed by the voice quality conversion apparatus 20.

まず、学習処理について簡単に説明する。学習処理では、例えば同一のセリフ(文等)を同一のイントネーション及び音程で発声した際のアクター1及びターゲット2それぞれの音声信号(音声データ)を用意する。   First, the learning process will be briefly described. In the learning process, for example, voice signals (voice data) of the actor 1 and the target 2 when the same speech (sentence, etc.) is uttered with the same intonation and pitch are prepared.

声質学習装置10は、このアクター1及びターゲット2それぞれの音声信号(つまり、アクター1及びターゲット2による同一内容発声の音声信号)を入力する。   The voice quality learning device 10 inputs the voice signals of the actor 1 and the target 2 (that is, voice signals of the same content uttered by the actor 1 and the target 2).

声質学習装置10は、双方の音声信号を各フレームに分割して短時間分析処理を実行する。通常は、固定長(例えば 5 ms)で分析区間をシフトさせることで、双方の音声信号を短時間音声波形に分割する。   The voice quality learning device 10 divides both audio signals into frames and executes short-time analysis processing. Normally, both speech signals are divided into short-time speech waveforms by shifting the analysis interval by a fixed length (for example, 5 ms).

声質学習装置10は、分割されたフレーム毎に音声の特徴を表す特徴量の分析(スペクトル分析)を行い、局所的な時間フレーム系列の伸縮を行い、時間同期をとることによって、双方の音声フレーム間のマッチングを行う。対応するフレーム毎のスペクトルを結合したデータを順次算出し、結合確率密度関数をGMMでモデル化する。   The voice quality learning device 10 performs analysis (spectrum analysis) of the feature amount representing the feature of the voice for each divided frame, expands and contracts the local time frame sequence, and synchronizes the time frames, thereby obtaining both voice frames. Match between. Data obtained by combining the spectra for the corresponding frames is calculated sequentially, and the combined probability density function is modeled by GMM.

本実施形態においては、このような学習処理によって得られるモデルデータ(声質変換モデルデータ)がデータベース10bに蓄積される。   In the present embodiment, model data (voice quality conversion model data) obtained by such learning processing is accumulated in the database 10b.

すなわち、上記した学習処理においては、時間の対応付けがされたアクター1及びターゲット2の音声(波形)の特徴量のペアから、当該アクター1の声質をターゲット2の声質に変換するための変換規則が統計的にモデル化される。   That is, in the learning process described above, a conversion rule for converting the voice quality of the actor 1 to the voice quality of the target 2 from the pair of voice (waveform) feature quantities of the actor 1 and the target 2 associated with time. Are modeled statistically.

次に、変換処理について簡単に説明する。上記したGMMに基づく声質変換の変換処理においては一般的に音声合成技術を使用して基本音声を作り出すが、本実施形態における変換処理では、機械的な音声ではなく比較的自然な音声を出力するために、アクター1の音声(波形)をそのまま使用するものとする。   Next, the conversion process will be briefly described. In the above-described conversion processing of voice quality conversion based on GMM, a basic speech is generally generated using a speech synthesis technique. However, in the conversion processing according to the present embodiment, relatively natural speech is output instead of mechanical speech. Therefore, the voice (waveform) of the actor 1 is used as it is.

すなわち、この変換処理では、音声の特徴量を変換するのではなく、アクター1の音声と出力すべきターゲット2の音声との特徴量の差分を上記GMMに基づき推定し、当該アクター1の音声(波形)に合成フィルタにより畳み込む(すなわち、差分スペクトル補正を適用する)ことによって、アクター1の声質をターゲット2の声質に変換する。   That is, in this conversion process, the feature amount of the voice is not converted, but the difference in the feature amount between the voice of the actor 1 and the voice of the target 2 to be output is estimated based on the GMM, and the voice of the actor 1 ( The voice quality of the actor 1 is converted to the voice quality of the target 2 by convolving the waveform with a synthesis filter (that is, applying a difference spectrum correction).

上述したように、GMMに基づく声質変換においては、学習処理によって作成されたデータベース10b(に蓄積されたモデルデータ)を利用して、変換処理によってアクター1の声質をターゲット2の声質に変換することができる。   As described above, in voice quality conversion based on the GMM, the voice quality of the actor 1 is converted into the voice quality of the target 2 by the conversion processing using the database 10b (model data accumulated therein) created by the learning processing. Can do.

なお、本実施形態において採用されるGMMに基づく声質変換については例えば「小林和弘、戸田智基、Graham Neubig、Sakriani Sakti、中村哲(奈良先端大・情報)、“差分スペクトル補正に基づく統計的歌声声質変換”、[online]、2014年3月、日本音響学会講演論文集、[平成28年6月27日検索]、インターネット<URL:http:www.phontron.com/paper/kobayashi14asj.pdf>」及び「戸田智基、“音声音響信号処理〜統計的手法による音声変換〜”、[online]、2014年1月20日、[平成28年6月27日検索]、インターネット<http://hil.t.u-tokyo.ac.jp/~kameoka/SAP/SAP13_11.pdf>」等に開示されているため、ここではその詳しい説明については省略する。   For voice quality conversion based on GMM adopted in this embodiment, for example, “Kazuhiro Kobayashi, Tomoki Toda, Graham Neubig, Sakriani Sakti, Satoshi Nakamura (NAIST, Information),“ Statistical singing voice quality based on differential spectrum correction ” "Conversion", [online], March 2014, Proceedings of the Acoustical Society of Japan, [Search June 27, 2016], Internet <URL: http: www.phontron.com/paper/kobayashi14asj.pdf> "Tomochi Toda," Speech and acoustic signal processing-Voice conversion using statistical methods ", [online], January 20, 2014, [Search June 27, 2016], Internet <http: //hil.tu -tokyo.ac.jp/~kameoka/SAP/SAP13_11.pdf> ”, etc., and detailed description thereof is omitted here.

ところで、例えばアクター1及びターゲット2の性別が異なるような場合、当該アクター1とターゲット2とで発声することが可能な音域が異なる。   By the way, for example, when the genders of the actor 1 and the target 2 are different, the sound ranges that can be uttered by the actor 1 and the target 2 are different.

このようにアクター1とターゲット2とで音域が異なる場合、当該アクター1の声質を当該GMMに基づく声質変換によってターゲット2の声質に変換したとしても、出力される音声はターゲット2の音声として認識できない程度のものとなる。   In this way, when the sound range is different between the actor 1 and the target 2, even if the voice quality of the actor 1 is converted to the voice quality of the target 2 by voice quality conversion based on the GMM, the output voice cannot be recognized as the voice of the target 2 It will be about.

このため、上述した変換処理において、アクター1の音声の基本周波数(f0)をターゲット2(の音声)の音域に合わせて変換する処理(以下、基本周波数変換と表記)を実行する必要がある。基本周波数は、声の高さ(音高)等を表現する音声の特徴量の1つである。なお、変換処理ではアクター1の音声がそのまま使用されるため、本実施形態においては、アクター1の音声(波形)を信号処理で加工する基本周波数変換が必要となる。   For this reason, in the conversion process described above, it is necessary to execute a process for converting the fundamental frequency (f0) of the voice of the actor 1 in accordance with the range of the target 2 (speech) (hereinafter referred to as fundamental frequency conversion). The fundamental frequency is one of the feature quantities of voice that expresses the pitch (pitch) of the voice. In addition, since the voice of the actor 1 is used as it is in the conversion process, in the present embodiment, basic frequency conversion is required in which the voice (waveform) of the actor 1 is processed by signal processing.

ここで、上述した音声波形を信号処理で加工する基本周波数変換の手法としては、例えばW−SOLA等のタイムストレッチ及びリサンプルを用いた比較的簡易な手法がある。このような音声波形を時間軸上で加工する比較的簡易な手法による基本周波数変換には、例えば、音声基本周波数推定処理を必要としない、ボコーダによる音声分析合成処理を必要としない、CPU負荷が少ないという利点がある。なお、基本周波数変換として他の手法が用いられても構わない。   Here, as a fundamental frequency conversion technique for processing the above-described speech waveform by signal processing, for example, there is a relatively simple technique using time stretching and resampling such as W-SOLA. Basic frequency conversion by a relatively simple method of processing such a speech waveform on the time axis does not require, for example, speech fundamental frequency estimation processing, does not require speech analysis / synthesis processing by a vocoder, and has a CPU load. There is an advantage of less. Note that other methods may be used as the fundamental frequency conversion.

しかしながら、このような基本周波数変換が実行された場合、アクター1の音声のスペクトル(フォルマント)に伸縮が生じるため、当該アクター1の声質が変化してしまう。このような基本周波数変換が声質変換装置20における変換処理の前段で実行される場合には、声質学習装置10における学習処理の際に与えられたアクター1の音声のフォルマントと、当該変換処理の際に与えられるアクター1の音声のフォルマントとが異なることになるため、変換処理においてアクター1の声質をターゲット2の声質に適切に変換することは困難となる。   However, when such fundamental frequency conversion is executed, the voice spectrum of the actor 1 changes because the voice spectrum (formant) of the actor 1 expands and contracts. When such a fundamental frequency conversion is executed in the preceding stage of the conversion process in the voice quality conversion apparatus 20, the formant of the voice of the actor 1 given during the learning process in the voice quality learning apparatus 10 and the conversion process Therefore, it is difficult to appropriately convert the voice quality of the actor 1 to the voice quality of the target 2 in the conversion process.

一方、基本周波数変換が声質変換装置20における変換処理の後段で実行される(つまり、変換処理によって声質が変換された後に音声の基本周波数が変換される)場合には、既に変換処理によって得られたターゲット2の声質が基本周波数変換によって生じるフォルマントの伸縮により異なるものに変化してしまう。この場合には、ターゲット2の声質の音声を出力することはできない。   On the other hand, when the fundamental frequency conversion is performed after the conversion process in the voice quality conversion device 20 (that is, the basic frequency of the voice is converted after the voice quality is converted by the conversion process), it is already obtained by the conversion process. The voice quality of the target 2 is changed to a different one by the expansion / contraction of the formant caused by the fundamental frequency conversion. In this case, the voice of the voice quality of the target 2 cannot be output.

ここで、上述したように基本周波数変換は音声のフォルマント(スペクトル)の伸縮を生じさせるが、常に一定の倍率で基本周波数を変換した場合には、声質は変化してしまうものの、当該フォルマント同様に一定の倍率で伸縮することにより安定する(つまり、安定した個性を持ったフォルマントの声質を得ることができる)。   Here, as described above, the fundamental frequency conversion causes the expansion and contraction of the formant (spectrum) of the speech. However, if the fundamental frequency is always converted at a constant magnification, the voice quality will change, but as with the formant. It stabilizes by expanding and contracting at a certain magnification (that is, it is possible to obtain a formant voice quality with a stable personality).

本実施形態においては、このような特性に着目し、声質変換システムにおける学習処理及び変換処理の双方の前段でアクター1の音声に対して基本周波数変換を実行する構成とする。なお、この場合における基本周波数変換は、予め決定された一定の倍率(音高変換倍率)で実行される。   In this embodiment, paying attention to such characteristics, the fundamental frequency conversion is performed on the voice of the actor 1 before the learning process and the conversion process in the voice quality conversion system. In this case, the fundamental frequency conversion is executed at a predetermined magnification (pitch conversion magnification).

以下、本実施形態に係る声質変換システムに備えられる声質学習装置10及び声質変換装置20の各々の機能構成について説明する。   Hereinafter, functional configurations of the voice quality learning device 10 and the voice quality conversion device 20 included in the voice quality conversion system according to the present embodiment will be described.

図2は、声質学習装置10の機能構成を示すブロック図である。声質学習装置10は、上記したように声質変換装置20においてアクター1の声質をターゲット2の声質に変換するために、ターゲット2の音声(声質)及びアクター1の音声(声質)を学習しておく機能を有する。   FIG. 2 is a block diagram illustrating a functional configuration of the voice quality learning device 10. The voice quality learning device 10 learns the voice (voice quality) of the target 2 and the voice (voice quality) of the actor 1 in order to convert the voice quality of the actor 1 into the voice quality of the target 2 in the voice quality conversion device 20 as described above. It has a function.

図2に示すように、声質学習装置10は、第1音声入力部11、第1分析処理部12、倍率決定部13、第2音声入力部14、基本周波数変換部15、第2分析処理部16及びモデル学習部17を含む。   As shown in FIG. 2, the voice quality learning device 10 includes a first voice input unit 11, a first analysis processing unit 12, a magnification determination unit 13, a second voice input unit 14, a fundamental frequency conversion unit 15, and a second analysis processing unit. 16 and a model learning unit 17.

本実施形態において、第1音声入力部11、第1分析処理部12、倍率決定部13、第2音声入力部14、基本周波数変換部15、第2分析処理部16及びモデル学習部17は、図1に示す解析エンジン10aを構成する機能部であり、例えば声質学習装置10に備えられるCPU等のコンピュータにプログラムを実行させること、すなわち、ソフトウェアによって実現されるものとする。なお、これらの各部11〜17の一部または全ては、IC(Integrated Circuit)等のハードウェアによって実現されてもよいし、ソフトウェア及びハードウェアの組み合わせ構成として実現されてもよい。なお、コンピュータに実行させるプログラムは、コンピュータ読み取り可能な記憶媒体に格納して頒布されてもよいし、またはネットワークを通じて声質学習装置10にダウンロードされてもよい。   In the present embodiment, the first speech input unit 11, the first analysis processing unit 12, the magnification determination unit 13, the second speech input unit 14, the fundamental frequency conversion unit 15, the second analysis processing unit 16, and the model learning unit 17 are: It is a functional unit constituting the analysis engine 10a shown in FIG. 1, and is realized by causing a computer such as a CPU provided in the voice quality learning apparatus 10 to execute a program, that is, by software. Part or all of these units 11 to 17 may be realized by hardware such as an IC (Integrated Circuit), or may be realized as a combined configuration of software and hardware. The program to be executed by the computer may be stored and distributed in a computer-readable storage medium, or may be downloaded to the voice quality learning device 10 through a network.

ここで、上記した学習処理のために声質学習装置10に対して発せられたターゲット2の音声は、例えばマイクロフォンを介してアナログ電気信号に変換される。マイクロフォンを介してアナログ電気信号に変換された音声は、更にA/Dコンバータを通してデジタル電気信号に変換され、第1音声入力部11によって入力される。以下、第1音声入力部11によって入力された音声(信号)を便宜的にターゲット2の学習用音声信号と称する。なお、第1音声入力部11は、ターゲット2の学習用音声信号として上記した音声ファイルを入力してもよい。   Here, the voice of the target 2 uttered to the voice quality learning device 10 for the above-described learning process is converted into an analog electric signal via a microphone, for example. The sound converted into the analog electric signal through the microphone is further converted into a digital electric signal through the A / D converter, and input by the first sound input unit 11. Hereinafter, the voice (signal) input by the first voice input unit 11 is referred to as a learning voice signal of the target 2 for convenience. The first voice input unit 11 may input the above-described voice file as a learning voice signal for the target 2.

なお、ターゲット2の学習用音声信号には、ターゲット2の音声の特徴を表すパラメータ(特徴量)として、例えば音韻性及び声質等を表現するスペクトル特徴量(スペクトル包絡)と、声の高さ(音高)及び声のかすれ等を表現する基本周波数及び非周期成分とが含まれる。   In addition, the learning speech signal of the target 2 includes, as parameters (features) representing the features of the speech of the target 2, for example, a spectral feature amount (spectrum envelope) representing phonological characteristics and voice quality, and a voice pitch ( Pitch) and a basic frequency and a non-periodic component expressing voice blur.

第1分析処理部12は、ターゲット2の学習用音声信号(に含まれるスペクトル特徴量、基本周波数及び非周期成分)を分析し、当該ターゲット2の学習用音声信号からスペクトル特徴量(第1の特徴量)を抽出する。   The first analysis processing unit 12 analyzes the learning speech signal of the target 2 (the spectral feature amount, the fundamental frequency, and the non-periodic component included therein), and the spectral feature amount (the first feature amount from the learning speech signal of the target 2). (Feature amount) is extracted.

倍率決定部13は、上記した基本周波数変換を実行する際の一定の倍率(f0rate)を決定する。具体的には、倍率決定部13は、例えばアクター1の音声の周波数帯域(つまり、音域)の平均値及びターゲット2の音声の周波数帯域(つまり、音域)の平均値に基づいて倍率を決定する。以下、倍率決定部13によって決定された倍率を便宜的に固定倍率と称する。この固定倍率は、声質学習装置10内に保持される。また、この固定倍率は、例えば声質変換装置20に対して送信されることによって、後述するように声質変換装置20内でも保持される。   The magnification determination unit 13 determines a constant magnification (f0rate) when executing the above-described fundamental frequency conversion. Specifically, the magnification determination unit 13 determines the magnification based on, for example, the average value of the frequency band (ie, sound range) of the voice of the actor 1 and the average value of the frequency band (ie, sound range) of the sound of the target 2. . Hereinafter, the magnification determined by the magnification determination unit 13 is referred to as a fixed magnification for convenience. This fixed magnification is held in the voice quality learning device 10. The fixed magnification is also held in the voice quality conversion apparatus 20 as described later by being transmitted to the voice quality conversion apparatus 20, for example.

ここで、学習処理のために声質学習装置10に対して発せられたアクター1の音声は、例えばマイクロフォンを介して電気信号(音声信号)に変換される。第2音声入力部14は、マイクロフォンを介して変換された音声信号(第2の音声信号)を入力する。以下、第2音声入力部14によって入力された音声信号を便宜的にアクター1の学習用音声信号と称する。   Here, the voice of the actor 1 uttered to the voice quality learning device 10 for the learning process is converted into an electric signal (voice signal) via a microphone, for example. The second audio input unit 14 inputs an audio signal (second audio signal) converted through a microphone. Hereinafter, the audio signal input by the second audio input unit 14 is referred to as a learning audio signal of the actor 1 for convenience.

なお、アクター1の学習用音声信号には、アクター1の音声の特徴を表すパラメータ(特徴量)として、例えば音韻性及び声質等を表現するスペクトル特徴量(スペクトル包絡)と、声の高さ(音高)及び声のかすれ等を表現する基本周波数及び非周期成分とが含まれる。   Note that the learning speech signal of the actor 1 includes, as parameters (features) representing the characteristics of the speech of the actor 1, for example, a spectral feature amount (spectrum envelope) representing phonological characteristics and voice quality, and a voice pitch ( Pitch) and a basic frequency and a non-periodic component expressing voice blur.

基本周波数変換部15は、アクター1の学習用音声信号に含まれる基本周波数を固定倍率で変換する。すなわち、本実施形態においては、この基本周波数変換部15により、学習処理の前段でアクター1の学習用音声信号に対して基本周波数変換が実行される。   The fundamental frequency conversion unit 15 converts the fundamental frequency included in the learning speech signal of the actor 1 at a fixed magnification. In other words, in the present embodiment, the fundamental frequency conversion unit 15 performs fundamental frequency conversion on the learning speech signal of the actor 1 in the previous stage of the learning process.

第2分析処理部16は、基本周波数が固定倍率で変換された後のアクター1の学習用音声信号(に含まれるスペクトル特徴量、基本周波数及び非周期成分)を分析し、当該アクター1の学習用音声信号からスペクトル特徴量(第2の特徴量)を抽出する。   The second analysis processing unit 16 analyzes the learning speech signal of the actor 1 (the spectrum feature amount, the fundamental frequency, and the non-periodic component included) after the fundamental frequency is converted at a fixed magnification, and learns the actor 1 A spectral feature amount (second feature amount) is extracted from the audio signal.

モデル学習部17は、上述した学習処理を実行する機能部である。モデル学習部17は、第1分析処理部12によって抽出されたスペクトル特徴量(つまり、ターゲット2の音声の特徴量)及び第2分析処理部16によって抽出されたスペクトル特徴量(つまり、アクター1の音声の特徴量)のペアに関する変換規則が統計的にモデル化される。モデル学習部17は、このような学習処理によって得られるモデルデータをデータベース10bに格納(蓄積)する。   The model learning unit 17 is a functional unit that executes the learning process described above. The model learning unit 17 extracts the spectrum feature amount extracted by the first analysis processing unit 12 (that is, the feature amount of the target 2 speech) and the spectrum feature amount extracted by the second analysis processing unit 16 (that is, the actor 1 Conversion rules for pairs of speech features are statistically modeled. The model learning unit 17 stores (accumulates) the model data obtained by such learning processing in the database 10b.

図3は、声質変換装置20の機能構成を示すブロック図である。声質変換装置20は、アクター1の声質をターゲット2の声質に変換する機能を有する。   FIG. 3 is a block diagram showing a functional configuration of the voice quality conversion device 20. The voice quality conversion device 20 has a function of converting the voice quality of the actor 1 into the voice quality of the target 2.

図3に示すように、声質変換装置20は、変換テーブル21、音声入力部22、基本周波数変換部23、分析処理部24、差分推定部25、声質変換部26及び音声出力部27を含む。   As shown in FIG. 3, the voice quality conversion device 20 includes a conversion table 21, a voice input unit 22, a fundamental frequency conversion unit 23, an analysis processing unit 24, a difference estimation unit 25, a voice quality conversion unit 26, and a voice output unit 27.

本実施形態において、変換テーブル21は、上記した声質学習装置10のデータベース10bをインストールすることによって生成され、当該データベース10bに蓄積されたモデルデータを保持する。なお、変換テーブル21は、例えば声質変換装置20に備えられる記憶装置等に格納される。   In the present embodiment, the conversion table 21 holds the model data generated by installing the database 10b of the voice quality learning device 10 described above and accumulated in the database 10b. The conversion table 21 is stored in, for example, a storage device provided in the voice quality conversion device 20.

また、本実施形態において、音声入力部22、基本周波数変換部23、分析処理部24、差分推定部25、声質変換部26及び音声出力部27は、例えば声質変換装置10に備えられるCPU等のコンピュータにプログラムを実行させること、すなわち、ソフトウェアによって実現されるものとする。なお、これらの各部22〜27の一部または全ては、IC(Integrated Circuit)等のハードウェアによって実現されてよいし、ソフトウェア及びハードウェアの組み合わせ構成として実現されてもよい。なお、コンピュータに実行させるプログラムは、コンピュータ読み取り可能な記憶媒体に格納して頒布されてもよいし、またはネットワークを通じて声質変換装置20にダウンロードされてもよい。   In the present embodiment, the voice input unit 22, the fundamental frequency conversion unit 23, the analysis processing unit 24, the difference estimation unit 25, the voice quality conversion unit 26, and the voice output unit 27 are, for example, a CPU or the like provided in the voice quality conversion device 10. It is assumed that the program is executed by a computer, that is, realized by software. Note that some or all of these units 22 to 27 may be realized by hardware such as an IC (Integrated Circuit) or may be realized as a combined configuration of software and hardware. The program to be executed by the computer may be stored and distributed in a computer-readable storage medium, or may be downloaded to the voice quality conversion device 20 through a network.

変換処理のために声質変換装置20に対して発せられたアクター1の音声は、例えばマイクロフォンを介してアナログ電気信号に変換される。マイクロフォンを介してアナログ電気信号に変換された音声は、更にA/Dコンバータを通してデジタル電気信号に変換され、音声入力部22によって入力される。以下、音声入力部22によって入力された音声(信号)を便宜的にアクター1の変換用音声信号と称する。なお、音声入力部22は、アクター1の変換用音声信号として上記した音声ファイルを入力してもよい。   The voice of the actor 1 uttered to the voice quality conversion device 20 for the conversion process is converted into an analog electric signal via a microphone, for example. The sound converted into the analog electric signal through the microphone is further converted into a digital electric signal through the A / D converter and input by the sound input unit 22. Hereinafter, the voice (signal) input by the voice input unit 22 will be referred to as a conversion voice signal of the actor 1 for convenience. Note that the voice input unit 22 may input the above-described voice file as the conversion voice signal of the actor 1.

アクター1の変換用音声信号には、上記したようにアクター1の音声の特徴を表すパラメータ(特徴量)として、スペクトル特徴量、基本周波数及び非周期成分等が含まれる。   As described above, the conversion voice signal of the actor 1 includes a spectral feature quantity, a fundamental frequency, an aperiodic component, and the like as parameters (feature quantities) representing the voice characteristics of the actor 1.

ここで、声質学習装置10内に保持されている固定倍率(つまり、倍率決定部13によって決定された倍率)は、上記したように声質変換装置20内においても保持されているものとする。   Here, the fixed magnification (that is, the magnification determined by the magnification determination unit 13) held in the voice quality learning apparatus 10 is also held in the voice quality conversion apparatus 20 as described above.

基本周波数変換部23は、アクター1の変換用音声信号に含まれる基本周波数を声質変換装置20内で保持されている固定倍率で変換する。すなわち、本実施形態においては、この基本周波数変換部23により、変換処理の前段でアクター1の変換用音声信号に対して基本周波数変換が実行される。   The fundamental frequency conversion unit 23 converts the fundamental frequency included in the voice signal for conversion of the actor 1 at a fixed magnification held in the voice quality conversion device 20. That is, in the present embodiment, the fundamental frequency conversion is performed on the conversion audio signal of the actor 1 by the basic frequency conversion unit 23 in the previous stage of the conversion process.

分析処理部24は、基本周波数が固定倍率で変換された後のアクター1の変換用音声信号(に含まれるスペクトル特徴量、基本周波数及び非周期成分)を分析し、当該アクター1の変換用音声信号からスペクトル特徴量(第3の特徴量)を抽出する。   The analysis processing unit 24 analyzes the conversion voice signal of the actor 1 (the spectrum feature amount, the basic frequency, and the non-periodic component included therein) after the fundamental frequency is converted at a fixed magnification, and the conversion voice of the actor 1 is analyzed. A spectral feature amount (third feature amount) is extracted from the signal.

差分推定部25及び声質変換部26は、上述した変換処理を実行する機能部である。   The difference estimation unit 25 and the voice quality conversion unit 26 are functional units that execute the conversion processing described above.

ここで、差分推定部25及び声質変換部26は、変換テーブル21に保持されているモデルデータ及び分析処理部24によって抽出されたスペクトル特徴量に基づく変換処理によって、アクター1の声質がターゲット2の声質に変換された音声信号(第4の音声信号)を生成する。このように生成される音声信号は、アクター1の変換用音声信号に対応するターゲット2の音声信号に相当する。   Here, the difference estimation unit 25 and the voice quality conversion unit 26 convert the voice quality of the actor 1 to the target 2 by the conversion process based on the model data held in the conversion table 21 and the spectrum feature amount extracted by the analysis processing unit 24. A voice signal (fourth voice signal) converted into voice quality is generated. The audio signal generated in this way corresponds to the audio signal of the target 2 corresponding to the conversion audio signal of the actor 1.

具体的には、差分推定部25は、変換テーブル21(つまり、モデルデータ)を参照して、分析処理部24によって抽出されたスペクトル特徴量(つまり、アクター1の変換用音声信号に含まれるスペクトル特徴量)と当該アクター1の変換用音声信号に対応するターゲット2の音声信号のスペクトル特徴量との差分(以下、差分特徴量と表記)を推定する。   Specifically, the difference estimation unit 25 refers to the conversion table 21 (that is, model data), and the spectrum feature amount extracted by the analysis processing unit 24 (that is, the spectrum included in the conversion voice signal of the actor 1). The difference between the feature amount) and the spectral feature amount of the audio signal of the target 2 corresponding to the conversion audio signal of the actor 1 (hereinafter referred to as difference feature amount) is estimated.

声質変換部26は、アクター1の変換用音声信号(音声波形)に対して差分推定部25によって推定された差分特徴量を適用する処理(フィルタ処理)を実行する。これにより、音声入力部22によって入力されたアクター1の変換用音声信号において、アクター1の声質をターゲット2の声質に変換することができる。   The voice quality conversion unit 26 executes a process (filtering process) for applying the difference feature amount estimated by the difference estimation unit 25 to the conversion voice signal (voice waveform) of the actor 1. Thereby, the voice quality of the actor 1 can be converted into the voice quality of the target 2 in the voice signal for conversion of the actor 1 input by the voice input unit 22.

音声出力部27は、声質変換部26によって声質が変換された音声信号を例えばスピーカ20aを介して出力する。なお、声質変換部26によって性質が変換された音声信号は、上記したように音声ファイルとして出力されてもよい。   The audio output unit 27 outputs the audio signal whose voice quality has been converted by the voice quality conversion unit 26 via, for example, the speaker 20a. Note that the audio signal whose properties are converted by the voice quality conversion unit 26 may be output as an audio file as described above.

以下、本実施形態に係る声質変換システム(声質学習装置10及び声質変換装置20)の動作について説明する。   Hereinafter, the operation of the voice quality conversion system (voice quality learning apparatus 10 and voice quality conversion apparatus 20) according to the present embodiment will be described.

まず、図4のフローチャートを参照して、声質学習装置10の処理手順について説明する。   First, the processing procedure of the voice quality learning device 10 will be described with reference to the flowchart of FIG.

図4に示す処理が実行される場合、例えばターゲット2(特定のキャラクタ)が話すことが多い音素(言い回し等)の包含されたテキストが用意される。   When the process shown in FIG. 4 is executed, for example, a text including a phoneme (phrase) often spoken by the target 2 (specific character) is prepared.

ターゲット2(の声を演じる人物等)は、当該ターゲット2の声のイメージを作り、当該イメージに基づいてイントネーション及び音程の変化等を意識して、用意されたテキストに基づいて発声する。なお、ここで用意されているテキストには、例えば50〜100文程度(のセリフ等)が含まれているものとする。   The target 2 (the person who plays the voice) creates an image of the voice of the target 2 and utters based on the prepared text in consideration of intonation, change in pitch, and the like based on the image. The text prepared here includes, for example, about 50 to 100 sentences (such as words).

これにより、第1音声入力部11は、ターゲット2の発声に応じて当該ターゲット2(つまり、特定のキャラクタ)の学習用音声信号を入力する(ステップS1)。   Thereby, the 1st audio | voice input part 11 inputs the audio | voice signal for learning of the said target 2 (namely, specific character) according to the utterance of the target 2 (step S1).

第1分析処理部12は、ステップS1において入力されたターゲット2の学習用音声信号からスペクトル特徴量を抽出する(ステップS2)。   The first analysis processing unit 12 extracts a spectrum feature amount from the learning speech signal of the target 2 input in step S1 (step S2).

次に、アクター1は、上記したテキストに基づくターゲット2による発声と同様のイントネーション及び音程の変化等を真似て当該テキストに基づいて発声する。   Next, the actor 1 utters based on the text by imitating the same intonation and pitch change as the utterance by the target 2 based on the text.

これにより、第2音声入力部14は、アクター1の発声に応じて当該アクター1の学習用音声信号(つまり、ステップS1において入力されたターゲット2の学習用音声信号に対応するアクター1の学習用音声信号)を入力する(ステップS3)。   As a result, the second voice input unit 14 performs the learning voice signal of the actor 1 corresponding to the voice of the actor 1 (that is, the learning voice of the actor 1 corresponding to the learning voice signal of the target 2 input in step S1). Audio signal) is input (step S3).

ここで、上記したように声質学習装置10内には、事前処理として倍率決定部13によって決定された基本周波数変換のための倍率(固定倍率)が保持されている。なお、固定倍率は、上記したようにアクター1の音声の周波数帯域の平均値及びターゲット2の音声の周波数帯域の平均値に基づいて決定される。具体的には、例えばアクター1の音声の周波数帯域の平均値が100Hzであり、ターゲット2の音声の周波数帯域の平均値が130Hzである場合には、固定倍率は1.3(130/100)である。ここでは、固定倍率が「ターゲット2の音声の周波数帯域の平均値/アクター1の音声の周波数帯域の平均値」であるものとして説明したが、当該固定倍率は他の手法によって決定されるものであってもよい。なお、アクター1の音声の周波数帯域の平均値及びターゲット2の音声の周波数帯域の平均値は、予め計測されていればよい。   Here, as described above, the voice quality learning device 10 holds the magnification (fixed magnification) for the fundamental frequency conversion determined by the magnification determination unit 13 as a pre-process. The fixed magnification is determined based on the average value of the frequency band of the voice of the actor 1 and the average value of the frequency band of the voice of the target 2 as described above. Specifically, for example, when the average value of the frequency band of the voice of the actor 1 is 100 Hz and the average value of the frequency band of the voice of the target 2 is 130 Hz, the fixed magnification is 1.3 (130/100). It is. Here, the fixed magnification is described as “the average value of the frequency band of the voice of the target 2 / the average value of the frequency band of the voice of the actor 1”, but the fixed magnification is determined by another method. There may be. In addition, the average value of the frequency band of the voice of the actor 1 and the average value of the frequency band of the voice of the target 2 may be measured in advance.

基本周波数変換部15は、上記した固定倍率に基づいて、ステップS3において入力されたアクター1の学習用音声信号に対して基本周波数変換を実行する(ステップS4)。これにより、アクター1の学習用音声信号に含まれる基本周波数が固定倍率で変換される。   Based on the fixed magnification described above, the fundamental frequency conversion unit 15 performs fundamental frequency conversion on the learning speech signal of the actor 1 input in step S3 (step S4). As a result, the fundamental frequency included in the learning audio signal of the actor 1 is converted at a fixed magnification.

第2分析処理部16は、ステップS4において基本周波数が変換された後のアクター1の学習用音声信号からスペクトル特徴量を抽出する(ステップS5)。   The second analysis processing unit 16 extracts a spectrum feature amount from the learning speech signal of the actor 1 after the fundamental frequency is converted in step S4 (step S5).

モデル学習部17は、上述した学習処理を実行し、ステップS2において抽出されたスペクトル特徴量(ターゲット2の音声のスペクトル特徴量)及びステップS5において抽出されたスペクトル特徴量(アクター1の音声のスペクトル特徴量)間の対応関係をモデル化する(ステップS6)。具体的には、モデル学習部17は、上述したように時間(フレーム)毎に対応付けられたスペクトル特徴量に基づく変換規則を統計的にモデル化(GMMでモデル化)することによってモデルデータを得ることができる。   The model learning unit 17 executes the above-described learning process, and the spectral feature amount extracted in step S2 (the spectral feature amount of the target 2 speech) and the spectral feature amount extracted in step S5 (the speech spectrum of the actor 1). A correspondence relationship between the feature quantities) is modeled (step S6). Specifically, as described above, the model learning unit 17 statistically models the conversion rule based on the spectral feature amount associated with each time (frame) (modeling with GMM) to obtain the model data. Can be obtained.

モデル学習部17によって得られたモデルデータは、データベース10bに蓄積される(ステップS7)。   The model data obtained by the model learning unit 17 is accumulated in the database 10b (step S7).

上記した図4に示す処理によれば、上記したようにアクター1の学習用音声信号に対して固定倍率に基づく基本周波数変換を実行した後で学習処理が実行され、当該学習処理において得られるモデルデータがデータベース10bに蓄積される。   According to the process shown in FIG. 4 described above, the learning process is performed after the fundamental frequency conversion based on the fixed magnification is performed on the learning speech signal of the actor 1 as described above, and the model obtained in the learning process is obtained. Data is accumulated in the database 10b.

次に、図5のフローチャートを参照して、声質変換装置20の処理手順について説明する。   Next, the processing procedure of the voice quality conversion apparatus 20 will be described with reference to the flowchart of FIG.

本実施形態において、声質変換装置20は、例えばテーマパークまたはイベント会場等において着ぐるみを着用したアクター1が特定のキャラクタ(ターゲット2)の声を演じてリアルタイムで観客等と会話(やりとり)を行うような場合に使用される。なお、声質変換装置20は、映像として映し出された特定のキャラクタの声をアクター1が演じるような場合に使用されても構わない。   In the present embodiment, the voice quality conversion device 20 causes the actor 1 wearing a costume to play a voice of a specific character (target 2) and talk (interact) with the audience in real time, for example, at a theme park or event venue. Used when Note that the voice quality conversion device 20 may be used when the actor 1 plays the voice of a specific character projected as an image.

なお、このアクター1の音声のスペクトル特徴量及びターゲット2(特定のキャラクタ)の音声のスペクトル特徴量間の対応関係がモデル化されることによって得られるモデルデータは、上述した図4に示す処理が実行されることによって声質学習装置10(データベース10b)に蓄積されているものとする。このモデルデータは、当該声質変換装置20にインストールされ、変換テーブル21に保持されているものとする。   Note that the model data obtained by modeling the correspondence between the spectral feature quantity of the voice of the actor 1 and the spectral feature quantity of the voice of the target 2 (specific character) is obtained by the process shown in FIG. It is assumed that the voice quality learning device 10 (database 10b) accumulates the data by executing the command. It is assumed that this model data is installed in the voice quality conversion device 20 and held in the conversion table 21.

アクター1が声質変換装置20を使用する場合、当該アクター1は、上述した図4に示す処理が実行される際に真似た程度のターゲット2のイントネーション及び音程の変化等で発声する(例えば、観客と会話する)。   When the actor 1 uses the voice quality conversion device 20, the actor 1 utters with the intonation of the target 2 and the change in the pitch, etc., which are imitated when the process shown in FIG. 4 is executed (for example, the audience) Talk to).

この場合、音声入力部22は、アクター1の発声に応じて当該アクター1の変換用音声信号を入力する(ステップS11)。   In this case, the voice input unit 22 inputs the conversion voice signal of the actor 1 according to the utterance of the actor 1 (step S11).

ここで、上記したように声質変換装置10内には、声質学習装置10内に保持されている固定倍率(倍率決定部13によって決定された倍率)と同じ固定倍率が保持されている。   Here, as described above, in the voice quality conversion apparatus 10, the same fixed magnification as the fixed magnification (magnification determined by the magnification determination unit 13) held in the voice quality learning apparatus 10 is held.

基本周波数変換部15は、声質変換装置10内に保持されている固定倍率に基づいて、ステップS11において入力されたアクター1の変換用音声信号に対して基本周波数変換を実行する(ステップS12)。これにより、アクター1の変換用音声信号に含まれる基本周波数が固定倍率で変換される。   The fundamental frequency conversion unit 15 performs fundamental frequency conversion on the conversion audio signal of the actor 1 input in step S11 based on the fixed magnification held in the voice quality conversion apparatus 10 (step S12). As a result, the fundamental frequency included in the conversion audio signal of the actor 1 is converted at a fixed magnification.

分析処理部24は、ステップS12において基本周波数が変換された後のアクター1の変換用音声信号からスペクトル特徴量を抽出する(ステップS13)。   The analysis processing unit 24 extracts a spectrum feature amount from the conversion voice signal of the actor 1 after the fundamental frequency is converted in step S12 (step S13).

以下、差分推定部25及び声質変換部26は、上述した変換処理を実行する。具体的には、差分推定部25は、ステップS13において抽出されたスペクトル特徴量(アクター1の音声のスペクトル特徴量)とステップS11において入力されたアクター1の変換用音声信号に対応するターゲット2の音声信号との差分特徴量を、変換テーブル21に保持されているモデルデータ(GMM)に基づいて推定する(ステップS14)。なお、ステップS14における推定処理においては、例えばGMMに対して変数変換を行うことによりアクター1の音声のスペクトル特徴量(ベクトル)と差分特徴量(ベクトル)の結合確率密度をモデル化したGMMを導出し、このように導出されたGMMに基づき差分特徴量を推定するものとする。   Hereinafter, the difference estimation unit 25 and the voice quality conversion unit 26 execute the conversion process described above. Specifically, the difference estimation unit 25 sets the spectral feature value (the spectral feature value of the voice of the actor 1) extracted in step S13 and the target 2 corresponding to the voice signal for conversion of the actor 1 input in step S11. A difference feature amount from the audio signal is estimated based on the model data (GMM) held in the conversion table 21 (step S14). In the estimation process in step S14, for example, variable conversion is performed on the GMM to derive a GMM that models the joint probability density of the spectrum feature quantity (vector) and the difference feature quantity (vector) of the voice of the actor 1 The difference feature amount is estimated based on the GMM thus derived.

次に、声質変換部26は、ステップS13において抽出されたスペクトル特徴量に対して、ステップS14において推定された差分特徴量を合成フィルタにより畳み込む(合成する)ことにより、アクター1の声質がターゲット2の声質に変換された音声信号を生成する(ステップS15)。なお、合成フィルタとしては、音声合成に用いられる例えばMLSA(Mel-Log Spectrum Approximation)フィルタ等を使用することができる。   Next, the voice quality conversion unit 26 convolves (synthesizes) the differential feature quantity estimated in step S14 with the synthesis filter for the spectral feature quantity extracted in step S13, so that the voice quality of the actor 1 is the target 2 The voice signal converted into the voice quality is generated (step S15). As the synthesis filter, for example, an MLSA (Mel-Log Spectrum Approximation) filter used for speech synthesis can be used.

この声質変換部26によって声質が変換された後の音声信号は、音声出力部27によって出力される(ステップS16)。   The voice signal whose voice quality has been converted by the voice quality conversion unit 26 is output by the voice output unit 27 (step S16).

上記した図5に示す処理によれば、アクター1の変換用音声信号に対して固定倍率に基づく基本周波数変換を実行した後で変換処理が実行され、当該変換処理によってアクター1の声質をターゲット2の声質にリアルタイムに変換した音声信号を出力することが可能となる。なお、図5に示す処理は、アクター1の音声信号が入力される度に実行される。具体的には、連続的に入力されるアクター1の音声信号を例えば5ms程度の固定長毎に処理することによって、リアルタイムでの声質変換を実現することが可能となる。   According to the process shown in FIG. 5 described above, the conversion process is executed after the fundamental frequency conversion based on the fixed magnification is performed on the conversion audio signal of the actor 1, and the voice quality of the actor 1 is set to the target 2 by the conversion process. It is possible to output a voice signal converted in real time to the voice quality of the voice. Note that the process shown in FIG. 5 is executed each time an audio signal of the actor 1 is input. Specifically, the voice quality conversion in real time can be realized by processing the voice signal of the actor 1 that is continuously input for each fixed length of, for example, about 5 ms.

上記したように本実施形態において、声質学習装置10は、ターゲット2の学習用音声信号(第1の音声信号)及び当該ターゲット2の学習用音声信号に対応するアクター1の学習用音声信号(第2の音声信号)を入力する。声質学習装置10は、学習処理の前段で、アクター1の学習用音声信号に含まれる基本周波数を所定の倍率(固定倍率)で変換する。また、声質学習装置10は、学習処理として、ターゲット2の学習用音声信号から抽出されたスペクトル特徴量(第1の特徴量)及び基本周波数が変換されたアクター1の学習用音声信号から抽出されたスペクトル特徴量(第2の特徴量)間の対応関係をモデル化することによって得られるモデルデータ(声質変換モデルデータ)をデータベース10bに格納(蓄積)する。   As described above, in the present embodiment, the voice quality learning device 10 includes the learning audio signal (first audio signal) of the target 2 and the learning audio signal (first audio signal of the actor 1 corresponding to the learning audio signal of the target 2. 2 audio signals). The voice quality learning device 10 converts the fundamental frequency included in the learning speech signal of the actor 1 at a predetermined magnification (fixed magnification) before the learning process. Further, the voice quality learning device 10 is extracted from the learning speech signal of the actor 1 obtained by converting the spectral feature amount (first feature amount) and the fundamental frequency extracted from the learning speech signal of the target 2 as the learning process. The model data (voice quality conversion model data) obtained by modeling the correspondence relationship between the spectral feature amounts (second feature amounts) is stored (accumulated) in the database 10b.

一方、声質変換装置20は、アクター1の変換用音声信号(第3の音声信号)を入力し、変換処理の前段で、当該アクター1の変換用音声信号に含まれる基本周波数を上記した所定の倍率(固定倍率)で変換する。声質変換装置20は、変換処理として、データベース10bに蓄積されたモデルデータ及び基本周波数が変換されたアクター1の変換用音声信号から抽出されたスペクトル特徴量(第3の特徴量)に基づいて、当該アクター1の声質がターゲットの声質に変換された音声信号(第4の音声信号)を生成する。   On the other hand, the voice quality conversion device 20 receives the conversion audio signal (third audio signal) of the actor 1 and sets the basic frequency included in the conversion audio signal of the actor 1 to the predetermined frequency described above before the conversion process. Convert with magnification (fixed magnification). The voice quality conversion device 20 performs conversion processing based on the model data stored in the database 10b and the spectral feature value (third feature value) extracted from the conversion voice signal of the actor 1 whose fundamental frequency is converted. A voice signal (fourth voice signal) in which the voice quality of the actor 1 is converted into the target voice quality is generated.

なお、声質変換装置20による変換処理においては、データベース10bに格納されたモデルデータ及び基本周波数が変換されたアクター1の変換用音声信号から抽出されたスペクトル特徴量に基づいてターゲット2のスペクトル特徴量との差分特徴量が推定され、当該差分特徴量が当該スペクトル特徴量にフィルタとして適用されることによって、アクター1の声質がターゲット2の声質に変換される。   In the conversion process by the voice quality conversion device 20, the spectral feature value of the target 2 based on the model feature data stored in the database 10b and the spectral feature value extracted from the conversion speech signal of the actor 1 whose fundamental frequency has been converted. And the difference feature quantity is applied to the spectrum feature quantity as a filter, so that the voice quality of the actor 1 is converted to the voice quality of the target 2.

ここで、本実施形態においては、アクター1とターゲット2との音高の差異による影響を低減するために基本周波数変換が学習処理及び変換処理の双方の前段で実行される。すなわち、本実施形態においては、基本周波数変換後のアクター1の音声(信号)で学習処理が実行されるため、変換処理の前段でアクター1の変換用音声信号に対して基本周波数変換が実行された場合であっても、学習処理によって得られたモデルデータに基づいて適切に声質を変換することが可能となる。   Here, in the present embodiment, in order to reduce the influence due to the difference in pitch between the actor 1 and the target 2, the fundamental frequency conversion is executed before both the learning process and the conversion process. That is, in this embodiment, since the learning process is executed with the voice (signal) of the actor 1 after the fundamental frequency conversion, the fundamental frequency conversion is executed with respect to the voice signal for conversion of the actor 1 before the conversion process. Even in this case, it is possible to appropriately convert the voice quality based on the model data obtained by the learning process.

本実施形態においては、このような構成により、例えばテーマパークまたはイベント会場等におけるアクター1の発声に基づいて入力された音声信号に応じて、当該アクター1の声質がターゲット2の声質に変換された音声信号をリアルタイムに出力することができるため、例えばアクター1は特定のキャラクタ(ターゲット2)の声を容易に発する(つまり、発声する)ことが可能となる。   In this embodiment, the voice quality of the actor 1 is converted into the voice quality of the target 2 according to the voice signal input based on the voice of the actor 1 at a theme park or an event venue, for example. Since an audio signal can be output in real time, for example, the actor 1 can easily utter (that is, utter) a voice of a specific character (target 2).

また、本実施形態においては比較的簡易な基本周波数変換を使用することができるため、性能の低い電子機器(声質学習装置10及び声質変換装置20)であっても声質変換システムを実現することができる。   In addition, since the basic frequency conversion that is relatively simple can be used in the present embodiment, a voice quality conversion system can be realized even with low-performance electronic devices (voice quality learning device 10 and voice quality conversion device 20). it can.

なお、本実施形態においては学習処理及び変換処理の双方の前段で実行される基本周波数変換における倍率が固定されていればよいため、当該倍率は適宜変更されても構わない。また、例えば学習処理時にターゲット2及びアクター1の音声信号の基本周波数を常に計測して動的な倍率を決定しておき、変換処理においては、入力されたアクター1の音声信号の基本周波数に応じた倍率で基本周波数が変換されるような構成としてもよい。   In the present embodiment, since the magnification in the fundamental frequency conversion executed in the preceding stage of both the learning process and the conversion process only needs to be fixed, the magnification may be changed as appropriate. Also, for example, during the learning process, the basic frequency of the audio signal of the target 2 and the actor 1 is always measured to determine the dynamic magnification. In the conversion process, the basic frequency of the input audio signal of the actor 1 is determined. Alternatively, the fundamental frequency may be converted at a different magnification.

また、本実施形態においては、説明の便宜のためにアクター1とターゲット2とが1対1の関係であるものとして説明したが、複数のアクター1の各々の音声(信号)とターゲット2の音声(信号)との特徴量間の対応関係をモデル化したモデルデータ(つまり、アクター1毎のモデルデータ)を蓄積しておくことによって、当該複数のアクター1の各々が同一のキャラクタの声質で発声することが可能となる。これによれば、特定のキャラクタの声を演じるアクター1の交代が容易となることにより各アクター1への身体的負担を軽減することができるとともに、複数のアクター1間の声質の相似度の向上を実現することができる。なお、アクター1毎のモデルデータを蓄積しておく場合には、上述した固定倍率は、当該アクター1毎に決定されるものとする。   In the present embodiment, for convenience of explanation, the actor 1 and the target 2 have been described as having a one-to-one relationship. However, the voice (signal) of each of the plurality of actors 1 and the voice of the target 2 are described. By accumulating model data (that is, model data for each actor 1) that models the correspondence between feature quantities with (signal), each of the plurality of actors 1 utters with the same character voice quality. It becomes possible to do. According to this, it is possible to reduce the physical burden on each actor 1 by facilitating the replacement of the actor 1 who plays the voice of a specific character, and to improve the similarity of voice quality among a plurality of actors 1 Can be realized. When model data for each actor 1 is accumulated, the fixed magnification described above is determined for each actor 1.

また、アクター1の音声(信号)と複数のターゲット2の各々の音声(信号)との特徴量間の対応関係をモデル化したモデルデータ(つまり、ターゲット2毎のモデルデータ)を蓄積しておくことによって、アクター1が所望のターゲット2を選択し、当該選択されたターゲット2の声質に変換された音声信号が出力されるような構成とすることも可能である。   In addition, model data (that is, model data for each target 2) that models the correspondence relationship between the voice (signal) of the actor 1 and the voice (signal) of each of the plurality of targets 2 is stored. Thus, the actor 1 can select a desired target 2 and output a voice signal converted into the voice quality of the selected target 2.

以下、本実施形態に係る声質変換システムの使用態様の例について説明する。本実施形態においては、アクター1の発声に応じて、当該アクター1とは音域の異なるターゲット2の声質の音声信号を出力することができる。このため、例えば女性のアクター1が男性のターゲット2の声質で会話をするようなことが可能となる。また、本実施形態においては、個人の声の音程の差を補うことができるため、アクター1は普段は発声することができないような音域の声を出すことができるようになり、例えばカラオケ等において歌手の声質で歌うことができるとともに、音域の問題も解消することができる。   Hereinafter, examples of usage modes of the voice quality conversion system according to the present embodiment will be described. In this embodiment, according to the utterance of the actor 1, the voice signal of the voice quality of the target 2 having a different sound range from the actor 1 can be output. For this reason, for example, a female actor 1 can have a conversation with the voice quality of a male target 2. Further, in the present embodiment, since the difference in the pitch of the individual voice can be compensated, the actor 1 can output a voice in a range that cannot normally be uttered. You can sing with the voice quality of the singer and solve the problem of the range.

また、特定のキャラクタ(ターゲット2)の音声を前もって保存しておくことにより、例えば当該特定のキャラクタの声を演じていた人物(声優)が亡くなった後等に、他の人物(アクター1)の音声と蓄積しておいた当該特定キャラクタの音声との特徴量間の対応関係をモデル化したモデルデータを得るような構成とすることも可能である。このような構成によれば、特定のキャラクタの声を演じていた人物が亡くなった後等であっても、他の人物(アクター1)の発声に応じて当該キャラクタが出演するアニメ映画を制作するようなことが可能となる。すなわち、本実施形態に係る声質変換システムは、アニメ映画の制作の時間的制限をなくすといった従来の音声合成とは異なる分野にも適用可能である。   Further, by storing the voice of a specific character (target 2) in advance, for example, after the person (voice actor) who played the voice of the specific character has died, other persons (actor 1) It is also possible to obtain a configuration in which model data obtained by modeling the correspondence between feature amounts between the voice and the stored voice of the specific character is obtained. According to such a configuration, even after the person who was playing the voice of a specific character died, an animated movie in which the character appears in response to the voice of another person (Actor 1) is produced. It becomes possible. That is, the voice quality conversion system according to the present embodiment can be applied to a field different from conventional speech synthesis, such as eliminating the time limit of production of an animated movie.

また、例えば声優等の人物(ターゲット2)が、将来声質が変化してしまうこと等に備えて、保険として本実施形態に係る声質変化システムを利用することも考えられる。すなわち、予め声優等の人物の音声を保存しておき、実際に病気、怪我または老化等の原因によって声質が変化した際等に、現在の音声と蓄積しておいた過去の音声との特徴量間の対応関係をモデル化したモデルデータを得るような構成とすることも可能である。このような構成によれば、声質が変化した後であっても、例えば若い時のような過去の音声(声質)でセリフを言うまたは会話をすることが可能となる。この場合、例えば無料または低価格で保険として音声を保存しておくことができ、実際に声質変化システムを利用する際に料金を支払うようなサービスを提供することができる。なお、近年では声が出せなくなった後であっても人工的な音声を発することができるような機器が開発されているため、このような機器を利用すれば、声が出せなくなった後であっても過去の音声で会話をするようなことが可能となる。また、現役の声優が本システムで登場機会が失われるのではとの問題が考えられるが、むしろその声優の声を同時に世界中のあらゆる場所で用いられることとなるため、本人がその場に居なくても提供が可能となり、むしろ利用機会がふえるため、利用に応じて声優本人に印税などの形で使用料が戻ってくるようなビジネスモデルも提供できる。   In addition, for example, a voice actor or the like (target 2) may use the voice quality changing system according to the present embodiment as insurance in preparation for a future voice quality change. In other words, when the voice of a person such as a voice actor is saved in advance and the voice quality actually changes due to illness, injury or aging, etc., the feature amount of the current voice and the accumulated past voice It is also possible to obtain a configuration in which model data obtained by modeling the correspondence between the two is obtained. According to such a configuration, even after the voice quality has changed, it is possible to say a speech or have a conversation with a past voice (voice quality) such as when young. In this case, for example, voice can be stored as insurance for free or at a low price, and a service that pays a fee when actually using the voice quality change system can be provided. In recent years, devices have been developed that are capable of producing artificial voice even after they cannot speak. However, it is possible to have conversations with past voices. In addition, there may be a problem that the active voice actor will lose the opportunity to appear in this system, but rather the voice actor's voice will be used at every place in the world at the same time. It is possible to provide the service without the need and rather the opportunity to use it. Therefore, it is possible to provide a business model in which the usage fee is returned to the voice actor in the form of a royalty or the like according to the use.

また、声質変換システムを利用する際にアクター1がモデルデータを登録してない第三者に代えられた場合に警告などを出したり、システムを利用できないようにする等の目的で、予めアクター1の声紋登録を行い、声質変換装置20に音声が入力された際に声紋認証を行い、その声紋がアクター1の声紋と一致しない場合はエラーを表示したり変換を実行しないといった構成にすることも出来る。   In addition, when the voice quality conversion system is used, if the actor 1 is replaced by a third party who has not registered the model data, a warning or the like is issued in advance, or the actor 1 cannot be used. The voice print registration is performed, and when voice is input to the voice quality conversion device 20, voice print authentication is performed. If the voice print does not match the voice print of the actor 1, an error is not displayed or conversion is not executed. I can do it.

同様に、映画またはドラマ等の登場人物(例えば、俳優等)の現在の音声と過去の音声との特徴量間の対応関係をモデル化したモデルデータを蓄積しておくことで、例えば当該映画またはドラマ等の回想シーンにおいては当該回想シーンで描かれる時期の当該人物の声質(つまり、過去の音声)でセリフを話すといった用途に声質変化システムが使用されても構わない。   Similarly, by storing model data that models the correspondence between feature amounts of current voices and past voices of characters (eg, actors) of movies or dramas, for example, the movie or drama In a reminiscence scene such as a drama, the voice quality changing system may be used for such purposes as speaking the speech with the voice quality (that is, past voice) of the person at the time drawn in the recollection scene.

更に、例えば海外の映画またはドラマ等において日本語の吹き替えが行われる場合に、当該映画またはドラマに実際に出演している俳優の声質で日本語のセリフを話すようにすることも可能である。   Furthermore, for example, when dubbing in Japanese is performed in an overseas movie or drama, it is possible to speak Japanese words with the voice quality of an actor who actually appears in the movie or drama.

上記したように本実施形態に係る声質変換システムは、言語の影響も少ないため、例えば言語的に意味のないキャラクタの発する特殊言語等であっても声質を変換して出力することが可能である。また、本実施形態に係る声質変換システムは、リアルタイム性を活かして様々な用途に用いることが可能であり、例えば上記したカラオケに用いることも可能であるし、機器による音声合成ガイダンスの声質を変換した音声を出力するような用途に用いることも可能である。   As described above, since the voice quality conversion system according to the present embodiment is less influenced by language, it is possible to convert voice quality even if it is a special language or the like generated by a character that has no linguistic meaning, for example. . In addition, the voice quality conversion system according to the present embodiment can be used for various purposes by taking advantage of real-time characteristics. For example, the voice quality conversion system can also be used for the above-mentioned karaoke, and converts the voice quality of voice synthesis guidance by a device. It is also possible to use it for the purpose of outputting such voice.

また、本実施形態に係る声質変換システムにおいてはGMMに基づく声質変換が採用されるものとして主に説明したが、上述したようにアクター1の音声とターゲット2の音声との特徴量の差分を当該アクター1の音声に合成する(差分スペクトル補正を適用する)ことによってアクター1の声質をターゲット2の声質に変換する手法は例えばGMMではなくニューラルネットワークを用いてモデル化を行う深層学習に基づく声質変換にも適用することができる。このため、本実施形態に係る声質変換システムにおいては、このような深層学習に基づく声質変換が採用されてもよいし、アクター1の音声及びターゲット2の音声を入力して学習を行うものであれば他の声質変換(手法)が採用されても構わない。   In the voice quality conversion system according to the present embodiment, the voice quality conversion based on GMM has been mainly described. However, as described above, the difference in the feature amount between the voice of the actor 1 and the voice of the target 2 is calculated. For example, voice quality conversion based on deep learning in which modeling is performed using a neural network instead of GMM is a method for converting the voice quality of actor 1 into the voice quality of target 2 by synthesizing the voice of actor 1 (applying differential spectrum correction). It can also be applied to. For this reason, in the voice quality conversion system according to the present embodiment, such voice quality conversion based on deep learning may be employed, or learning may be performed by inputting the voice of the actor 1 and the voice of the target 2. For example, other voice quality conversion (method) may be adopted.

なお、本願発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組合せてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

10…声質学習装置、10a…解析エンジン、10b…データベース、11…第1音声入力部(第1の入力手段)、12…第1分析処理部(第1の抽出手段)、13…倍率決定部、14…第2音声入力部(第2の入力手段)、15…基本周波数変換部(第1の変換手段)、16…第2分析処理部(第2の抽出手段)、17…モデル学習部、20…声質変換装置、20a…スピーカ、21…変換テーブル、22…音声入力部(第3の入力手段)、23…基本周波数変換部(第2の変換手段)、24…分析処理部(第3の抽出手段)、25…差分推定部、26…声質変換部、27…音声出力部。   DESCRIPTION OF SYMBOLS 10 ... Voice quality learning apparatus, 10a ... Analysis engine, 10b ... Database, 11 ... 1st audio | voice input part (1st input means), 12 ... 1st analysis process part (1st extraction means), 13 ... Magnification determination part , 14 ... second voice input unit (second input unit), 15 ... fundamental frequency conversion unit (first conversion unit), 16 ... second analysis processing unit (second extraction unit), 17 ... model learning unit 20 ... voice quality conversion device, 20a ... speaker, 21 ... conversion table, 22 ... speech input unit (third input unit), 23 ... basic frequency conversion unit (second conversion unit), 24 ... analysis processing unit (first) 3 extraction means), 25 ... difference estimation unit, 26 ... voice quality conversion unit, 27 ... voice output unit.

Claims (1)

声質学習装置及び声質変換装置を備え、アクターの声質をターゲットの声質に変換する声質変換システムにおいて、
前記声質学習装置は、
前記ターゲットの第1の音声信号を入力する第1の入力手段と、
前記入力された第1の音声信号から第1の特徴量を抽出する第1の抽出手段と、
前記第1の音声信号に対応する前記アクターの第2の音声信号を入力する第2の入力手段と、
前記入力された第2の音声信号に含まれる基本周波数を所定の倍率で変換する第1の変換手段と、
前記基本周波数が変換された第2の音声信号から第2の特徴量を抽出する第2の抽出手段と、
前記抽出された第1の特徴量及び第2の特徴量間の対応関係をモデル化することによって得られるモデルデータを格納するデータベースと
を含み、
前記声質変換装置は、
前記アクターの第3の音声信号を入力する第3の入力手段と、
前記入力された第3の音声信号に含まれる基本周波数を前記所定の倍率で変換する第2の変換手段と、
前記基本周波数が変換された第3の音声信号から第3の特徴量を抽出する第3の抽出手段と、
前記データベースに格納されたモデルデータ及び前記抽出された第3の特徴量に基づいて、前記アクターの声質が前記ターゲットの声質に変換された第4の音声信号を生成する生成手段と、
前記生成された第4の音声信号を出力する出力手段と
を含む
ことを特徴とする声質変換システム。
In a voice quality conversion system that includes a voice quality learning device and a voice quality conversion device, and converts an actor's voice quality to a target voice quality,
The voice quality learning device includes:
First input means for inputting a first audio signal of the target;
First extraction means for extracting a first feature quantity from the input first audio signal;
Second input means for inputting a second audio signal of the actor corresponding to the first audio signal;
First conversion means for converting a fundamental frequency included in the input second audio signal at a predetermined magnification;
Second extraction means for extracting a second feature quantity from the second audio signal converted from the fundamental frequency;
A database that stores model data obtained by modeling the correspondence between the extracted first feature quantity and second feature quantity, and
The voice quality conversion device includes:
Third input means for inputting a third audio signal of the actor;
Second conversion means for converting a fundamental frequency included in the input third audio signal at the predetermined magnification;
Third extraction means for extracting a third feature amount from the third audio signal converted from the fundamental frequency;
Generating means for generating a fourth audio signal in which the voice quality of the actor is converted to the voice quality of the target based on the model data stored in the database and the extracted third feature quantity;
An output means for outputting the generated fourth voice signal. A voice quality conversion system comprising:
JP2016133530A 2016-07-05 2016-07-05 Voice conversion system Active JP6664670B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016133530A JP6664670B2 (en) 2016-07-05 2016-07-05 Voice conversion system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016133530A JP6664670B2 (en) 2016-07-05 2016-07-05 Voice conversion system

Publications (2)

Publication Number Publication Date
JP2018005048A true JP2018005048A (en) 2018-01-11
JP6664670B2 JP6664670B2 (en) 2020-03-13

Family

ID=60949228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016133530A Active JP6664670B2 (en) 2016-07-05 2016-07-05 Voice conversion system

Country Status (1)

Country Link
JP (1) JP6664670B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144404A (en) * 2018-02-20 2019-08-29 日本電信電話株式会社 Voice conversion learning device, voice conversion device, method and program
KR102035448B1 (en) * 2019-02-08 2019-11-15 세명대학교 산학협력단 Voice instrument
WO2021033685A1 (en) * 2019-08-19 2021-02-25 国立大学法人東京大学 Voice conversion device, voice conversion method, and voice conversion program
JP2021525493A (en) * 2018-06-05 2021-09-24 安克創新科技股▲ふん▼有限公司Anker Innovations Technology Co.,Ltd. Sound quality characteristic processing method and system based on deep learning
JPWO2020145353A1 (en) * 2019-01-10 2021-12-23 グリー株式会社 Computer programs, server devices, terminal devices and audio signal processing methods
WO2023276234A1 (en) 2021-06-29 2023-01-05 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023276539A1 (en) * 2021-06-30 2023-01-05 株式会社ドワンゴ Voice conversion device, voice conversion method, program, and recording medium
JP2023013684A (en) * 2021-07-16 2023-01-26 クリムゾンテクノロジー株式会社 Singing voice quality conversion program and singing voice quality conversion device
JP7503870B1 (en) 2023-10-12 2024-06-21 ギャラクシー・ネット株式会社 Music production support program, music production support device, music production support method, and music playback device
JP7652979B1 (en) * 2024-10-29 2025-03-27 株式会社ドワンゴ CONVERSION DEVICE, CONVERSION METHOD, AND PROGRAM

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276200A (en) * 1999-03-26 2000-10-06 Matsushita Electric Works Ltd Voice quality converting system
JP2008085421A (en) * 2006-09-26 2008-04-10 Asahi Kasei Corp Videophone, calling method, program, voice quality conversion / image editing service providing system, and server
WO2011004579A1 (en) * 2009-07-06 2011-01-13 パナソニック株式会社 Voice tone converting device, voice pitch converting device, and voice tone converting method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276200A (en) * 1999-03-26 2000-10-06 Matsushita Electric Works Ltd Voice quality converting system
JP2008085421A (en) * 2006-09-26 2008-04-10 Asahi Kasei Corp Videophone, calling method, program, voice quality conversion / image editing service providing system, and server
WO2011004579A1 (en) * 2009-07-06 2011-01-13 パナソニック株式会社 Voice tone converting device, voice pitch converting device, and voice tone converting method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KAORI YUTANI ET AL.: "Voice conversion based on simultaneous modelling of spectrum and F0", 2009 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS,SPEECH AND SIGNAL PROCESSING, JPN6020000810, 19 April 2009 (2009-04-19), US, pages 3897 - 3900, ISSN: 0004193203 *
宇藤陽介他3名: "声質変換のためのスペクトル・F0の同時モデリング", 電子情報通信学会技術研究報告 SP2007−113, vol. 107, no. 406, JPN6020000809, 13 December 2007 (2007-12-13), pages 103 - 108, ISSN: 0004193202 *
広瀬啓吉, 音声・言語処, vol. 初版第1刷, JPN6020000808, 18 May 2015 (2015-05-18), JP, pages 87 - 89, ISSN: 0004193201 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144404A (en) * 2018-02-20 2019-08-29 日本電信電話株式会社 Voice conversion learning device, voice conversion device, method and program
WO2019163848A1 (en) * 2018-02-20 2019-08-29 日本電信電話株式会社 Device for learning speech conversion, and device, method, and program for converting speech
US11790934B2 (en) 2018-06-05 2023-10-17 Anker Innovations Technology Co., Ltd. Deep learning based method and system for processing sound quality characteristics
JP2021525493A (en) * 2018-06-05 2021-09-24 安克創新科技股▲ふん▼有限公司Anker Innovations Technology Co.,Ltd. Sound quality characteristic processing method and system based on deep learning
JP7137639B2 (en) 2018-06-05 2022-09-14 安克創新科技股▲ふん▼有限公司 SOUND QUALITY CHARACTERISTICS PROCESSING METHOD AND SYSTEM BASED ON DEEP LEARNING
JP7309155B2 (en) 2019-01-10 2023-07-18 グリー株式会社 Computer program, server device, terminal device and audio signal processing method
JP2023123694A (en) * 2019-01-10 2023-09-05 グリー株式会社 Computer program, server device, terminal device and voice signal processing method
JPWO2020145353A1 (en) * 2019-01-10 2021-12-23 グリー株式会社 Computer programs, server devices, terminal devices and audio signal processing methods
KR102035448B1 (en) * 2019-02-08 2019-11-15 세명대학교 산학협력단 Voice instrument
JP7334942B2 (en) 2019-08-19 2023-08-29 国立大学法人 東京大学 VOICE CONVERTER, VOICE CONVERSION METHOD AND VOICE CONVERSION PROGRAM
JP2021032940A (en) * 2019-08-19 2021-03-01 国立大学法人 東京大学 Voice conversion device, voice conversion method, and voice conversion program
WO2021033685A1 (en) * 2019-08-19 2021-02-25 国立大学法人東京大学 Voice conversion device, voice conversion method, and voice conversion program
WO2023276234A1 (en) 2021-06-29 2023-01-05 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023276539A1 (en) * 2021-06-30 2023-01-05 株式会社ドワンゴ Voice conversion device, voice conversion method, program, and recording medium
JP2023006218A (en) * 2021-06-30 2023-01-18 株式会社ドワンゴ Voice conversion device, voice conversion method, program, and storage medium
JP2023013684A (en) * 2021-07-16 2023-01-26 クリムゾンテクノロジー株式会社 Singing voice quality conversion program and singing voice quality conversion device
JP7503870B1 (en) 2023-10-12 2024-06-21 ギャラクシー・ネット株式会社 Music production support program, music production support device, music production support method, and music playback device
WO2025079544A1 (en) * 2023-10-12 2025-04-17 ギャラクシー・ネット株式会社 Song creation assistance program, song creation assistance device, song creation assistance method, and musical reproduction device
JP2025067267A (en) * 2023-10-12 2025-04-24 ギャラクシー・ネット株式会社 Musical piece production support program, musical piece production support device, musical piece production support method, and music reproduction device
JP7652979B1 (en) * 2024-10-29 2025-03-27 株式会社ドワンゴ CONVERSION DEVICE, CONVERSION METHOD, AND PROGRAM

Also Published As

Publication number Publication date
JP6664670B2 (en) 2020-03-13

Similar Documents

Publication Publication Date Title
JP6664670B2 (en) Voice conversion system
US12027165B2 (en) Computer program, server, terminal, and speech signal processing method
JP4296231B2 (en) Voice quality editing apparatus and voice quality editing method
US12380905B2 (en) Signal processing apparatus and method, training apparatus and method
US20160365087A1 (en) High end speech synthesis
CN113948062A (en) Data conversion method and computer storage medium
CN102473416A (en) Voice quality conversion device, method therefor, vowel information generating device, and voice quality conversion system
JP2023007405A (en) Voice conversion device, voice conversion method, program, and storage medium
CN114999441A (en) Avatar generation method, apparatus, device, storage medium, and program product
Obin et al. On the generalization of Shannon entropy for speech recognition
US20220157329A1 (en) Method of converting voice feature of voice
JP7339151B2 (en) Speech synthesizer, speech synthesis program and speech synthesis method
CN116364099A (en) Tone color conversion method, device, electronic apparatus, storage medium, and program product
Kons et al. Neural TTS voice conversion
CN113345416B (en) Voice synthesis method and device and electronic equipment
Khadka et al. Nepali text-to-speech synthesis using tacotron2 for melspectrogram generation
Revis et al. Vocal flexibility and prosodic strategies in a professional impersonator
JP6424419B2 (en) Voice control device, voice control method and program
Mamatov et al. Formation of a Speech Database in the Karakalpak Language for Speech Synthesis Systems
JP2023013684A (en) Singing voice quality conversion program and singing voice quality conversion device
Yang et al. Real time voice alteration based on linear prediction.
JP7652979B1 (en) CONVERSION DEVICE, CONVERSION METHOD, AND PROGRAM
Aso et al. Speakbysinging: Converting singing voices to speaking voices while retaining voice timbre
CN112164387A (en) Audio synthesis method and device, electronic equipment and computer-readable storage medium
JP6163454B2 (en) Speech synthesis apparatus, method and program thereof

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200203

R150 Certificate of patent or registration of utility model

Ref document number: 6664670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250