[go: up one dir, main page]

JP4153220B2 - 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム - Google Patents

歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム Download PDF

Info

Publication number
JP4153220B2
JP4153220B2 JP2002054487A JP2002054487A JP4153220B2 JP 4153220 B2 JP4153220 B2 JP 4153220B2 JP 2002054487 A JP2002054487 A JP 2002054487A JP 2002054487 A JP2002054487 A JP 2002054487A JP 4153220 B2 JP4153220 B2 JP 4153220B2
Authority
JP
Japan
Prior art keywords
data
phoneme
singing
information
stationary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002054487A
Other languages
English (en)
Other versions
JP2003255974A (ja
Inventor
秀紀 剱持
靖雄 吉岡
ボナダ ジョルディ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002054487A priority Critical patent/JP4153220B2/ja
Priority to US10/375,272 priority patent/US7135636B2/en
Publication of JP2003255974A publication Critical patent/JP2003255974A/ja
Application granted granted Critical
Publication of JP4153220B2 publication Critical patent/JP4153220B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/056MIDI or other note-oriented file format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、人間の歌唱音声を合成する歌唱合成装置、歌唱合成方法及び歌唱合成用プログラムに関する。
【0002】
【関連技術】
従来の歌唱合成装置においては、人間の実際の歌声から取得したデータをデータベースとして保存しておき、入力された演奏データ(音符、歌詞、表情等)の内容に合致したデータをデータベースより選択する。そして、この演奏データを選択されたデータに基づいてデータ変換することにより、本物の人の歌声に近い歌唱音声を合成している。
【0003】
【発明が解決しようとする課題】
しかしながら、従来の歌唱合成装置においては、例えば「saita(咲いた)」と歌わせる場合であっても、音韻と音韻の間で音韻が自然に移り変わっていかず、合成される歌唱音声が不自然な音響をもち、場合によっては何を歌っているのか判別できないようなこともあった。
【0004】
本発明は、この問題を解決することを目的とし、次のような点に着目してなされたものである。
すなわち、歌唱音声においては、例えば「saita(咲いた)」と歌う場合であっても、個々の音韻(「sa」「i」「ta」)が区切って発音されるのではなく、「[#s]sa(a)・[ai]・i・(i)・[it]・ta・(a)」(#は無音を表わす)のように、各音韻間に伸ばし音部分と遷移部分が挿入されて発音がなされるのが通常である。この「saita」の例の場合、[#s] [ai]、[it]が遷移部分であり、(a)(i)(a)が伸ばし音部分である。このように、歌唱音は遷移部分や伸ばし音部分から成り立っている。このため、MIDI情報などの演奏データから歌唱音声を合成する場合においても、遷移部分や伸ばし音部分をいかに本物らしく生成するかが重要である。
そこで、本発明者らは、この遷移部分を自然に再現することが自然な合成歌唱を出力するために必要であると考え、本発明をするに至ったものである。
【0005】
【課題を解決するための手段】
本出願の第1の発明に係る歌唱合成装置は、歌唱を合成するための歌唱情報を記憶する記憶部と、歌唱データを、1つの音素から別の音素に移行する音素連鎖を含む遷移部分と、1つの音素が安定的に発音される定常部分を含んだ伸ばし音部分とで区別して、この遷移部分の音素連鎖データと伸ばし音部分の定常部分データとを記憶する音韻データベースと、前記歌唱情報に基づき、前記音韻データベースに記憶されたデータを選択する選択部と、前記選択部で選択された前記音素連鎖データから前記遷移部分の特徴パラメータを抽出して出力する遷移部分特徴パラメータ出力部と、前記選択部で選択された前記定常部分データに係る伸ばし音部分に先行する前記遷移部分の前記音素連鎖データと、その伸ばし音部分に続く前記遷移部分の前記音素連鎖データとを取得し、この2つの音素連鎖データの調和成分から抽出した特徴パラメータを補間して取得した補間値に前記定常部分データの調和成分から抽出した特徴パラメータの変動成分を加算することにより前記伸ばし音部分の特徴パラメータを生成して出力する伸ばし音部分特徴パラメータ出力部とを備えたことを特徴とする。
【0006】
第1の発明に係る歌唱合成装置において、音韻データベース内の音素連鎖データは、音素連鎖に係る特徴パラメータ及び非調和成分を含んでおり、遷移部分特徴パラメータ出力部は非調和成分を分離するように構成することができる。同様に、音韻データベース内の定常部分データは、定常部分に係る特徴パラメータ及び非調和成分を含んでおり、伸ばし音部分特徴パラメータ出力部は非調和成分を分離するように構成することができる。また、特徴パラメータ及び非調和成分は音声をSMS分析して得られた結果としてもよい。
【0007】
また、第1の発明に係る歌唱合成装置において、歌唱情報はダイナミクス情報を含み、このダイナミクス情報に基づき遷移部分の特徴パラメータ及び伸ばし音部分の特徴パラメータを補正する特徴パラメータ補正手段を備えるよう構成することができる。更に、歌唱情報がピッチ情報を含み、特徴パラメータ補正手段は、ダイナミクスに相当する振幅値を計算する第1振幅計算手段と、遷移部分の特徴パラメータ又は伸ばし音部分の特徴パラメータ及びピッチ情報に基づき生成した倍音列に相当する振幅値を計算する第2振幅計算手段とを備え、第1振幅計算手段の出力と第2振幅計算手段の出力との差に基づき計算した振幅値の補正量により特徴パラメータを補正するように構成することができる。ここで、第1振幅計算手段は、ダイナミクスと振幅値とを関連付けて記憶するテーブルを備えているように構成することができる。また、テーブルは、ダイナミクスと振幅値との対応関係を音素毎に異ならせているように構成することができる。若しくは、テーブルは、ダイナミクスと振幅値との対応関係を周波数毎に異ならせているように構成することができる。
【0008】
更に、第1の発明に係る歌唱合成装置において、音韻データベースは、音素連鎖データと定常部分データをそれぞれピッチに対応させて記憶しており、選択部は、入力されるピッチ情報に基づき対応する音素連鎖データと定常部分データを選択するように構成することができる。また、第1の発明に係る歌唱合成装置において、音韻データベースは、音素連鎖データと定常部分データに加えて表情データを記憶しており、選択部は、入力される歌唱情報中の表情情報に基づき表情データを選択するように構成することができる。
【0009】
本出願の第2の発明に係る歌唱合成方法は、歌唱データを、1つの音素から別の音素に移行する音素連鎖を含む遷移部分と、1つの音素が安定的に発音される定常部分を含んだ伸ばし音部分とで区別して、この遷移部分の音素連鎖データと伸ばし音部分の定常部分データとを記憶するステップと、歌唱を合成するための歌唱情報を入力する入力ステップと、前記歌唱情報に基づき、前記音素連鎖データ又は前記定常部分データを選択する選択ステップと、前記選択ステップで選択された前記音素連鎖データから前記遷移部分の特徴パラメータを抽出して出力する遷移部分特徴パラメータ出力ステップと、前記選択ステップで選択された前記定常部分データに係る伸ばし音部分に先行する前記遷移部分の前記音素連鎖データと、その伸ばし音部分に続く前記遷移部分の前記音素連鎖データとを取得し、この2つの音素連鎖データの調和成分から抽出した特徴パラメータを補間して取得した補間値に前記定常部分データの調和成分から抽出した特徴パラメータの変動成分を加算することにより前記伸ばし音部分の特徴パラメータを生成する伸ばし音部分特徴パラメータ出力ステップとを備えたことを特徴とする。
【0010】
第2の発明に係る歌唱合成方法において、歌唱情報はダイナミクス情報を含み、このダイナミクス情報に基づき遷移部分の特徴パラメータ及び伸ばし音部分の特徴パラメータを補正する特徴パラメータ補正ステップを更に備えるように構成することができる。また、記憶ステップは、音素連鎖データと定常部分データをそれぞれピッチに対応させて記憶しており、選択ステップは、入力されるピッチ情報に基づき対応する音素連鎖データと定常部分データとを選択するように構成することができる。
【0011】
なお、この第2の発明に係る歌唱合成方法は、コンピュータプログラムによりコンピュータにより実行させるようにしてもよい。
【0012】
(本発明の原理説明)
本発明の原理を、図7及び図8を用い、本出願人が先に出願した歌唱合成装置(特願2001-67258号)との対比することにより説明する。
特願2001-67258号に記載の歌唱合成装置による歌唱合成装置の原理を、図7に示している。この歌唱合成装置は、データベースとして、ある時刻1点における音韻の特徴パラメータのデータ(Timbreテンプレート)を記憶させたTimbreテンプレートデータベース51と、伸ばし音中の特徴パラメータの微小な変化(ゆらぎ)のデータ(定常部分(stationary)テンプレート)を記憶させた定常部分テンプレートデータベース53と、音韻から音韻への遷移部分の特徴パラメータの変化を示すデータ(音素連鎖(articulation)テンプレート)を記憶させた音素連鎖テンプレートデータベース52とを備えている。
これらのテンプレートを次のようにして適用することにより、特徴パラメータを生成している。
【0013】
すなわち、伸ばし音部分の合成は、Timbreテンプレートから得られた特徴パラメータに、定常部分テンプレートに含まれる変動分を加算することにより行う。
一方、遷移部分の合成は、同様に特徴パラメータに音素連鎖テンプレートに含まれる変動分を加算することにより行うが、加算対象となる特徴パラメータは、場合によって異なる。例えば当該遷移部分の前後の音韻がいずれも有声音である場合には、前部の音韻の特徴パラメータと、後部の音韻の特徴パラメータを直線補間したものに、音素連鎖テンプレートに含まれる変動分を加算する。また、前部の音韻が有声音で後部の音韻が無音の場合には、前部の音韻の特徴パラメータに、音素連鎖テンプレートに含まれる変動分を加算する。また、前部の音韻が無音で後部の音韻が有声音の場合には、後部の音韻の特徴パラメータに、音素連鎖テンプレートに含まれる変動分を加算する。このように、特願2001-67258号に開示の装置では、Timbreテンプレートから生成された特徴パラメータを基準とし、このTimbre部分の特徴パラメータに合うように音素連鎖部分の特徴パラメータに変更を加えることにより歌唱合成を行っていた。
【0014】
特願2001-67258号に開示の装置では、合成される歌唱音声に不自然さが生じることがあった。その原因としては次のことが挙げられる。
・音素連鎖テンプレートに変更を加えているため、元来その遷移部分が持つ特徴パラメータの変化と異なってしまうこと。
・伸ばし音部分の特徴パラメータも、をTimbreテンプレートから生成された特徴パラメータを基準とし、このTimbreテンプレートの特徴パラメータに定常部分テンプレートの変動分を加算して計算しているため、伸ばし音部分の前の音韻がどのような音韻であっても同じ音韻となってしまっていたこと。
要するに、この特願2001−67258の装置では、Timbreテンプレートの特徴パラメータという、歌唱全体からすると一部分にしか過ぎない部分を基準に伸ばし音部分や遷移部分の特徴パラメータを合わせ込んでいたことから、合成された歌唱が不自然になることがあった。
【0015】
これに対し、本発明では、図8に示すように、音素連鎖テンプレートデータベース52と定常部分テンプレートデータベース53のみを利用し、Timbreテンプレートは基本的には不要である。
そして、演奏データを、遷移部分と伸ばし音部分とに区切った後、音素連鎖テンプレートは遷移部分においてそのまま用いる。このため、歌唱の重要な部分を占める遷移部分の歌唱が自然に聞こえ、合成歌唱の品質が高まっている。
また、伸ばし音部分についても、その伸ばし音部分の両隣に位置する遷移部分の特徴パラメータを直線補間すると共に、補間された特徴パラメータ列に定常部分テンプレートに含まれる変動成分を加算することにより特徴パラメータを生成する。テンプレートに変換を加えないそのままのデータに基づき補間を行うため、歌唱の不自然さは生じない。
【0016】
【発明の実施の形態】
〔第1の実施の形態〕
図1は、第1の実施の形態に係る歌唱合成装置の構成を示す機能ブロック図である。歌唱合成装置は、例えば一般のパーソナルコンピュータにより実現することができ、図1に示す各ブロックの機能は、パーソナルコンピュータ内部のCPUやRAM、ROMなどにより達成され得る。DSPやロジック回路によって構成することも可能である。音韻データベース10は、演奏データに基づいて合成音を合成するためのデータを保持している。この音韻データベース10の作成例を図2により説明する。
【0017】
まず図2(a)に示すように、実際に録音或いは取得した歌唱データ等の音声信号をSMS(spectral modeling synthesis)分析手段31により、調和成分(正弦波成分)と非調和成分に分離する。SMS分析の代わりに、LPC(Linear Predictive Coding)等の他の分析手法を用いてもよい。
次に、音素切り分け手段32により、音素切り分け情報に基づき、音声信号を音素ごとに切り分ける。音素切り分け情報は、例えば人間が音声信号の波形を見ながら所定のスイッチ動作を行うことにより与えるのが通常である。
【0018】
そして、音素ごとに切り分けられた音声信号の調和成分から、特徴パラメータ抽出手段33により特徴パラメータが抽出される。特徴パラメータには、励起波形エンベロープ、励起レゾナンス、フォルマント周波数、フォルマントバンド幅、フォルマント強度、差分スペクトルなどがある。
【0019】
励起波形エンベロープ(ExcitationCurve)は、声帯波形の大きさ(dB)を表わすEgain、声帯波形のスペクトルエンベロープの傾きを表わすEslopeDepth、声帯波形のスペクトルエンベロープの最大値から最小値への深さ(dB)を表わすEslopeの3つのパラメータによって構成されており、以下の式[数1]で表わすことが出来る。
【0020】
【数1】
Excitation Curve (f)=Egain+EslopeDepth*(exp(-Eslope*f)-1)
【0021】
励起レゾナンスは、胸部による共鳴を表わす。中心周波数(ERFreq)、バンド幅(ERBW)、アンプリチュード(ERAmp)の3つのパラメータにより構成され、2次フィルター特性を有している。
【0022】
フォルマントは、1から12個のレゾナンスを組み合わせることにより声道による共鳴を表わす。中心周波数(FormantFreqi、iは1〜12の整数)、バンド幅(FormantBWi、iは1〜12の整数)、アンプリチュード(FormantAmpi、iは1〜12の整数)の3つのパラメータにより構成される。
【0023】
差分スペクトルは、上記の励起波形エンベロープ、励起レゾナンス、フォルマントの3つで表現することの出来ない元の調和成分との差分のスペクトルを持つ特徴パラメータである。
【0024】
この特徴パラメータを、音韻名と対応させて音韻データベース10に記憶させる。非調和成分も、同様にして音韻名対応させて音韻データベース10に記憶させる。この音韻データベース10では、図2(b)に示すように、音素連鎖データと定常部分データとに分けて記憶される。以下では、この音素連鎖データと定常部分データとを総称して「音声素片データ」と称する。
【0025】
音素連鎖データは、先頭音素名、後続音素名、特徴パラメータ及び非調和成分を対応付けたデータ列である。
一方、定常部分データは、1つの音韻名と特徴パラメータ列と非調和成分とを対応付けたデータ列である。
【0026】
図1に戻って、11は演奏データを保持するための演奏データ保持部である。演奏データは、例えば音符、歌詞、ピッチベンド、ダイナミクス等の情報を含んだMIDI情報である。
音声素片選択部12は、演奏データ保持部11に保持される演奏データの入力をフレーム単位で受け付けるとともに(以下、この1単位をフレームデータという)、入力されたフレームデータ中の歌詞データに対応する音声素片データを音韻データベース10から選択して読み出す機能を有する。
【0027】
先行音素連鎖データ保持部13、後方音素連鎖データ保持部14は、定常部分データを処理するために使用されるものである。先行音素連鎖データ保持部13は、処理すべき定常部分データより先行する音素連鎖データを保持するものであり、一方、後方音素連鎖データ保持部14は、処理すべき定常部分データより後方の音素連鎖データを保持するものである。
【0028】
特徴パラメータ補間部15は、先行音素連鎖データ保持部13に保持された音素連鎖データの最終フレームの特徴パラメータと、後方音素連鎖データ保持部14に保持された音素連鎖データの最初のフレームの特徴パラメータとを読出し、タイマ27の示す時刻に対応するように特徴パラメータを時間的に補間する。
【0029】
定常部分データ保持部16は、音声素片選択部12により読み出された音声素片データのうち、定常部分データを一時保持する。一方、音素連鎖データ保持部17は、音素連鎖データを一時保持する。
【0030】
特徴パラメータ変動抽出部18は、定常部分データ保持部16に保持された定常部分データを読み出してその特徴パラメータの変動(ゆらぎ)を抽出し、変動成分として出力する機能を有する。
加算部K1は、特徴パラメータ補間部15の出力と特徴パラメータ変動抽出部18の出力を加算して、伸ばし音部分の調和成分データを出力する部分である。
フレーム読出し部19は、音素連鎖データ保持部17に保持された音素連鎖データを、タイマ27に示す時刻に従ってフレームデータとして読出し、特徴パラメータと非調和成分とに分けて出力する部分である。
【0031】
ピッチ決定部20は、フレームデータ中の音符データに基づき、最終的に合成する合成音のピッチを決定する部分である。また特徴パラメータ補正部21は、加算器K1から出力された伸ばし音部分の特徴パラメータ、及びフレーム読出し部19から出力された遷移部分の特徴パラメータを、演奏データ中に含まれるダイナミクス情報等に基づいて補正する部分である。特徴パラメータ補正部21の前段にはスイッチSW1が設けられ、伸ばし音部分の特徴パラメータと遷移部分の特徴パラメータとを選択的に特徴パラメータ補正部に入力するようになっている。この特徴パラメータ補正部21での詳しい処理内容は後述する。スイッチSW2は、定常部分データ保持部16から読み出された伸ばし音部分の非調和成分と、フレーム読出し部19から読み出された遷移部分の非調和成分を切り替えて出力する。
【0032】
倍音列生成部22は、決定したピッチに従い、フォルマント合成を行うための倍音列を周波数軸上に生成する部分である。
スペクトル包絡生成部23は、特徴パラメータ補正部21で補正された補正後の特徴パラメータに従って、スペクトル包絡を生成する部分である。
【0033】
倍音振幅・位相計算部24は、スペクトル包絡生成部23で生成したスペクトル包絡に従い、倍音列生成部22で生成された各倍音の振幅及び位相を計算する部分である。
加算器K2は、倍音振幅・位相計算部24の出力としての調和成分と、スイッチSW2から出力された非調和成分とを加算する。
逆FFT部25は、加算器K2の出力値を逆高速フーリエ変換して、周波数表現であった信号を時間軸表現の信号に変換するものである。
重ね合せ部26は、時系列順に処理される歌詞データについて次々に得られる信号をその時系列に沿った形で重ね合わせることにより、合成歌唱音声を出力するものである。
【0034】
特徴パラメータ補正部21の詳細について図3に基づいて説明する。特徴パラメータ補正部21は、振幅決定手段41を備えている。この振幅決定手段41は、ダイナミクス−振幅変換テーブルTdaを参照して演奏データ保持部11から入力されるダイナミクス情報に相当する所望の振幅値A1を出力する。
また、スペクトル包絡生成手段42は、スイッチSW1から出力された特徴パラメータに基づき、スペクトル包絡を生成する部分である。
【0035】
倍音列生成手段43は、ピッチ決定部20で決定されたピッチに基づいて倍音列を生成する。振幅計算手段44は、生成されたスペクトル包絡及び倍音に対応する振幅A2を計算する。振幅の計算は、例えば逆FFT等により実行することができる。
加算器K3は、振幅決定手段41で決定された所望の振幅値A1と、振幅計算手段44で計算された振幅値A2との差を出力する。ゲイン補正手段45は、この差に基づき、振幅値の補正量を計算するとともに、このゲイン補正量に従って特徴パラメータを補正する。これにより、所望の振幅に合致する新たな特徴パラメータが得られる。
なお、図3では、テーブルTdaに基づき、ダイナミクスのみに基づいて振幅を決定しているが、これに加えて、音素の種類も考慮して振幅を決定するようなテーブルを採用してもよい。すなわち、同じダイナミクスであっても音素が異なる場合には、異なる振幅値を与えるようなテーブルを採用してもよい。同様に、ダイナミクスに加えて周波数を考慮して振幅を決定するようなテーブルを採用してもよい。
【0036】
次に、この第1の実施の形態に係る歌唱合成装置の作用を、図4に示すフローチャートを参照しつつ説明する。
演奏データ保持部11は、時系列順にフレームデータを出力する。遷移部分と伸ばし音部分とが交互に現れ、遷移部分と伸ばし音部分とでは処理のされ方が異なる。
【0037】
演奏データ保持部11よりフレームデータが入力されると(S1)、音声素片選択部12において、そのフレームデータが伸ばし音部分に関するものか、音韻遷移部分に関するものかが判断される(S2)。伸ばし音部分である場合には(YES)、先行音素連鎖データ保持部13、後方音素連鎖データ保持部14、定常部分データ保持部16に、それぞれ先行音素連鎖データ、後方音素連鎖データ、定常部分データが転送される(S3)。
【0038】
続いて、特徴パラメータ補間部15が、先行音素連鎖データ保持部13に保持された先行音素連鎖データの最終フレームの特徴パラメータを取り出すと共に、後方音素連鎖データ保持部14に保持された後方音素連鎖データの最初のフレームの特徴パラメータを取り出し、この2つの特徴パラメータを直線補間することにより、処理中の伸ばし音部分の特徴パラメータを生成する(S4)。
【0039】
また、定常部分データ保持部16に保持された定常部分データの特徴パラメータが、特徴パラメータ変動抽出部18に供給され、該定常部分の特徴パラメータの変動成分が抽出される(S5)。この変動成分が、加算器K1において特徴パラメータ補間部15から出力された特徴パラメータと加算される(S6)。この加算値が伸ばし音部分の特徴パラメータとしてスイッチSW1を介して特徴パラメータ補正部21に出力され、特徴パラメータの補正が実行される(S9)。一方、定常部分データ保持部16に保持された定常部分データの非調和成分は、スイッチSW2を介して加算器K2に供給される。
スペクトル包絡生成部23は、この補正後の特徴パラメータについてのスペクトル包絡を生成する。倍音振幅・位相計算部24は、スペクトル包絡生成部23で生成したスペクトル包絡に従い、倍音列生成部22で生成された各倍音の振幅及び位相を計算する。この計算結果が、処理中の伸ばし音部のパラメータ列(調和成分)として加算器K2に出力される。
【0040】
一方、S2において、取得されたフレームデータが遷移部分のものである(NO)と判定された場合には、その遷移部分の音素連鎖データが、音素連鎖データ保持部17により保持される(S7)。
次に、フレーム読出し部19が、音素連鎖データ保持部17に保持された音素連鎖データを、タイマ27に示す時刻に従ってフレームデータとして読出し、特徴パラメータと非調和成分とに分けて出力する。特徴パラメータの方は特徴パラメータ補正部21に向けて出力され、非調和成分は加算器K2に向けて出力される。この遷移部の特徴パラメータは、特徴パラメータ補正部21、スペクトル包絡生成部23、倍音振幅・位相計算部24等で上述の伸ばし音の特徴パラメータと同様の処理を受ける。
【0041】
なお、スイッチSW1、SW2は、処理中のデータの種類によって切り替わるようになっているので、スイッチSW1については、伸ばし音部分を処理している間は、加算器K1の方に特徴パラメータ補正部21を接続するようにされ、遷移部分を処理している間は、フレーム読出し部19の方に特徴パラメータ補正部21を接続するようにされている。また、スイッチSW2については、伸ばし音部分を処理している間は、定常部分データ保持部16の方に加算器K2を接続するようにされ、遷移部分を処理している間は、フレーム読出し部19の方に加算器K2を接続するようにされている。
こうして遷移部分、伸ばし音部分の特徴パラメータ及び非調和成分が演算されると、その加算値が逆FFT部25で処理され、重ね合せ手段26により重ね合わせられ、最終的な合成波形が出力される(S10)。
【0042】
〔第2の実施の形態〕
本発明の第2の実施の形態に係る歌唱合成装置を、図5に基づいて説明する。図5は、第2の実施の形態に係る歌唱合成装置の機能ブロック図である。第1の実施の形態と共通する部分については同一の符号を付してその説明は省略する。第1の実施の形態との相違点のひとつは、音韻データベースに記憶されている音素連鎖データ及び定常部分データが、ピッチ(音高)の異なる毎に異なる特徴パラメータ及び非調和成分を割り当てられている、という点である。
また、ピッチ決定部20は、演奏データ中の音符情報に基づいてピッチを決定し、その結果を音声素片選択部に出力するようにされている。
【0043】
この第2の実施の形態の作用を説明すると、演奏データ保持部11からの音符情報に基づいて、ピッチ決定部20が処理中のフレームデータのピッチを決定し、その結果を音声素片選択部12へ出力する。
音声素片選択部12は、この決定されたピッチ及び歌詞情報中の音韻情報に最も近い音素連鎖データ及び定常部分データを読出す。後の処理は第1の実施の形態と同様である。
【0044】
〔第3の実施の形態〕
本発明の第3の実施の形態に係る歌唱合成装置を、図6に基づいて説明する。図6は、第3の実施の形態に係る歌唱合成装置の機能ブロック図である。第1の実施の形態と共通する部分については同一の符号を付してその説明は省略する。第1の実施の形態との相違点の1つは、音韻データベース10に加えて、ビブラート情報等を記憶した表情データベース30と、演奏データ中の表情情報に基づき、この表情データベースから適当なビブラートテンプレートを選択する表情テンプレート選択部30Aを備えている点である。
また、ピッチ決定部20は、演奏データ中の音符情報、及び表情テンプレート選択部30Aからのビブラートデータに基づいてピッチを決定するようにされている。
【0045】
この第3の実施の形態の作用を説明すると、演奏データ保持部11からの歌詞情報に基づいて、音声素片選択部12で音素連鎖データ、定常部分データが音韻データベース10から読み出される点は第1の実施の形態と同様であり、以降の処理も第1の実施の形態と同様である。
一方、演奏データ保持部11からの表情情報に基づいて、表情テンプレート選択部30Aが、最も適合するビブラートデータを表情データベース30より読み出す。この読み出されたビブラートデータ、及び演奏データ中の音符情報に基づき、ピッチ決定部20によりピッチが決定される。
【0046】
以上実施例に沿って本発明を説明したが、本発明はこれら実施例に制限されるものではなく、種々の変更、改良、組合せ等が可能であることは当業者にとって自明である。
【0047】
【発明の効果】
以上説明したように、本発明によれば、遷移部分の合成歌唱音声の自然性が高く保たれ、これにより、合成歌唱音声の自然性を高めることができる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態に係る歌唱合成装置の機能ブロック図である。
【図2】 図1に示す音韻データベース10の作成例を示す。
【図3】 図1に示す特徴パラメータ補正部21の詳細を示す。
【図4】 第1の実施の形態に係る歌唱合成装置におけるデータ処理の手順を示すフローチャートである。
【図5】 本発明の第2の実施の形態に係る歌唱合成装置の機能ブロック図である。
【図6】 本発明の第3の実施の形態に係る歌唱合成装置の機能ブロック図である。
【図7】 特願2001-67258号に記載の歌唱合成装置の原理を示す。
【図8】 本発明に係る歌唱合成装置の原理を示す。
【符号の説明】
10…音韻データベース、 11…演奏データ保持部、 12…音声素片選択部、 13…先行音素連鎖データ保持部、 14…後方音素連鎖データ保持部、 15…特徴パラメータ補間部、 16…定常部分データ保持部、 17…音素連鎖データ保持部、 18…特徴パラメータ変動抽出部、 19…フレーム読出し部、 K1、K2…加算器、20…ピッチ決定部、 21…特徴パラメータ補正部、 22…倍音列生成部、 23…スペクトル包絡生成部、 24…倍音振幅・位相計算部、 25…逆FFT部、 26…重ね合せ部、 27…タイマ、 31…SMS分析手段、 32…音素切り分け手段、 33…特徴パラメータ抽出手段、 41…振幅決定手段、 43…倍音列生成手段、 44…振幅計算手段、 K3…加算器、 45…ゲイン補正部、30…表情データベース、30A…表情テンプレート選択部、 51…Timbreデータベース、 52…音素連鎖テンプレートデータベース、 53…定常部分テンプレートデータベース

Claims (17)

  1. 歌唱を合成するための歌唱情報を記憶する記憶部と、
    歌唱データを、1つの音素から別の音素に移行する音素連鎖を含む遷移部分と、1つの音素が安定的に発音される定常部分を含んだ伸ばし音部分とで区別して、この遷移部分の音素連鎖データと伸ばし音部分の定常部分データとを記憶する音韻データベースと、
    前記歌唱情報に基づき、前記音韻データベースに記憶されたデータを選択する選択部と、
    前記選択部で選択された前記音素連鎖データから前記遷移部分の特徴パラメータを抽出して出力する遷移部分特徴パラメータ出力部と、
    前記選択部で選択された前記定常部分データに係る伸ばし音部分に先行する前記遷移部分の前記音素連鎖データと、その伸ばし音部分に続く前記遷移部分の前記音素連鎖データとを取得し、この2つの音素連鎖データの調和成分から抽出した特徴パラメータを補間して取得した補間値に前記定常部分データの調和成分から抽出した特徴パラメータの変動成分を加算することにより前記伸ばし音部分の特徴パラメータを生成して出力する伸ばし音部分特徴パラメータ出力部とを備えたことを特徴とする歌唱合成装置。
  2. 前記音韻データベース内の音素連鎖データは、前記音素連鎖に係る特徴パラメータ及び非調和成分を含んでおり、前記遷移部分特徴パラメータ出力部は前記非調和成分を分離するように構成された請求項1記載の歌唱合成装置。
  3. 前記音韻データベース内の定常部分データは、前記定常部分に係る特徴パラメータ及び非調和成分を含んでおり、前記伸ばし音部分特徴パラメータ出力部は前記非調和成分を分離するように構成された請求項1記載の歌唱合成装置。
  4. 前記特徴パラメータ及び非調和成分は音声をSMS分析して得られた結果である請求項2又は3に記載の歌唱合成装置。
  5. 前記歌唱情報はダイナミクス情報を含み、このダイナミクス情報に基づき前記遷移部分の特徴パラメータ及び前記伸ばし音部分の特徴パラメータを補正する特徴パラメータ補正手段を備えた請求項1記載の歌唱合成装置。
  6. 前記歌唱情報がピッチ情報を含み、前記特徴パラメータ補正手段は、前記ダイナミクスに相当する振幅値を計算する第1振幅計算手段と、前記遷移部分の特徴パラメータ又は前記伸ばし音部分の特徴パラメータ、及び前記ピッチ情報に基づき生成した倍音列に相当する振幅値を計算する第2振幅計算手段とを備え、前記第1振幅計算手段の出力と前記第2振幅計算手段の出力との差に基づき計算した振幅値の補正量により前記特徴パラメータを補正する請求項5記載の歌唱合成装置。
  7. 前記第1振幅計算手段は、前記ダイナミクスと前記振幅値とを関連付けて記憶するテーブルを備えている請求項6記載の歌唱合成装置。
  8. 前記テーブルは、前記ダイナミクスと前記振幅値との対応関係を音素毎に異ならせている請求項7に記載の歌唱合成装置。
  9. 前記テーブルは、前記ダイナミクスと前記振幅値との対応関係を周波数毎に異ならせている請求項7に記載の歌唱合成装置。
  10. 前記音韻データベースは、音素連鎖データと前記定常部分データをそれぞれピッチに対応させて記憶しており、前記選択部は、入力されるピッチ情報に基づき対応する前記音素連鎖データと前記定常部分データを選択する請求項1記載の歌唱合成装置。
  11. 前記音韻データベースは、前記音素連鎖データと前記定常部分データに加えて表情データを記憶しており、前記選択部は、入力される前記歌唱情報中の前記表情情報に基づき前記表情データを選択する請求項10記載の歌唱合成装置。
  12. 歌唱データを、1つの音素から別の音素に移行する音素連鎖を含む遷移部分と、1つの音素が安定的に発音される定常部分を含んだ伸ばし音部分とで区別して、この遷移部分の音素連鎖データと伸ばし音部分の定常部分データとを記憶するステップと、
    歌唱を合成するための歌唱情報を入力する入力ステップと、
    前記歌唱情報に基づき、前記音素連鎖データ又は前記定常部分データを選択する選択ステップと、
    前記選択ステップで選択された前記音素連鎖データから前記遷移部分の特徴パラメータを抽出して出力する遷移部分特徴パラメータ出力ステップと、
    前記選択ステップで選択された前記定常部分データに係る伸ばし音部分に先行する前記遷移部分の前記音素連鎖データと、その伸ばし音部分に続く前記遷移部分の前記音素連鎖データとを取得し、この2つの音素連鎖データの調和成分から抽出した特徴パラメータを補間して取得した補間値に前記定常部分データの調和成分から抽出した特徴パラメータの変動成分を加算することにより前記伸ばし音部分の特徴パラメータを生成する伸ばし音部分特徴パラメータ出力ステップとを備えた歌唱合成方法。
  13. 前記歌唱情報はダイナミクス情報を含み、このダイナミクス情報に基づき前記遷移部分の特徴パラメータ及び前記伸ばし音部分の特徴パラメータを補正する特徴パラメータ補正ステップを更に備えた請求項12記載の歌唱合成方法。
  14. 前記記憶ステップは、前記音素連鎖データと前記定常部分データをそれぞれピッチに対応させて記憶しており、前記選択ステップは、入力されるピッチ情報に基づき対応する前記音素連鎖データと前記定常部分データとを選択する請求項13記載の歌唱合成方法。
  15. 歌唱データを、1つの音素から別の音素に移行する音素連鎖を含む遷移部分と、1つの音素が安定的に発音される定常部分を含んだ伸ばし音部分とで区別して、この遷移部分の音素連鎖データと伸ばし音部分の定常部分データとを記憶するステップと、
    少なくとも音符情報と歌詞情報とを含む歌唱情報を入力する入力ステップと、
    前記歌唱情報に基づき、前記音素連鎖データ又は前記定常部分データを選択する選択ステップと、
    前記選択ステップで選択された前記音素連鎖データから前記遷移部分の特徴パラメータを抽出して出力する遷移部分特徴パラメータ生成ステップと、
    前記選択ステップで選択された前記定常部分データに係る前記伸ばし音部分に先行する前記遷移部分の前記音素連鎖データと、その伸ばし音部分に続く前記遷移部分の前記音素連鎖データとを取得し、この2つの音素連鎖データの調和成分から抽出した特徴パラメータを補間して取得した補間値に前記定常部分データの調和成分から抽出した特徴パラメータの変動成分を加算することにより前記伸ばし音部分の特徴パラメータを生成する伸ばし音部分特徴パラメータ生成ステップとをコンピュータに実行させるように構成された歌唱合成用プログラム。
  16. 前記歌唱情報はダイナミクス情報を含み、このダイナミクス情報に基づき前記遷移部分の特徴パラメータ及び前記伸ばし音部分の特徴パラメータを補正する特徴パラメータ補正ステップを更に備えた請求項15記載の歌唱合成用プログラム。
  17. 前記記憶ステップは、前記音素連鎖データと前記定常部分データとをそれぞれピッチに対応させて記憶しており、前記選択ステップは、入力されるピッチ情報に基づき対応する前記音素連鎖データと前記定常部分データを選択する請求項15記載の歌唱合成用プログラム。
JP2002054487A 2002-02-28 2002-02-28 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム Expired - Fee Related JP4153220B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002054487A JP4153220B2 (ja) 2002-02-28 2002-02-28 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム
US10/375,272 US7135636B2 (en) 2002-02-28 2003-02-27 Singing voice synthesizing apparatus, singing voice synthesizing method and program for singing voice synthesizing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002054487A JP4153220B2 (ja) 2002-02-28 2002-02-28 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006171331A Division JP2007226174A (ja) 2006-06-21 2006-06-21 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム

Publications (2)

Publication Number Publication Date
JP2003255974A JP2003255974A (ja) 2003-09-10
JP4153220B2 true JP4153220B2 (ja) 2008-09-24

Family

ID=27750971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002054487A Expired - Fee Related JP4153220B2 (ja) 2002-02-28 2002-02-28 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム

Country Status (2)

Country Link
US (1) US7135636B2 (ja)
JP (1) JP4153220B2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879402B2 (ja) * 2000-12-28 2007-02-14 ヤマハ株式会社 歌唱合成方法と装置及び記録媒体
JP4067762B2 (ja) * 2000-12-28 2008-03-26 ヤマハ株式会社 歌唱合成装置
JP3823930B2 (ja) * 2003-03-03 2006-09-20 ヤマハ株式会社 歌唱合成装置、歌唱合成プログラム
JP4649888B2 (ja) * 2004-06-24 2011-03-16 ヤマハ株式会社 音声効果付与装置及び音声効果付与プログラム
JP4265501B2 (ja) 2004-07-15 2009-05-20 ヤマハ株式会社 音声合成装置およびプログラム
KR100658869B1 (ko) * 2005-12-21 2006-12-15 엘지전자 주식회사 음악생성장치 및 그 운용방법
JP4839891B2 (ja) * 2006-03-04 2011-12-21 ヤマハ株式会社 歌唱合成装置および歌唱合成プログラム
JP4548424B2 (ja) * 2007-01-09 2010-09-22 ヤマハ株式会社 楽音処理装置およびプログラム
EP2159790B1 (en) * 2007-06-27 2019-11-13 NEC Corporation Audio encoding method, audio decoding method, audio encoding device, audio decoding device, program, and audio encoding/decoding system
US8127075B2 (en) * 2007-07-20 2012-02-28 Seagate Technology Llc Non-linear stochastic processing storage device
US7977560B2 (en) * 2008-12-29 2011-07-12 International Business Machines Corporation Automated generation of a song for process learning
JP5471858B2 (ja) * 2009-07-02 2014-04-16 ヤマハ株式会社 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
US8731943B2 (en) * 2010-02-05 2014-05-20 Little Wing World LLC Systems, methods and automated technologies for translating words into music and creating music pieces
US20110219940A1 (en) * 2010-03-11 2011-09-15 Hubin Jiang System and method for generating custom songs
US8729374B2 (en) * 2011-07-22 2014-05-20 Howling Technology Method and apparatus for converting a spoken voice to a singing voice sung in the manner of a target singer
JP5846043B2 (ja) * 2012-05-18 2016-01-20 ヤマハ株式会社 音声処理装置
JP2014178620A (ja) * 2013-03-15 2014-09-25 Yamaha Corp 音声処理装置
WO2015194423A1 (ja) * 2014-06-17 2015-12-23 ヤマハ株式会社 文字に基づく音声生成のためのコントローラ及びシステム
JP6728754B2 (ja) * 2015-03-20 2020-07-22 ヤマハ株式会社 発音装置、発音方法および発音プログラム
JP6724932B2 (ja) * 2018-01-11 2020-07-15 ヤマハ株式会社 音声合成方法、音声合成システムおよびプログラム
CN113409809B (zh) * 2021-07-07 2023-04-07 上海新氦类脑智能科技有限公司 语音降噪方法、装置及设备
US12444393B1 (en) * 2025-04-17 2025-10-14 Eidol Corporation Systems, devices, and methods for dynamic synchronization of a prerecorded vocal backing track to a live vocal performance

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH056168A (ja) 1991-06-26 1993-01-14 Yamaha Corp 電子楽器
US5536902A (en) 1993-04-14 1996-07-16 Yamaha Corporation Method of and apparatus for analyzing and synthesizing a sound by extracting and controlling a sound parameter
JP3536996B2 (ja) * 1994-09-13 2004-06-14 ソニー株式会社 パラメータ変換方法及び音声合成方法
US5703311A (en) * 1995-08-03 1997-12-30 Yamaha Corporation Electronic musical apparatus for synthesizing vocal sounds using format sound synthesis techniques
US5998725A (en) * 1996-07-23 1999-12-07 Yamaha Corporation Musical sound synthesizer and storage medium therefor
US5895449A (en) * 1996-07-24 1999-04-20 Yamaha Corporation Singing sound-synthesizing apparatus and method
JP3834804B2 (ja) 1997-02-27 2006-10-18 ヤマハ株式会社 楽音合成装置および方法
JPH11184490A (ja) 1997-12-25 1999-07-09 Nippon Telegr & Teleph Corp <Ntt> 規則音声合成による歌声合成方法
JP4067762B2 (ja) * 2000-12-28 2008-03-26 ヤマハ株式会社 歌唱合成装置
JP3879402B2 (ja) * 2000-12-28 2007-02-14 ヤマハ株式会社 歌唱合成方法と装置及び記録媒体
JP3838039B2 (ja) 2001-03-09 2006-10-25 ヤマハ株式会社 音声合成装置
JP3941611B2 (ja) * 2002-07-08 2007-07-04 ヤマハ株式会社 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム

Also Published As

Publication number Publication date
US7135636B2 (en) 2006-11-14
US20030159568A1 (en) 2003-08-28
JP2003255974A (ja) 2003-09-10

Similar Documents

Publication Publication Date Title
JP4153220B2 (ja) 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム
JP3941611B2 (ja) 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム
JP4067762B2 (ja) 歌唱合成装置
JP6024191B2 (ja) 音声合成装置および音声合成方法
JP6733644B2 (ja) 音声合成方法、音声合成システムおよびプログラム
WO2018084305A1 (ja) 音声合成方法
JP4207902B2 (ja) 音声合成装置およびプログラム
JP3711880B2 (ja) 音声分析及び合成装置、方法、プログラム
EP1701336B1 (en) Sound processing apparatus and method, and program therefor
JP3966074B2 (ja) ピッチ変換装置、ピッチ変換方法及びプログラム
JP4844623B2 (ja) 合唱合成装置、合唱合成方法およびプログラム
JP4304934B2 (ja) 合唱合成装置、合唱合成方法およびプログラム
JP4757971B2 (ja) ハーモニー音付加装置
JP2007226174A (ja) 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム
JP3540159B2 (ja) 音声変換装置及び音声変換方法
JP3502268B2 (ja) 音声信号処理装置及び音声信号処理方法
JPH10124082A (ja) 歌声合成装置
JP2004061753A (ja) 歌唱音声を合成する方法および装置
JP4349316B2 (ja) 音声分析及び合成装置、方法、プログラム
JP3979213B2 (ja) 歌唱合成装置、歌唱合成方法並びに歌唱合成用プログラム
JP3967571B2 (ja) 音源波形生成装置、音声合成装置、音源波形生成方法およびプログラム
JP3540160B2 (ja) 音声変換装置及び音声変換方法
JP2000003199A (ja) 音声変換装置及び音声変換方法
JP2000020100A (ja) 音声変換装置及び音声変換方法
JP2018077282A (ja) 音声合成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060414

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060615

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060728

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060908

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080703

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130711

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees