JP2004302318A - Music data generation system, music data generation device, and music data generation method - Google Patents
Music data generation system, music data generation device, and music data generation method Download PDFInfo
- Publication number
- JP2004302318A JP2004302318A JP2003097483A JP2003097483A JP2004302318A JP 2004302318 A JP2004302318 A JP 2004302318A JP 2003097483 A JP2003097483 A JP 2003097483A JP 2003097483 A JP2003097483 A JP 2003097483A JP 2004302318 A JP2004302318 A JP 2004302318A
- Authority
- JP
- Japan
- Prior art keywords
- chord
- music data
- melody
- note
- approach
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
【課題】与えられた旋律に対して少ない計算量のもとで正しい和音付けを行うことができるようにする。
【解決手段】旋律の入力を受け付け、この旋律の中からアプローチノートを判定する。そして、共通和音領域内でこの判定されたアプローチノートを除く構成音に基づいて和音を生成し、旋律と統合して音楽データとして出力する。また、アプローチノートを判定する場合、まず、与えられた旋律の中から想定される仮のアプローチノートを判定し、この仮のアプローチノートに基づいて生成された和音候補群を生成する。そして、この仮の和音候補群が、あらかじめ記憶手段に記憶されている和音進行に適合しているか否かを判定し、和音進行に適合していないと判定された場合は、適合していない和音が割り当てられている共通和音領域のアプローチノートの解釈を修正し、再度和音の生成処理を行う。
【選択図】 図6An object of the present invention is to make it possible to perform correct chording for a given melody with a small amount of calculation.
An input of a melody is received, and an approach note is determined from the melody. Then, a chord is generated in the common chord area based on the constituent tones except for the determined approach note, integrated with the melody, and output as music data. When determining an approach note, first, a provisional approach note assumed is determined from a given melody, and a chord candidate group generated based on the provisional approach note is generated. Then, it is determined whether or not the provisional chord candidate group conforms to the chord progression stored in the storage means in advance. If it is determined that the chord candidate group does not conform to the chord progression, The interpretation of the approach note in the common chord area to which is assigned is corrected, and chord generation processing is performed again.
[Selection] Fig. 6
Description
【0001】
【発明の属する技術分野】
本発明は、和音付けされた音楽を生成するシステムに関し、より具体的には、入力された旋律のアプローチノートを考慮して音楽を生成するシステムに関するものである。
【0002】
【従来の技術】
現在、ユーザの作曲活動を支援するものとして、例えば、シンガーソングライターなるソフトが市販されている。このソフトは、ポップス系の音楽を対象としたソフトで、パーソナルコンピュータなどを介して旋律の入力を受け付け、その構成音を解析することによって旋律に対応した和音を生成するようにしたものである。
【0003】
【発明が解決しようとする課題】
ところが、このシンガーソングライターなるソフトには、音楽によく出現する経過音、倚音、刺繍音、係留音、先行音、逸音などのアプローチノートを識別する機能を具備していない。このため、与えられた旋律に対する和音付けが適合しないケースも生じる。通常、与えられた旋律に対する和音付けは、その旋律の中の各音が旋律本体のものでなく付加的な音のどれであるかによって和音付けの取扱いが異なってくる。従って、単純に与えられた音列から和音を生成するだけでは完全に旋律に適合した和音を生成することができない。
一方、アプローチノートを取り扱うようにした文献として、以下の特許文献1などが存在する。
【0004】
【特許文献1】
特公平7−111636号公報
【0005】
この公報に記載されたものは、和音設定音としてあげられた和音が設定可能であるかを判定する際、旋律内の音が和音構成音あるいはアプローチノートとして解釈可能であるかを考慮したものである。
【0006】
しかし、この特公平7−111636号公報のものでは、設定可能な和音候補群を求める際に、まずアプローチノートと解釈できる音を和音候補群として設定する際の考慮の対象から外すという処理を施していないため、すべての構成音に対する和音候補を求めなければならず、膨大な数の和音候補群を生成しなければならない。さらに、アプローチノートの解釈には一般に多重解釈の問題がある。例えば、同一の音であっても、前後の和音設定を考慮するとアプローチノートの解釈が異なる場合などがある。これに関して、特公平7−111636号公報の手法では、前後の和音設定などを考慮せずにアプローチノートの判定を行っているために、アプローチノートの判定に間違いを生じてしまう可能性がある。このため、アプローチノートを十分、あるいは正しく利用することはできず、旋律に対する正しい和音付けを行うことができない。
【0007】
そこで、本発明は上記課題に着目してなされたもので、与えられた旋律に対して少ない計算量のもとで正しい和音付けを行うことができるシステムなどを提供することを目的とするものである。
【0008】
【課題を解決するための手段】
すなわち、本発明は上記課題を解決するために、旋律の入力を受け付け、この旋律の中から共通和音領域内のアプローチノートを判定する。そして、この判定されたアプローチノートを除いた構成音に基づいて和音を生成し、旋律と統合して音楽データとして視聴可能に出力できるようにしたものである。
【0009】
このように構成すれば、まずアプローチノートを除いた構成音に基づいて和音を生成するので生成する和音量を少なくすることができ、また、旋律に対応した和音を生成するようにしたので、旋律に適合した音楽データを生成することができるようになる。
【0010】
また、このようにアプローチノートを判定する場合、和音が共通する領域(例えば、1小節)内だけではアプローチノートを断定できない場合がある。この場合、まず、与えられた旋律の中から想定される仮のアプローチノートを判定し、この仮のアプローチノートに基づいて生成された和音候補を生成する。そして、この仮の和音候補を含む和音進行が、あらかじめ記憶手段に記憶されている和音進行に適合しているか否かを判定し、適合していないと判定された場合は、適合していない和音が割り当てられている共通和音領域のアプローチノートの解釈を修正する。
【0011】
このように、共通和音領域内だけでは決定できないアプローチノートを前後の共通和音領域に基づいて決定するようにしたので、より確実にアプローチノートを決定することができ、旋律に適合した和音を生成することができるようになる。
【0012】
さらに、このようにして和音を生成する場合、アプローチノートを除いた構成音に基づいて共通和音領域内で複数の和音を生成し、その中から旋律との整合度、すなわち、旋律からアプローチノートを除いた構成音と和音構成音との重複度、を考慮した和音を抽出するようにする。
【0013】
このように構成すれば、共通和音領域内で複数の和音が生成しうる場合であっても、より旋律に適合しうる自然な音楽データを生成することができるようになる。
【0014】
【発明の実施の形態】
以下、本発明の一実施の形態について図面を参照して説明する。本実施の形態における音楽データ生成システム1は、図1に示すように、携帯電話などで構成された複数の携帯情報端末2と、この携帯情報端末2にネットワーク4を介して接続された音楽データ生成装置3とを具備してなるもので、例えば、着信メロディやメロディメールなどを生成する場合、その携帯情報端末2で旋律の入力を受け付け、音楽データ生成装置3でその旋律からアプローチノートである経過音、倚音、刺繍音、係留音、先行音、逸音を判定して残る構成音から和音付けされた音楽データを生成するようにしたものである。以下、本実施の形態の具体的構成について詳細に説明する。
【0015】
携帯情報端末2は、図2の左側のブロック図に示すように、旋律などの入力を受け付ける入力受付手段20と、インターネットなどのネットワーク4を介して音楽データ生成装置3との間でデータの送受信を行う送信手段21および受信手段22と、音楽データ生成装置3から送信されてきた音楽データなどをはじめとする種々の情報を記憶する記憶手段23と、音楽データを出力する出力手段24とを具備してなる。また、携帯情報端末2はこれ以外にも携帯情報端末2の本来の機能を果たすための各機能を有し、例えば、通常の電話機として機能するための必要な構成などを有する。
【0016】
入力受付手段20は、携帯情報端末2に具備される操作キーおよび、旋律や音楽ジャンルなどの入力を受け付けるためのアプリケーションなどによって構成される。この入力受付手段20によって旋律は、個別の音高情報や音価情報などとして受け付けられ、また、音楽ジャンルは、あらかじめ登録されているポップス、ジャズ、クラッシックなどの音楽ジャンルを選択可能にして受け付けられる。また、この入力受付手段20では、最終的に生成された音楽データを他人にメロディメールとして送信する場合、その他人のメールアドレスなどの送信先情報なども受け付ける。
【0017】
送信手段21は、ネットワーク4を介して音楽データ生成装置3に所定のデータを送信するもので、例えば、入力受付手段20を介して入力された旋律、音楽ジャンル、自己の携帯情報端末2のメールアドレスなどの送信先情報、自己の携帯情報端末2の機種情報などを送信する。また、受信手段22は、音楽データ生成装置3から送信されてきた音楽データなどを受信する。
【0018】
記憶手段23は、携帯情報端末2を動作させるために必要となる情報を記憶するもので、図3に示すように、実行プログラム領域230、音楽データ記憶領域231、端末情報記憶領域232、作業領域233などを設けてこれらに対応した情報を記憶する。このうち実行プログラム領域230には、携帯情報端末2を動作させるための実行プログラムが記憶され、具体的には、図5に示すフローチャートに対応するプログラムが記憶される。また、音楽データ記憶領域231には、音楽データ生成装置3から受信した音楽データがその音楽データに対応した識別情報とともに記憶される。さらに、端末情報記憶領域232には、自端末のメールアドレスなどの識別情報や、自端末の機種情報などが記憶される。
【0019】
出力手段24は、ディスプレイなどの表示出力手段およびスピーカなどの音声出力手段を具備してなるもので、音楽データ生成装置3から送信されてきた音楽データを表示出力し、また、その音楽データを音声出力手段によって音楽データを視聴可能に出力する。この表示出力および音声出力は互いに同期をとりながら出力するプログラムを組み込み、例えば、旋律や和音の進行状況に合わせた表示形態の変更を行う。また、着信メロディとして使用する場合は、着信の検知に伴って、その音楽データが出力する。
【0020】
一方、音楽データ生成装置3は、携帯情報端末2から送信されてきた旋律に基づき、和音付けされた音楽データを自動生成するもので、図4に示すような音楽理論知識・伴奏パターン・ファイル形式・プログラムなどを記憶する記憶手段30、マイクロプロセッサ、および、その他のデバイスなどによって、図2の右側に示すような受信手段31、旋法・調判定手段32、アプローチノート判定手段33、和音生成手段34、伴奏データ生成手段35、統合手段36、メディアデータ生成手段37、送信手段38などを具備してなる。なお、記憶手段30に記憶される情報については後述する。
【0021】
受信手段31は、ネットワーク4を介して携帯情報端末2から送信されてきたデータを受信するもので、旋律、音楽ジャンル、送信先情報や機種情報、音楽データをメロディメールとして送信する場合はその送信先情報などを受信し、これらのデータを一旦記憶手段30に記憶する。
【0022】
旋法・調判定手段32は、入力された旋律に対してその旋法や調を判定するもので、具体的には次のような処理を行う。すなわち、調の決定に際しては、まず音名の出現順にそれを調内音として含む調を抽出し、以下、新しい音名が出現するたびに調の候補を絞り込んでいく。そして、最後の音まで処理して、候補の調が一つだけ残れば、旋法未定のままそれを調とする。但し、この段階では旋法が未定であるので、実施には長短の各旋法に対して調の可能性が一つずつ残ることになり、この状態で次のようにして旋法を決定する。すなわち、旋法の決定は、最後の音が主音になるようにして決める。つまり、旋律の最後の音が「移動ド」による「ド」であれば長調、「ラ」であれば短調と決定する。それ以外の場合は、各音名の出現頻度を見て、主音・属音・下属音の出現頻度が多くなるように主音を決める。そして、調を絞り込んだ結果、候補がなくなってしまった場合は、どれか一つの音名を外すことによって、調候補が残るかどうかを調べ、残ればそれを調とする。通常、その場合は短調で、除いた音は導音(主音の半音下)に対応する。それでも調候補が残らない場合は、音名の出現頻度を調べ、上述の旋法判定と同様の判定を調判定と組み合わせて行う。この場合、旋法と調は同時に確定する。旋律の最後の音が主和音中の音になっていることを確認し、整合がとれなければ、次候補以下を順次調べる。調を絞り込んだ結果、候補が残った場合は、音名の出現頻度を調べ、候補を絞った上で、上と同様にして旋法・調を決定する。
【0023】
アプローチノート判定手段33は、旋律および調が決定された旋律に対し、旋律の各構成音がアプローチノートに該当するか否かを判定する。このアプローチノート判定手段33は、あらかじめ記憶手段30にアプローチノートに関する音楽理論知識情報を記憶しておき、この情報に基づいて各構成音が共通和音領域内でアプローチノートに該当するか否かを判定する。具体的には、下記のような判定を行いうる音楽理論知識情報を記憶手段30に記憶しておき、これに基づいてアプローチノートを判定する。なお、以下の音楽理論知識情報は、一部の音楽理論知識情報を示したものであり、これ以外にも複数の音楽理論知識情報を記憶している。
【0024】
(1)経過音の判定
3音・5音連続する場合、移動ドを“ド”とした“ドレミ”と続く3音があれば、2番目の“レ”を経過音と確定する。
【0025】
(2)刺繍音の判定
“ドレド”と続く3音がある場合は、2番目の“ド”を刺繍音と確定する。
【0026】
(3)倚音の判定
強拍で2度音程の2音については(例えば、小節の一拍目から“レド”となる場合)“レ”は倚音と解釈される可能性があるとする。
【0027】
(4)逸音の判定
跳躍進行の後に続く2度音程の2音(例えば、“ソドレ・・・”)、“ド”と“レ”のどちらかの音が逸音と解釈される可能性があるとする。
【0028】
(5)係留音の判定
ある共通和音領域において、一つ前の共通和音領域から持続する音は前の共通和音領域における和音構成音である可能性があるため、当該共通和音領域においては、係留音と解釈される可能性があるとする。
【0029】
(6)先行音の判定
ある共通和音領域において、次の共通和音領域へ持続する音は、次の共通和音領域における和音構成音である可能性があるため、当該共通和音領域においては、先行音と解釈される可能性があるとする。
【0030】
なお、上記アプローチノートの判定において、倚音・逸音・係留音・先行音の判定については、すべて「可能性がある」と解釈しているが、これらの音がアプローチノートに該当するか否かの確定については、まず、アプローチノートか否かの判定を仮定した状態で、全音に対するアプローチノートの解釈の組み合わせを列挙する。そして、その中から任意の一パターンをランダムもしくは任意に選出し、その解釈を仮のアプローチノートと解釈して次に述べる和音生成手段34で和音生成処理とともにアプローチノートを確定する。
【0031】
和音生成手段34は、上記仮のアプローチノートと解釈された構成音を除いた各旋律の構成音に基づいて和音候補群を複数列挙する。共通和音領域のデフォルトは一小節に設定されるが、ユーザはこれを任意に変更できるものとする。共通和音領域に対して設定可能な和音は、その領域に含まれる音の絶対的な長さを指標として用い、絶対時間の長い音を構成音とする和音名を列挙する。そして、この和音の生成に際しては、携帯情報端末2から送信されてきた音楽ジャンルに基づいて和音候補群が適しているか否かを判定する。
【0032】
具体的には、ある和音設定区間において“ドレミファ”が存在している場合、アプローチノートの解釈については“ド”と“ミ”、あるいは“レ”と“ファ”のどちらをアプローチノートと解釈するかをその和音設定区間で決定することができない。このため、“ド”と“ミ”をアプローチノートであるというのを解釈(a)、“レ”と“ファ”をアプローチノートであるというのを解釈(b)とし、まず、解釈(a)が妥当であるか否かを一つ手前の和音設定区間における和音候補に基づいて判定する。解釈(a)に基づくのなら、“レ”と“ファ”が和音構成音となり、“レ・ファ・ラ”を構成音とする2度マイナー(ハ長調だとDm)が和音候補にあげられる。しかし、一つ手前の和音設定区間において、V7(ハ長調だとG7)が設定されている場合、V7からDmという進行が、ある音楽ジャンルで使用されない場合、Dmは和音候補として相応しくない。すなわち、解釈(a)を採用したこと自体間違いであるとして、解釈(b)を採用する。
【0033】
そして、このようにして「可能性がある」と判定されていたアプローチノートを音楽ジャンルの和音進行を用いて確定し、次に、確定されたアプローチノートを用いて和音を生成する。この和音の生成については、先に使用した音楽ジャンル毎の和音進行は使用されず、独自に共通和音領域の旋律に対応した和音が生成される。ここで、和音の生成に際しては、共通和音領域内において複数の和音の生成が可能であるが、旋律と和音の各構成音との共通度合いを示す整合度を考慮して和音を生成する。
【0034】
そして、共通和音領域間で許容される和音の中のどれか一つを選択する。選択の基準は2次マルコフモデルに基づく音楽データベースのジャンル別統計に従う。すなわち、各時点において前後の続き具合を考慮して確率的に最も高頻度で使用される部分的な和音進行を第一候補として選択するようにする。この使用頻度については、ユーザが入力した音楽ジャンルに基づくものとする。また、先に求めた整合度も和音進行決定において考慮するものとする。データベース中の出現頻度の順に次点以下の候補を存在する場合は3つ程度まで保持しておき、後でユーザから他の和音進行の可能性を要求された場合に備える。2次マルコフモデルを用いた理由は、音楽の進行はある時点を採るとほぼその前後の和音進行に依存すると考えられるからである。ただし、開始和音は原則として主和音とし、第一音が主和音以外の音であった場合、それは装飾音であったと判定する。2つ目の和音は1次マルコフモデルに基づいて決め、3つ目以降の和音は2次マルコフモデルで決める。旋律の最後の音に着ける最終和音は主和音、その前は属和音となるようにする。
【0035】
伴奏データ生成手段35では、このように選択された和音進行に対してドラム音などの伴奏データを抽出する。伴奏パターンは音楽ジャンルによってそれぞれの特徴があるため、各音楽ジャンルの特徴的なドラム音やリズムなどの伴奏パターンを記憶手段30に保持しておき、その中から選択的に使用する。
【0036】
統合手段36は、このようにして抽出された和音や伴奏を旋律に統合して、全体として一つの音楽データにまとめる。そして、この音楽データを、送信元の携帯情報端末2で視聴可能にすべくメディアデータ生成手段37に出力する。
【0037】
メディアデータ生成手段37は、送信元の携帯情報端末2がその音楽データを出力できるファイル形式に変換する。記憶手段30には、携帯情報端末2毎に出力可能なファイル形式をそれぞれ記憶しておき、携帯情報端末2から送信されてきた機種情報を読み出して、その機種情報に対応したファイル形式にフォーマット変換する。
【0038】
送信手段38は、このように生成された音楽データを、ネットワーク4を介して送信元の携帯情報端末2に送信し、そこで視聴可能に出力させる。また、この音楽データを第三者の携帯情報端末2にメロディメールとして送信する場合は、送信先に関するメールアドレスにその音楽データを送信する。
【0039】
次に、このように構成された音楽データ生成システム1における音楽データの生成フローについて図5、図6を用いて説明する。
【0040】
まず、他人へメロディメールを送信する場合、図5の携帯情報端末2のフローに示すように、携帯情報端末2で所定のプログラムを起動して操作キーなどを用いた旋律や音楽ジャンルの入力を受け付け、また、そのメロディメール送信先のメールアドレスの入力を受け付ける(ステップS1)。そして、送信指示の入力がなされることを条件に(ステップS2)、旋律や音楽ジャンル、送信先のメールアドレスを送信し、また、この際、その携帯情報端末2のメールアドレスなどの送信先情報や機種情報なども読み出して一緒に送信する(ステップS3)。
【0041】
音楽データ生成装置3がこれの情報を受信すると(ステップT1)、まず、この受信した旋律に基づいて旋法・調を決定する(ステップT2)。この旋法・調の決定は、まず音名の出現順にそれを調内音として含む調を抽出し、以下、新しい音名が出現するたびに調の候補を絞り込んでいく。そして、最後の音まで処理して、候補の調が一つだけ残れば、旋法未定のままそれを調とする。但し、この段階では旋法が未定であるので、実施には長短の各旋法に対して調の可能性が一つずつ残ることになるが、この状態で次のようにして旋法を決定する。すなわち、旋法の決定は、最後の音が主音になるようにして決める。つまり、旋律の最後の音が「移動ド」による「ド」であれば長調、「ラ」であれば短調と決定する。それ以外の場合は、各音名の出現頻度を見て、主音・属音・下属音の出現頻度が多くなるように主音を決める。そして、調を絞り込んだ結果、候補がなくなってしまった場合は、どれか一つの音名を外すことによって、調候補が残るかどうかを調べ、残ればそれを調とする。通常、その場合は短調で、除いた音は導音(主音の半音下)に対応するが、それでも調候補が残らない場合は、音名の出現頻度を調べ、上述の旋法判定と同様の判定を調判定と組み合わせて行う。この場合、旋法と調は同時に確定する。旋律の最後の音が主和音中の音になっていることを確認し、整合がとれなければ、次候補以下を順次調べる。調を絞り込んだ結果、候補が残った場合は、音名の出現頻度を調べ、候補を絞った上で、上と同様にして旋法・調を決定する。
【0042】
そして、このように旋法・調が決定された旋律に対して、和音生成処理を行う(ステップT3)。この和音生成処理では、まず、図6に示すように、旋律のアプローチノート判定処理を行う(ステップT30)。このアプローチノートの判定処理では、まず、確定されるアプローチノートと仮定されるアプローチノートに基づいて和音候補群を生成する(ステップT31)。そして、この生成された和音候補群による和音進行が、選択された音楽ジャンルの和音進行に適合しているか否かを判定し(ステップT32)、適合していないと判断された場合は、その共通和音領域の仮定されたアプローチノートを修正してすべての共通和音領域のアプローチノートを確定する(ステップT33)。次に、このようにすべての共通和音領域のアプローチノートが確定すれば、旋律からアプローチノートを除き、残った構成音に基づいて和音を生成する(ステップT34)。この和音の生成は音楽ジャンルの和音進行とは別に行われ、共通和音領域内において複数の和音が生成される場合は、旋律との整合度を付与する(ステップT35)。そして、この整合度を用いて2次マルコフモデルに基づく音楽ジャンル別統計に従った和音を一つ選択する(ステップT36)。
【0043】
次に、この生成された和音などに付加される伴奏データを記憶手段30から読み出す(ステップT4)。この伴奏データの抽出は、送信されてきた音楽ジャンルを把握し、この音楽ジャンルに対応する伴奏データを記憶手段30から読み出して行う。
【0044】
そして、これらの旋律、和音、演奏パターンデータを統合して音楽データを生成し(ステップT5)、この音楽データを、送信元の携帯情報端末2で視聴可能にすべく、その機種情報に対応したファイル形式のメディアデータにト変換する(ステップT6)。そして、この変換された音楽データをその音楽データに対応した識別情報とともに送信元の携帯情報端末2に送信確認し(ステップT7)、また、この送信結果である音楽データとその音楽データに対応した識別情報を記憶手段30に記憶しておく(ステップT8)。
【0045】
この音楽データを受信した携帯情報端末2では(ステップS4)、その音楽データの視聴のための出力を行い(ステップS5)、そして、旋律と和音とが適合してないとユーザが判断した場合、その旨の入力を許容して(ステップS6)音楽データ生成装置3に送信する(ステップS7)。この送信に際しては、先に付与された音楽データに対応する識別情報が送信される。
【0046】
これに基づいて音楽データ生成装置3では、この識別情報に対応する音楽データが有する和音と異なる和音を有する音楽データを生成する(ステップT3〜T8)。そして、これらの視聴と修正処理を繰り返した後、ユーザが希望する音楽データが生成された場合、その音楽データをメロディメールとして第三者の携帯情報端末2などに送信する(ステップT9)。
【0047】
このように上記実施の形態では、まず旋律の中からアプローチノートを判定し、このアプローチノートを除く構成音に基づいて和音を生成するようにしたので、少ない計算量で和音を生成することができ、また、より旋律に確実に適合した音楽データを生成することができるようになる。
【0048】
また、この実施の形態では、アプローチノートであるか否かの断定ができない場合、まず、仮の形でアプローチノートを設定して和音候補群を生成し、この和音候補群が一般的な和音進行に適合していなければ、その適合していない共通和音領域のアプローチノート解釈の修正を行うようにしたので、アプローチノート判定の確実性を増すことができ、より旋律に適合した和音を生成することができるようになる。
【0049】
さらに、このように修正処理されたアプローチノートに基づき、共通和音領域の和音を複数生成し、これに加えて、音楽ジャンルの特性を考慮した和音を生成するようにしたので、共通和音領域毎の和音設定(縦割りの和音設定)と、和音進行に基づく和音設定(横割りの和音設定)とを考慮した最適な音楽データを生成することができるようになる。
【0050】
なお、本発明は上記実施の形態に限定されることなく、種々変更することができる。
【0051】
例えば、上記実施の形態では、携帯情報端末2と音楽データ生成装置3を具備する音楽データ生成システム1を説明したが、これに限らず、単一の装置で旋律の入力および和音の生成などの処理を行うようにしても良い。この場合は、本発明における「システム」は単体の装置として解釈される。また、この場合の装置としては、携帯電話やパーソナルコンピュータなどに限らず、電子ピアノなどに適用することもできる。
【0052】
また、上記実施の形態では、着信メロディやメロディメールなどを生成する場合について説明したが、これに限らず、鑑賞用の音楽データや作曲支援用の音楽データを生成するようにしても良い。
【0053】
さらに、上記実施の形態では、和音を生成する場合、まず、旋法・調を判定するようにしたが、旋律を入力する場合、ユーザが事前に旋法や調を決定してから旋律を入力するようにしても良く、もしくは、デフォルトで旋法や調を決定しておき、この状態で旋律の入力を受け付けるようにしても良い。
【0054】
加えて、和音を生成する場合、最終的に決定されたアプローチノートに基づいて複数の和音を生成し、2次マルコフモデルから音楽ジャンルに従った和音を生成するようにしたが、これに限らず、共通和音領域内で生成された複数の和音のうち、最も整合度の高い和音を抽出するようにしても良い。
【0055】
【発明の効果】
本発明では、入力された旋律からアプローチノートを判定し、このアプローチノートを除いた構成音から和音を生成するようにしたので、少ない計算量で和音を生成することができ、また、旋律に適合した和音を生成することができるようになる。
【図面の簡単な説明】
【図1】本実施形態の音楽データ生成システムの概略図
【図2】同形態における音楽データ生成システムの機能ブロック図
【図3】携帯情報端末の記憶手段に記憶される情報を示すメモリマップ
【図4】音楽データ生成装置の記憶手段に記憶される情報を示すメモリマップ
【図5】同形態における音楽データ生成システムのフローチャート
【図6】図5における和音生成処理の詳細フローチャート
【符号の説明】
1・・・音楽データ生成システム
2・・・携帯情報端末
3・・・音楽データ生成装置
20・・・入力受付手段
24・・・出力手段
33・・・アプローチノート判定手段
34・・・和音生成手段
36・・・統合手段[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a system for generating chorded music, and more particularly, to a system for generating music in consideration of input melody approach notes.
[0002]
[Prior art]
Currently, for example, software called a singer-songwriter is commercially available to support a user's music composition activity. This software is intended for pop music, and receives a melody input via a personal computer or the like and analyzes the constituent sounds to generate chords corresponding to the melody.
[0003]
[Problems to be solved by the invention]
However, this singer-songwriter software does not have a function of identifying approach notes such as a transitional sound, an impulsive sound, an embroidery sound, a mooring sound, a preceding sound, and a missed sound that often appear in music. For this reason, there are cases where the chord assignment for the given melody does not match. Normally, a chord assignment for a given melody is handled differently depending on whether each tone in the melody is an additional tone, not the melody itself. Therefore, it is not possible to generate a chord that perfectly fits the melody simply by generating a chord from a given tone sequence.
On the other hand, Patent Literature 1 and the like below exist as literatures that deal with approach notes.
[0004]
[Patent Document 1]
Japanese Patent Publication No. 7-111636
[0005]
The document described in this publication considers whether a sound in a melody can be interpreted as a chord component sound or an approach note when determining whether a chord given as a chord setting sound can be set. is there.
[0006]
However, according to Japanese Patent Publication No. Hei 7-111636, when a set of chord candidates that can be set is determined, a process that first excludes a sound that can be interpreted as an approach note from consideration when setting it as a chord candidate group is performed. Therefore, chord candidates for all constituent tones must be obtained, and an enormous number of chord candidate groups must be generated. Furthermore, interpretation of approach notes generally suffers from multiple interpretations. For example, even for the same sound, there are cases where the interpretation of the approach note is different in consideration of the chord settings before and after. In this regard, in the method disclosed in Japanese Patent Publication No. Hei 7-111636, the approach note is determined without considering the setting of the front and rear chords, and therefore, there is a possibility that an error may occur in the determination of the approach note. For this reason, the approach note cannot be used sufficiently or correctly, and a correct chord cannot be assigned to the melody.
[0007]
Therefore, the present invention has been made in view of the above problems, and has as its object to provide a system and the like that can perform correct chording for a given melody with a small amount of calculation. is there.
[0008]
[Means for Solving the Problems]
That is, in order to solve the above-mentioned problem, the present invention receives an input of a melody and determines an approach note in a common chord area from the melody. Then, a chord is generated based on the constituent sounds excluding the determined approach note, integrated with the melody, and can be output as music data so as to be viewable.
[0009]
With this configuration, the chord is generated based on the constituent notes excluding the approach note, so that the generated chord volume can be reduced, and the chord corresponding to the melody is generated. Music data conforming to the above can be generated.
[0010]
Further, when the approach note is determined in this way, it may not be possible to determine the approach note only in an area (for example, one bar) where chords are common. In this case, first, a tentative approach note assumed from the given melody is determined, and a chord candidate generated based on the tentative approach note is generated. Then, it is determined whether or not the chord progression including the provisional chord candidate conforms to the chord progression stored in advance in the storage means. If it is determined that the chord progression does not match, the non-conforming chord progression is determined. Correct the interpretation of approach notes in the common chord region to which is assigned.
[0011]
As described above, the approach note that cannot be determined only in the common chord area is determined based on the preceding and following common chord areas, so that the approach note can be determined more reliably, and a chord suitable for the melody is generated. Will be able to do it.
[0012]
Further, when a chord is generated in this way, a plurality of chords are generated in a common chord region based on constituent sounds excluding the approach note, and the degree of consistency with the melody, that is, the approach note is derived from the melody. Chords are extracted in consideration of the degree of overlap between the excluded constituent sounds and the chord constituent sounds.
[0013]
With such a configuration, even when a plurality of chords can be generated in the common chord area, natural music data that is more suitable for the melody can be generated.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. As shown in FIG. 1, a music data generation system 1 according to the present embodiment includes a plurality of
[0015]
As shown in the block diagram on the left side of FIG. 2, the
[0016]
The input receiving means 20 is configured by operation keys provided on the
[0017]
The transmission unit 21 transmits predetermined data to the music
[0018]
The storage means 23 stores information necessary for operating the
[0019]
The
[0020]
On the other hand, the music
[0021]
The receiving means 31 is for receiving data transmitted from the
[0022]
The melody / key determination means 32 determines the melody or key of the input melody, and specifically performs the following processing. That is, when determining a key, first, a key that includes a note name in the order in which the note name appears is extracted, and thereafter, key candidates are narrowed down each time a new note name appears. Then, the processing is performed up to the last sound, and if only one candidate key remains, the key is set as the melody is undecided. However, at this stage, since the mode is undecided, there is one key possibility for each of the long and short modes in the implementation. In this state, the mode is determined as follows. In other words, the deciding method is determined such that the last sound is the tonic. In other words, if the last note of the melody is "do" by "moving do", it is determined to be major, and if it is "ra", it is determined to be minor. In other cases, the frequency of appearance of each note name is determined, and the main tone is determined so that the frequency of appearance of the main tone, the belonging sound, and the subordinate sound increases. If no key candidates are found as a result of narrowing down the keys, it is checked whether key candidates remain by removing any one of the note names, and if there are, the key is set. Usually, in that case, it is a minor key, and the removed sound corresponds to a conduction sound (a semitone below the main sound). If there are still no key candidates, the frequency of appearance of the pitch names is checked, and a determination similar to the above-described melody determination is performed in combination with the key determination. In this case, the mode and the key are determined simultaneously. It is confirmed that the last note of the melody is a note in the main chord, and if no match is obtained, the next candidate and the like are sequentially examined. As a result of narrowing down the keys, if there are any candidates remaining, the frequency of appearance of the pitch names is checked, the candidates are narrowed down, and the modalities and keys are determined in the same manner as above.
[0023]
The approach note determining means 33 determines whether or not each constituent sound of the melody corresponds to the approach note for the melody whose melody and key have been determined. The approach note determining means 33 stores music theory knowledge information on approach notes in the storage means 30 in advance, and determines whether or not each constituent sound corresponds to an approach note in the common chord area based on this information. I do. More specifically, music theory knowledge information that can be determined as described below is stored in the
[0024]
(1) Judgment of elapsed sound
When three to five consecutive notes are present, if there are three consecutive notes following “Doremi” with “do” as the moving character, the second “レ” is determined as the elapsed sound.
[0025]
(2) Judgment of embroidery sound
If there are three sounds following “Dredo”, the second “D” is determined as the embroidery sound.
[0026]
(3) Judgment of bias
It is assumed that for two tones with a strong beat and a second interval (for example, when the first beat of a bar is “Red”), “Le” may be interpreted as a pel.
[0027]
(4) Judgment of missed sound
It is assumed that two sounds of the second interval following the jump progress (for example, “Sorere...”), One of “Do” and “Re” may be interpreted as a missed sound.
[0028]
(5) Judgment of mooring sound
In a certain common chord area, the sound that continues from the previous common chord area may be a chord constituent sound in the previous common chord area, and thus may be interpreted as a mooring tone in the common chord area. Suppose there is.
[0029]
(6) Determination of preceding sound
In a certain common chord area, a sound that continues to the next common chord area may be a chord component sound in the next common chord area. Suppose there is.
[0030]
In the above-mentioned approach note determination, all judgments of eccentric sound, missed sound, mooring sound and preceding sound are interpreted as "possible", but whether or not these sounds correspond to the approach note For the determination of the above, first, a list of combinations of interpretations of the approach note for the whole sound is enumerated, assuming that it is determined whether or not the note is an approach note. Then, an arbitrary one of the patterns is randomly or arbitrarily selected, and its interpretation is interpreted as a tentative approach note, and the chord generating means 34 described below determines the approach note together with the chord generation processing.
[0031]
The chord generation means 34 enumerates a plurality of chord candidate groups based on the constituent sounds of each melody excluding the constituent sounds interpreted as the tentative approach notes. The default of the common chord area is set to one measure, but the user can arbitrarily change this. For the chords that can be set for the common chord area, the names of the chords whose constituent sounds are sounds with a long absolute time are listed using the absolute length of the sound included in the area as an index. When generating the chord, it is determined based on the music genre transmitted from the
[0032]
More specifically, when “Dore mifa” exists in a certain chord setting section, the approach note is interpreted as “Do” or “Mi” or “Re” or “Fa” as the approach note. Cannot be determined in the chord setting section. For this reason, interpretation (a) interprets "do" and "mi" as approach notes, and interpretation (b) interprets "re" and "fa" as approach notes. Is appropriate based on the chord candidates in the immediately preceding chord setting section. Based on the interpretation (a), "Le" and "Fa" are chord constituents, and a second minor (Dm in C major) which is composed of "Le Fara" is a chord candidate. . However, if V7 (G7 in C major) is set in the immediately preceding chord setting section, if the progression from V7 to Dm is not used in a certain music genre, Dm is not suitable as a chord candidate. That is, the interpretation (b) is adopted because it is incorrect to adopt the interpretation (a).
[0033]
The approach note thus determined as "possible" is determined using the chord progression of the music genre, and then a chord is generated using the determined approach note. Regarding the generation of this chord, the chord progression for each music genre used earlier is not used, but a chord corresponding to the melody of the common chord area is generated independently. Here, when generating a chord, a plurality of chords can be generated in the common chord area, but the chord is generated in consideration of the degree of consistency indicating the degree of commonality between the melody and each of the constituent tones of the chord.
[0034]
Then, any one of the chords allowed between the common chord regions is selected. The selection criterion follows the genre-specific statistics of the music database based on the second-order Markov model. That is, the partial chord progression that is used most frequently in a probabilistic manner is selected as the first candidate in consideration of the continuation state before and after each time. This use frequency is based on the music genre input by the user. In addition, the degree of matching determined earlier is also taken into account in the chord progression decision. If there are candidates below the next point in the order of appearance frequency in the database, up to about three candidates are retained, in case the user later requests another chord progression possibility. The reason for using the second-order Markov model is that the progress of the music is considered to depend on the progress of the chords before and after a certain point in time. However, the start chord is, in principle, the main chord, and if the first sound is a sound other than the main chord, it is determined that it is a grace tone. The second chord is determined based on the primary Markov model, and the third and subsequent chords are determined based on the secondary Markov model. The final chord attached to the last note of the melody should be the main chord, and the preceding chord should be the subordinate chord.
[0035]
The accompaniment data generating means 35 extracts accompaniment data such as drum sounds for the chord progression selected in this way. Since the accompaniment patterns have different characteristics depending on the music genres, the accompaniment patterns such as the drum sounds and rhythms of each music genre are stored in the storage means 30 and selectively used from among them.
[0036]
The integrating means 36 integrates the chords and accompaniments extracted in this way into a melody and combines them into one music data as a whole. Then, the music data is output to the media data generating means 37 so that the music data can be viewed on the
[0037]
The media data generating means 37 converts the music data into a file format in which the source
[0038]
The transmitting means 38 transmits the music data generated in this way to the
[0039]
Next, a music data generation flow in the music data generation system 1 configured as described above will be described with reference to FIGS.
[0040]
First, when a melody mail is transmitted to another person, as shown in the flow of the
[0041]
When the music
[0042]
Then, a chord generation process is performed on the melody whose melody and key have been determined in this way (step T3). In the chord generation process, first, as shown in FIG. 6, a melody approach note determination process is performed (step T30). In this approach note determination process, first, a chord candidate group is generated based on the approach note assumed to be the determined approach note (step T31). Then, it is determined whether or not the chord progression by the generated chord candidate group conforms to the chord progression of the selected music genre (Step T32). The assumed approach note in the chord area is corrected to determine the approach notes in all common chord areas (step T33). Next, when the approach notes of all the common chord areas are determined as described above, the approach notes are removed from the melody, and a chord is generated based on the remaining constituent tones (step T34). This chord is generated separately from the chord progression of the music genre, and when a plurality of chords are generated in the common chord area, a degree of consistency with the melody is given (step T35). Then, using this degree of consistency, one chord is selected according to the music genre-based statistics based on the secondary Markov model (step T36).
[0043]
Next, the accompaniment data added to the generated chords and the like are read from the storage means 30 (step T4). The extraction of the accompaniment data is performed by ascertaining the transmitted music genre and reading the accompaniment data corresponding to the music genre from the storage means 30.
[0044]
Then, the melody, chord, and performance pattern data are integrated to generate music data (step T5), and the music data is associated with the model information so that the music data can be viewed on the
[0045]
The
[0046]
Based on this, the music
[0047]
As described above, in the above embodiment, the approach note is first determined from the melody, and the chord is generated based on the constituent tones excluding the approach note, so that the chord can be generated with a small amount of calculation. In addition, it is possible to generate music data more appropriately adapted to the melody.
[0048]
Further, in this embodiment, when it is not possible to determine whether or not an approach note is present, first, an approach note is set in a tentative form to generate a chord candidate group. If it does not conform, the approach note interpretation of the common chord region that does not conform is corrected, so that the certainty of approach note judgment can be increased and a chord that is more suited to melody can be generated. Will be able to
[0049]
Further, based on the approach note thus corrected, a plurality of chords in the common chord area are generated, and in addition, chords in consideration of the characteristics of the music genre are generated. Optimum music data can be generated in consideration of chord settings (vertical chord settings) and chord settings based on chord progression (horizontal chord settings).
[0050]
It should be noted that the present invention is not limited to the above embodiment, but can be variously modified.
[0051]
For example, in the above-described embodiment, the music data generation system 1 including the
[0052]
Further, in the above-described embodiment, a case has been described in which a ring tone melody, a melody mail, and the like are generated.
[0053]
Furthermore, in the above embodiment, when a chord is generated, the melody and key are determined first. However, when the melody is input, the user may determine the melody or key in advance and then input the melody. Alternatively, the melody and key may be determined by default, and the input of the melody may be received in this state.
[0054]
In addition, when generating a chord, a plurality of chords are generated based on the finally determined approach note, and a chord according to the music genre is generated from the secondary Markov model, but is not limited to this. Alternatively, a chord with the highest matching degree may be extracted from a plurality of chords generated in the common chord area.
[0055]
【The invention's effect】
In the present invention, an approach note is determined from an input melody, and a chord is generated from constituent sounds excluding the approach note, so that a chord can be generated with a small amount of calculation, and the melody can be adapted. Can be generated.
[Brief description of the drawings]
FIG. 1 is a schematic diagram of a music data generation system according to an embodiment.
FIG. 2 is a functional block diagram of the music data generation system according to the embodiment;
FIG. 3 is a memory map showing information stored in a storage unit of the portable information terminal.
FIG. 4 is a memory map showing information stored in a storage unit of the music data generation device.
FIG. 5 is a flowchart of the music data generation system according to the embodiment.
FIG. 6 is a detailed flowchart of a chord generation process in FIG. 5;
[Explanation of symbols]
1. Music data generation system
2 ・ ・ ・ Portable information terminal
3. Music data generator
20 ... input receiving means
24 output means
33 ... Approach note determination means
34 chord generating means
36 ・ ・ ・ Integration means
Claims (7)
与えられた旋律の中から共通和音領域内のアプローチノートを判定するアプローチノート判定手段と、
この判定されたアプローチノートを除く構成音に基づいて共通和音領域内の和音を生成する和音生成手段と、
この生成された和音と前記旋律とを統合する統合手段と、
この統合された音楽データを出力する出力手段と、
を具備してなることを特徴とする音楽データ生成システム。A music data generating system comprising: an information terminal having input receiving means for receiving an input of a melody; and a music data generating device for generating music data with chords based on the melody input at the information terminal. The data generator is
An approach note determining means for determining an approach note in a common chord region from a given melody,
A chord generating means for generating a chord in the common chord region based on the constituent tones excluding the determined approach note;
Integrating means for integrating the generated chord and the melody;
Output means for outputting the integrated music data;
A music data generation system comprising:
与えられた旋律の中から共通和音領域内のアプローチノートを判定するアプローチノート判定手段と、
この判定されたアプローチノートを除く構成音に基づいて共通和音領域内の和音を生成する和音生成手段と、
この生成された和音と前記旋律とを統合する統合手段と、
この統合された音楽データを出力する出力手段と、
を具備してなることを特徴とする音楽データ生成装置。In a music data generation device that generates music data with chords based on an input melody,
An approach note determining means for determining an approach note in a common chord region from a given melody,
A chord generating means for generating a chord in the common chord region based on the constituent tones excluding the determined approach note;
Integrating means for integrating the generated chord and the melody;
Output means for outputting the integrated music data;
A music data generating device comprising:
与えられた旋律の中からアプローチノートを判定するステップと、
この判定されたアプローチノートを除く構成音に基づいて共通和音領域内で和音を生成するステップと、
この生成された和音と前記旋律とを統合するステップと、
この統合された音楽データを出力するステップと、
を具備してなることを特徴とする音楽データ生成方法。A music data generation method for generating chorded music data based on an input melody,
Determining an approach note from a given melody;
Generating a chord in the common chord area based on the constituent sounds excluding the determined approach note;
Integrating the generated chord and the melody;
Outputting the integrated music data;
A music data generation method, comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003097483A JP4139878B2 (en) | 2003-03-31 | 2003-03-31 | Music data generation system, music data generation device, and music data generation method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003097483A JP4139878B2 (en) | 2003-03-31 | 2003-03-31 | Music data generation system, music data generation device, and music data generation method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2004302318A true JP2004302318A (en) | 2004-10-28 |
| JP4139878B2 JP4139878B2 (en) | 2008-08-27 |
Family
ID=33409254
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003097483A Expired - Fee Related JP4139878B2 (en) | 2003-03-31 | 2003-03-31 | Music data generation system, music data generation device, and music data generation method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4139878B2 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007225661A (en) * | 2006-02-21 | 2007-09-06 | Univ Of Tokyo | Music information analysis method and apparatus |
| JP2019144485A (en) * | 2018-02-23 | 2019-08-29 | ヤマハ株式会社 | Chord identification method and program |
| CN113035161A (en) * | 2021-03-17 | 2021-06-25 | 平安科技(深圳)有限公司 | Chord-based song melody generation method, device, equipment and storage medium |
-
2003
- 2003-03-31 JP JP2003097483A patent/JP4139878B2/en not_active Expired - Fee Related
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007225661A (en) * | 2006-02-21 | 2007-09-06 | Univ Of Tokyo | Music information analysis method and apparatus |
| JP2019144485A (en) * | 2018-02-23 | 2019-08-29 | ヤマハ株式会社 | Chord identification method and program |
| US11322124B2 (en) | 2018-02-23 | 2022-05-03 | Yamaha Corporation | Chord identification method and chord identification apparatus |
| JP7069819B2 (en) | 2018-02-23 | 2022-05-18 | ヤマハ株式会社 | Code identification method, code identification device and program |
| CN113035161A (en) * | 2021-03-17 | 2021-06-25 | 平安科技(深圳)有限公司 | Chord-based song melody generation method, device, equipment and storage medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4139878B2 (en) | 2008-08-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7368652B2 (en) | Music search system and music search apparatus | |
| US6395970B2 (en) | Automatic music composing apparatus that composes melody reflecting motif | |
| KR101813704B1 (en) | Analyzing Device and Method for User's Voice Tone | |
| JP5428458B2 (en) | Evaluation device | |
| JP2004302318A (en) | Music data generation system, music data generation device, and music data generation method | |
| WO2006115323A1 (en) | Method for generating audio data and user terminal and record medium using the same | |
| JP3984830B2 (en) | Karaoke distribution system, karaoke distribution method, and karaoke distribution program | |
| JP7161301B2 (en) | karaoke system | |
| JPH11265190A (en) | Music performance equipment | |
| KR100702059B1 (en) | Ubiquitous music information retrieval system and method based on query pool reflecting customer characteristics | |
| JP2000267679A (en) | Karaoke music retrieval method and karaoke system provided with karaoke music retrieval function | |
| JPH11249674A (en) | Singing scoring system for karaoke equipment | |
| JP4707621B2 (en) | Information retrieval system | |
| JP2019148769A (en) | Karaoke device | |
| JP2008164966A (en) | Karaoke system with singing scoring function | |
| JP4174028B2 (en) | Music image output system and music image output method | |
| JP2019101148A (en) | Communication karaoke system | |
| US20040173083A1 (en) | Music data producing system, server apparatus and music data producing method | |
| JP2002341880A (en) | Music data distribution system | |
| JP3482368B2 (en) | Karaoke device that presents song selection candidates based on voiceprints | |
| JP4319054B2 (en) | A communication karaoke application system that tracks the user's vocal range and reflects it in the performance keys. | |
| US20120198986A1 (en) | Method/Apparatus for training absolute pitch, electronic musical instrument and sound source processing apparatus | |
| JP6667332B2 (en) | Karaoke system | |
| JP2006195384A (en) | Musical tone calculation device and music selection device | |
| JP2007163875A (en) | Speech synthesis apparatus and speech synthesis program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060315 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20060315 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060613 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20060630 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20070401 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080104 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080122 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080227 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080507 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080514 |
|
| FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110620 Year of fee payment: 3 |
|
| R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120620 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120620 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130620 Year of fee payment: 5 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |