[go: up one dir, main page]

JP2004287013A - Automatic accompaniment device and program - Google Patents

Automatic accompaniment device and program Download PDF

Info

Publication number
JP2004287013A
JP2004287013A JP2003077981A JP2003077981A JP2004287013A JP 2004287013 A JP2004287013 A JP 2004287013A JP 2003077981 A JP2003077981 A JP 2003077981A JP 2003077981 A JP2003077981 A JP 2003077981A JP 2004287013 A JP2004287013 A JP 2004287013A
Authority
JP
Japan
Prior art keywords
section
data
accompaniment
automatic accompaniment
note
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003077981A
Other languages
Japanese (ja)
Other versions
JP4147991B2 (en
Inventor
Chieko Koga
智恵子 古賀
Shigetetsu Oguri
成哲 小栗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003077981A priority Critical patent/JP4147991B2/en
Publication of JP2004287013A publication Critical patent/JP2004287013A/en
Application granted granted Critical
Publication of JP4147991B2 publication Critical patent/JP4147991B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To attain automatic accompaniment having natural hearing by preventing the mixture of unnatural musical sounds at the time of reproducing automatic accompaniment data prepared by using an accompaniment style. <P>SOLUTION: The automatic accompaniment data of various main sections are added to the body part (melody data of TR1) of music data, an introduction section IntroA is added to the front of the body part, an ending section EndingB is added to the rear of the body part, and whether note data (note data of TR2) other than melody data exist in sections connected to the front/rear of the body part or not is judged. When note data exist in the section, accompaniment data components having scale elements in the introduction section IntroA added to the section are substantially invalidated. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、楽曲データに自動伴奏データを付加する自動伴奏装置及びプログラムに関し、特に自動伴奏データの作成を簡易に行いうるものに関する。
【0002】
【従来の技術】
【特許文献1】特開平4―240893号公報
【特許文献2】特開平11―126076号公報
【特許文献3】特開平4―243295号公報
【0003】
前記特許文献1には、シーケンサー等の自動伴奏機能を有する演奏装置において、或る楽曲のメロディの演奏データに対応する自動伴奏データを作成する際に、イントロセクション、メインセクション、エンディングセクション等の複数の伴奏セクションデータからなる伴奏スタイルデータを用いて、メインセクションの開始小節番号の前にイントロセクションを配置し、また、メインセクションの終了小節番号の後にエンディングセクションを配置することで1曲分の自動伴奏データを作成することが開示されている。
また、前記特許文献2には、楽曲の演奏データを解析して、該演奏データに対応するコード(和音)進行列と、対応する伴奏スタイルデータの各セクション配列とを自動生成し、演奏データの前にイントロセクションを自動的に付加し、また、演奏データの後にエンディングセクションを自動的に付加する技術が示されている。
【0004】
【発明が解決しようとする課題】
イントロセクションやエンディングセクションの自動伴奏データは、何らかのコード進行に対応すべく作成されており、通常は音階的要素を含むフレーズパートやコード進行等を含むことが多いため、その再生時には、単独で、つまり当該イントロセクション乃至エンディング伴奏音以外の楽音(音階的要素)等を伴わずに再生されることが望ましい。しかるに、イントロセクション乃至エンディングセクション等伴奏セクションデータが配置された箇所に重複して、何らかの他のノートデータ(音階的要素を持つデータ)が存在すると、該他のノートデータに基づく演奏音と共にイントロセクション、エンディングセクション等の伴奏音が再生されてしまい、ユーザに対して聴覚上の不調和感を与える、すなわち再生音を音楽的に不自然たらしめてしまう、という不都合が生じていた。
そのような不都合に鑑みて、イントロセクション乃至エンディングセクションを例えばリズムパートのみからなる伴奏データに差し替えたり、或いは、イントロセクション乃至エンディングセクション中の任意の伴奏パート(上記楽音フレーズ等)をミュート制御するよう設定することで、上記不都合を回避しうる技術が存在するが、その場合、ユーザ自らが当該自動伴奏データの設定状態を熟知していなければならず、その適切な実施は容易ではなかった。
また、上記特許文献3には、ユーザのマニュアル演奏操作に応じたメロディー演奏音の再生中に自動伴奏音の音量を減少させるよう制御する電子楽器が開示されていたが、上述のようにイントロセクション乃至エンディングセクションと共に他のノートデータが並存する場合にイントロ乃至エンディング伴奏音の音量を減少制御したとしても、如上の不都合を解決するには至らない。
【0005】
この発明は以上の点に鑑みてなされたもので、伴奏スタイルを用いて作成した自動伴奏データの再生時に音楽的に不自然な楽音の混在を防ぐことで、自然な聴覚の自動伴奏が可能となる自動伴奏装置及びプログラムを提供することを目的とする。
【0006】
【課題を解決するための手段】
この発明は、楽曲データに自動伴奏データを付加するためにコンピュータによって実行されるプログラムであって、前記楽曲データの本体部に対して1又は複数セクションの自動伴奏データを付加すると共に、該本体部の前及び/又は後につながる区間に対応して追加用セクションの自動伴奏データを付加する手順と、前記楽曲データにおける前記本体部の前及び/又は後につながる前記区間にノートデータが存在するか否かを判定する手順と、前記区間にノートデータが存在すると判定された場合、該区間に付加される前記追加用セクションにおける音階的要素を持つ伴奏データ成分を実質的に無効にする手順とを具えるプログラムである。
【0007】
前記楽曲データにおける前記本体部の前及び/又は後につながる前記区間にノートデータが存在するか否かを判定し、前記区間にノートデータが存在すると判定された場合、該区間に付加される前記追加用セクションにおける音階的要素を持つ伴奏データ成分を実質的に無効にする。例えば、前記区間にノートデータが存在すると判定された場合に、前記追加用セクションにおけるリズムパート以外の伴奏データ成分を実質的に無効にすることで、前記区間に存在するノートデータの再生音と、前記追加用セクションにおける音階的要素を持つ伴奏データ成分に基づく伴奏音とが音楽的に不自然に混在されることを防ぎ、聴覚上/音楽的に自然な再生音を得ることができる。
【0008】
また、この発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるのみならず、装置の発明として構成して実施することもできる。
【0009】
【発明の実施の形態】
以下、添付図面を参照してこの発明の一実施例について説明する。
図1は、この発明の一実施例に係る自動伴奏装置のハードウェア構成を示すブロック図である。この自動伴奏装置は、例えばシーケンサ等のような自動伴奏機能を有する装置であって、CPU1に対して、バス1Bを介してROM2、RAM3、外部記憶装置4、通信インターフェース(通信I/F)5、入力操作部6、表示部7、音源8等が接続されて成る。CPU1は、ROM2、RAM3等メモリ内の各種プログラムを実行し、自動伴奏装置の全体的な動作制御を行う。この実施例に係る自動伴奏装置は、CPU1の制御の下、与えられたメロディー等の演奏データを解析し、曲本体部分に対してイントロセクション、エンディングセクション等の追加用セクションを付加する工程を含む自動伴奏データ作成処理を行いうる。表示部7に接続されたディスプレイ9には自動伴奏データ作成処理等における処理画面が表示され、ユーザは、画面表示に従い、マウス、キーボード等の入力操作部6を用いて各種設定の入力指示等を行える。また、当該自動伴奏装置は通信I/F5を介して他のコンピュータや電子楽器等の適宜の外部機器11と接続しうる。
【0010】
CPU1によって、再生すべき楽曲データ(自動演奏データ)に基づく自動演奏処理が行われることで、再生すべき楽音を指示する演奏データがバス1Bを介して音源8に与えられる。音源8は、与えられた演奏データに応じた音高、音色、音量等からなる楽音信号を生成する。音源8の音源方式は、波形メモリ読み出し方式やFM方式等、従来から知られるいかなる方式を用いてもよい。また、音源8は、ハードウェア音源ボードで構成されていてもよいし、ソフトウェア音源プログラムで構成されていてもよい。音源8で生成した楽音信号は、ディジタル/アナログ変換の後にアンプやスピーカなどを含むサウンドシステム10から発音される。
【0011】
なお、当該実施例において演奏データのフォーマットは、MIDI規格やMIDI規格の簡易版のデータフォーマット等からなる公知の自動演奏シーケンスデータの形式と同様であってよく、演奏イベントの発生時刻を1つ前のイベントからの時間で表した「イベント+相対時間」、演奏イベントの発生時刻を曲や小節内における絶対時間で表した「イベント+絶対時間」、音符の音高と符長あるいは休符と休符長で演奏データを表した「音高(休符)+符長」、演奏の最小分解能毎にメモリの領域を確保し、演奏イベントの発生する時刻に対応するメモリ領域に演奏イベントを記憶した「ベタ方式」等、どのような形式でもよい。
【0012】
当該自動伴奏装置で使用する楽曲データには、当該楽曲のメロディーパートに対応する演奏データ(メロディデータ)や、その他の演奏データや、該メロディーデータに対応するコードデータ(和音情報)や、自動伴奏データの生成に用いる伴奏スタイルデータなどが含まれる。この伴奏スタイルデータは、ロック、ポップス等各種の伴奏スタイルに応じた伴奏データを生成するためのパターンデータである。楽曲データや各種プログラムは、ROM2、RAM3或いは外部記憶装置4等メモリ内に記憶されたもの、或いは通信I/F5を介して他のコンピュータ等の外部機器11から取得したものを利用できる。また、通信I/F5を介してインターネット等通信ネットワークに接続することで外部のサーバ装置等から自動演奏データや各種プログラムを取得してもよい。なお、外部記憶装置4には、ハードディスク、フロッピー(登録商標)ディスク又はフレキシブルディスク(登録商標)、コンパクトディスク(CD‐ROM、CD‐RAM)、光磁気ディスク(MO)、ZIPディスク、DVD(Digital Versatile Disk)、半導体メモリ等、適宜の形態の着脱可能な外部記憶媒体を利用してよい。
【0013】
図2(a)、(b)は、伴奏スタイルデータの構成例を示す概念図である。図2(a)に示すように、1つの伴奏スタイルデータは、大別して、ヘッダー部20とセクション部21から構成される。ヘッダー部20には当該伴奏スタイルデータの伴奏スタイル名(例えばロック、ポップス等のような該当する演奏スタイルの名称)、拍子情報、テンポ情報等が含まれる。セクション部21は、メインセクション、イントロセクション、エンディングセクション、フィルインセクション等の複数のセクションデータから構成される。メインセクションは、当該楽曲のメロディ本体部に対応する伴奏パターンである。イントロセクションは、当該楽曲の導入部で演奏されるべき伴奏パターンである。エンディングセクションは、当該楽曲の終了部で演奏されるべき伴奏パターンである。また、フィルインセクションは、フィルイン演奏に用いる伴奏パターンである。
各伴奏パターン毎のセクションデータ22は、(b)に示すように、当該セクションの名称(メイン、イントロ、エンディング等)、当該セクションの1サイクル分の小節数や、伴奏パートの設定情報等を含む各種設定情報と、伴奏パターンデータから構成される。各セクションの伴奏パターンデータは、伴奏パート演奏音の基となる音階的要素を持つ伴奏データ成分を含み、指定されたコード進行に応じた伴奏音を生成させる。各伴奏パターンデータは、公知のように、ドラムパート(リズムパート)、ベースパート、コードバッキングパート、フレーズパート等の複数の伴奏パートから構成される。フレーズパートは、音階的要素の伴奏データ成分からなるもので、例えば一般に「おかず」といわれる装飾的旋律を実現する伴奏パターン(例えば音程度数パターン)に相当する。この実施例では、後述するセクションデータのミュート制御において、ドラムパート以外の伴奏パートをミュートすることで、当該セクションにおける音階的要素を持つ伴奏データ成分を実質的に無効にする。
【0014】
こうした伴奏スタイルデータを構成する各セクションデータを適宜配列することで1曲分の自動伴奏データが形成される。
図3(a)、(b)は、ある楽曲データのメロディパートに応じた伴奏スタイルデータの各セクション配列例を模擬的に示す図である。各再生トラックTR1〜TR3はユーザにより再生トラックとして設定されたトラックである。なお、各再生トラックTR1〜TR3には、更に複数のトラックが含まれるが、その図示及び説明は省略する。
図3(a)に示すように、トラックTR1には、メロディデータが記憶されており、図示の例ではメロディーデータは、第5小節から第14小節の間に配置されている。このメロディデータは、当該楽曲データの曲本体部に相当する部分である。トラックTR2には、楽曲データのうちメロディデータ(曲本体部)以外のノートデータが記憶されており、このノートデータはメロディーデータ開始小節番号の前(イントロセクション)の第3小節から第4小節の間に配置されている。以下、これを「他のノートデータ」と称する。「他のノートデータ」は楽曲データ中の曲本体部以外の音符列のデータである。
【0015】
トラックTR3には伴奏スタイルデータが配列されている。TR1のメロディデータに対応して各種メインセクションやフィルインセクションが配置され、またメロディデータの前後には、イントロセクションIntroA、エンディングセクションEndingBが配置されている。メロディデータが配置された区間には、メロディーデータの音楽的な区切り小節番号(上記従来文献2を参照)に応じて、複数のセクション(図の例では、メインセクションMainA、フィルインセクションFillInAA、メインセクションMainB、フィルインセクションFillInAB)が適宜配列されて成る。イントロセクションIntroA及びエンディングセクションEndingBが演奏される1サイクル分の小節数は、図示の例では各々2小節であり、イントロセクションIntroAはメインセクションの前の第3小節〜第4小節間に配置され、エンディングセクションEndingBはメインセクションの終の第15小節〜第16小節間に配置される。なお、各セクションには複数タイプのバリエーションがあり、明細書及び図中では、バリエーションを符号A,Bで区別している。フィルインセクションは、例えばバリエーションタイプAのセクション同士を連結させるAAタイプやバリエーションタイプAとタイプBのセクションを連結させるABタイプ等がある。
【0016】
図示の通り、イントロセクションIntroAが配置された区間(第3小節〜第4小節間)は、TR2に記憶された「他のノートデータ」配置区間と重複する。この実施例に従えば、イントロセクションIntroAが配置された区間と「他のノートデータ」が配置された区間が重複している場合、イントロセクションIntroA中のドラムパート以外の伴奏パート(前記フレーズパート等)をミュートするよう処理して当該イントロセクションIntroAのドラムパートのみ再生させることで、イントロセクションIntroAにおける音階的要素を持つ伴奏パートを実質的に無効ならしめ、楽曲データ中の他のノートデータ(TR2)とイントロセクションIntroAから生成される音符列が混在することなく、聴覚上及び音楽的に自然な伴奏音を得ることができる。
【0017】
図3(b)には、TR2の他のノートデータ配置区間が3小節にわたる例が示されている。イントロセクションIntroAの1サイクル分の小節数は2小節なので、TR2の他のノートデータが配置された範囲をカバーできない。このような場合は、イントロセクションIntroAを他の代用セクションに置換するよう制御する。図示の例では、2小節分のメインセクションMainAセクションとフィルインセクションFillInAAを組み合わせたものを代用セクションとしている。このような代用セクション中のドラムパート以外の伴奏パートをミュート制御することで、楽曲データ中の他のノートデータ(TR2)配置区間をイントロセクションIntroAでカバーできない場合にも対応できる。
なお、図3(a)、(b)に示すとおり、各トラックの冒頭の第1小節はセットアップ用の領域として確保されている。
【0018】
図4のフロチャートを参照して、この実施例に係る自動伴奏装置の動作例について説明する。ステップS1では、ユーザは、ディスプレイ9の表示に従い、使用する伴奏スタイルの選択や、これから処理する楽曲データ(自動演奏データ)の選択/設定や、再生トラックの選択、メロディトラックの選択等の各種設定を行う。ステップS2では、選択された伴奏スタイルデータを用いて、前記選択された当該楽曲データの曲本体部(図3(a)のメロディデータ配置区間)に対して自動伴奏パターンであるセクション列を自動付与すると共に、メロディデータ配置区間の前後にイントロセクションとエンディングセクションを付加する。これにより図3(a)のトラックTR3に示すような、一曲分の自動伴奏データ(セクション列)を得る。なお、こうしたセクションデータの配列は、楽曲データに対して予め与えられていてもよいし、或いはユーザがディスプレイ表示を参照しながら入力・設定してもよい。
【0019】
ステップS3では、当該メロディーデータ配置区間の開始小節番号と、メロディーデータ配置区間の終了小節番号を夫々検出し、検出された開始小節番号(図3では第5小節)をメロディ部分開始小節番号StartMとして記憶し、また、検出された終了小節番号図3では第14小節)をメロディ部分終了小節番号EndMとして記憶する。従って、メロディ部分開始小節番号StartMの1つの前の小節番号がイントロセクションの終了小節番号に対応し、また、メロディ部分終了小節番号EndMの次の(一つ後の)小節番号がエンディングセクションの開始小節番号に対応する。
ステップS4では、ステップS3で検出したメロディ部分開始小節番号StartMをノートデータ開始小節番号を示すNoteStartMに、また、メロディ部分終了小節番号EndMをノートデータ終了小節番号を示すNoteEndMに記憶する。そして、ステップS5において、メロディトラック(TR1)以外の楽音データを持つ再生対象トラック(TR2)にて一番最初に現れるノートデータの小節番号(図3ではTR2の第3小節)を、NoteStartMとして記憶する。同様に、メロディトラックTR1以外の再生対象トラックにて一番最後に現れるノートデータの小節番号をNoteEndMとして記憶する。
【0020】
ステップS6では、メロディ部分開始小節番号StartMと前記ステップS5で記憶した小節番号NoteStartMとを比較して、メロディーデータ開始小節番号の前に(つまりイントロセクションを配置する区間に)メロディ以外の他のノートデータが存在するか否かを判定する。StartMがNoteStartM以下であれば、メロディ部分開始以前に他のノートデータが存在しないものと判定してYESに分岐し、ステップS11に処理を進める。StartMがNoteStartMより大きければ、メロディ部分開始以前に他のノートデータが存在するものと判定してNOに分岐し、ステップS7に処理を進める。図3(a)の例では、StartMは第5小節であり、NoteStartMが第3小節であるから、NOに分岐してステップS7に進む。
【0021】
ステップS7では、イントロセクションの1サイクル分の小節数(図3の例では2小節)と、StartMとNoteStartMの減算値を比較する。StartMとNoteStartMの減算値はメロディーデータ以外の他のノートデータの開始小節番号からメロディ本体部の開始小節番号までの範囲に対応するので、イントロセクションの1サイクル分の小節数と該減算値とを比較することで、イントロセクションデータによって、他のノートデータ配置範囲をカバーできるか否かを判定できる。図3(a)では、ノートデータ配置範囲は2小節分であるから、「イントロセクションの1サイクル分の小節数=前記減算値」である。従って、YESに分岐してステップS8に進む。ステップS8では、イントロセクションの伴奏パートのうちドラムパート(リズムパート)以外のパートをミュート制御して、イントロセクションからドラムパートのみが再生されるようにする。
【0022】
一方、図3(b)の例では、他のノートデータ配置範囲(第5小節‐第2小節)は3小節分に相当するので、「イントロセクションの1サイクル分の小節数<前記減算値」である。よって、ステップS7をNOに分岐してステップS9に進む。
ステップS9では、他のノートデータ配置範囲をカバー可能な代用セクションの決定処理を行う。代用セクションの決定は、ユーザ自らがディスプレイ表示を参照しながら入力・設定してもよいし、あるいは所定のアルゴリズムに従って自動決定処理してもよい。代用セクションは、メインセクションやフィルインセクションを単独若しくは適宜組み合わせる等して、他のノートデータ配置範囲に小節数を適合させたデータである。ユーザが入力する場合は、ディスプレイ9上に所定の代用セクション設定画面が表示され、伴奏スタイル選択と代用セクション設定をドロップダウンリストや、一覧リスト表示等の表示形式に従って行うようにして差し支えない。代用セクションは1つだけ選択可能にしてもよいし、複数を適宜組み合わせてもよい。また、組み合わせるセクションの使用比率設定やセクション内のデータ使用部分(例えば区間後半部を使用する等)設定等、各種項目について可変としてよい。また、代用セクションを自動決定する場合は、例えば曲本体部(メロディ部分対応範囲)にて最初に配置されたメインセクション名(図3ではメインセクションMainA)を検出して、このメインセクションMainAとメインセクションMainAとを繋ぐべきフィルインセクション(フィルインセクションFillInAA)を作成する。そうして、両者を組み合わせて代用セクションとすればよい。図3(b)では、2小節分のメインセクションMainAとフィルインセクションFillInAAを組み合わせた例が示されている。なお、代用セクションはデフォルトで設定されていてもよい。
【0023】
ステップS10では、前記ステップS2で付与したイントロセクションを削除そて、前記ステップS9で決定した代用セクションに置換する。代用セクションは前記ステップS5で記憶した小節番号NoteStartMを開始小節番号として、メロディ部分開始小節番号StartMの直前までの区間に配置される。この代用セクションの伴奏パートもまた、ステップS8でのイントロセクションに対するミュート制御と同様にドラムパート以外はミュート制御される。
【0024】
ステップS11〜ステップS15に示すように、エンディングセクションに対しても、上記ステップS6〜S10にてイントロセクションについて行ったのと概ね同様な処理を行うことで、ミュート制御や代用セクションへの置換処理が行える。すなわち、メロディ部分終了小節番号EndMと前記ステップS5で記憶した小節番号NoteEndMとを比較して、EndM<小節番号NoteEndM(ステップS11のNO)であれば、メロディ部分終了小節番号以降(つまりエンディングセクションを配置する区間に)メロディ以外の他のノートデータが存在するものと判定して、ステップS12にてエンディングセクションの1サイクル分の小節数と、EndMとNoteEndMの減算値を比較する。エンディングセクションを使用可能(ステップS12のYES)であれば、ドラムパート以外のパートをミュート制御して、エンディングセクションの伴奏音としてドラムパートのみが再生されるようにする(ステップS13)。
一方、「エンドセクションの1サイクル分の小節数<前記減算値」であれば(ステップS12のNO)であれば、上述と同様な代用セクションの決定処理を行い、エンディングセクションを決定した代用セクションに置換する。なお、エンディングセクションの代用セクションには、後続のセクションが無いのでイントロセクションの代理セクションの場合のようにフィルインセクションを付加させる必要なない。
【0025】
なお、上述の実施例ではセクションデータのミュート制御の制御対象として、ドラムパート以外の伴奏パートをミュートするものとして説明したが、セクションにおける音階的要素を持つ伴奏データ成分を実質的に無効にする制御でさえあればよく、ドラムパート以外の伴奏パートの全てをミュート対象としなくてもよい。例えば、或る伴奏パートに人声等のオーディオデータが入っている場合は、この伴奏パートはドラムパート同様に再生されて差し支えない。
【0026】
また、上述の実施例ではイントロセクション及びエンディングセクションを対象に説明したが、フィルインセクション等他のセクションを対象にしてもよい。また、対象にするセクションをユーザ設定できるようにしてもよい。
【0027】
また、上述の実施例ではメロディデータやメロディ以外のノートデータは別々のトラック(TR1とTR2)に記憶されているとしたが、同一のトラックに入っていても差し支えない。この場合、メロディ部分の範囲設定(つまりメロディ部分開始小節番号StartMと、メロディ部分終了小節番号EndMの指定)はユーザが行うものであってもよい。
また、上述の実施例では、メロディデータ以外の再生対象になっている(つまりミュートされていないトラックの)ノートデータの有無を判定するものとしたが(例えばステップS4、S5でノートデータの小節番号を検出する際等)、この際に有無判定の対象たるノートデータ(音高情報を含んだデータ)から、その音色がリズム音色であるもの、つまりリズム音を発生させるためのノートデータは判定の対象から除外してもよい。リズム音であれば、イントロ/エンディングセクション等の区間にあるノートデータと一緒に再生されても、再生音が音楽的に不自然にならないからである。また、再生対象になっていない(ミュートされている)トラック内のノートデータを判定の対象に加えても差し支えない。
【0028】
また、上述の実施例では、伴奏スタイルデータを用いて、メインセクション、イントロセクション、エンディングセクションを自動付与する方式(Auto Arranger(登録商標)方式)について説明したが、これに限らず、マニュアルでセクション設定する場合にも本発明を適用可能である。
更に、上述の例では、楽曲中の曲本体部以外の「他のノートデータ」の配置された区間と伴奏セクション(イントロセクション等)の配置される区間を処理対象としていたが、例えば、実際に「他のノートデータ」が存在する小節や拍のみが再生されないように処理するように構成することも可能である。
【0029】
なお、伴奏パターンの構成は、各伴奏パートのデータが複数トラックに分けて記憶されていてもよいし、1トラック中に混在する構成であってもよい。
【0030】
また、上述の実施例では、イントロセクションやエンディングセクション等のセクションデータの伴奏パート自体にミュート設定する例について説明したが、これに限らず、データ自体に対してはミュート設定等の何ら処理を施さずに、出力側で再生時にミュート処理するようにしてもよい。また、伴奏パートに対する処理としてミュートのみならず、聴こえない程度の極微小まで音量を下げるという処理であっても本発明の実施に差し支えない。
【0031】
なお、上述の実施例では、この発明を装置の発明として構成した例を示したが、これに限らず、この発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することもできる。
【0032】
【発明の効果】
以上の通り、この発明によれば、曲本体部の前後につながる区間にメロディ以外のノートデータが存在する場合に、該区間に配置された自動伴奏パターンであるセクションのうちの音階的要素を持つ伴奏データ成分を実質的に無効にすることで、自動伴奏データの再生時に、音楽的に不自然な音階音の混在を防ぐことができ、自然な聴覚の自動伴奏が可能となる。且つ、そのような自動伴奏データを簡易に作成できるという優れた効果を奏する。
【図面の簡単な説明】
【図1】本発明の一実施例に係る自動伴奏装置のハードウエア構成を示すブロック図。
【図2】(a)及び(b)は同実施例に係る伴奏スタイルデータの構成例を示す図。
【図3】同実施例に係る伴奏スタイルデータの各セクション配列例を模擬的に示す図。
【図4】同実施例に係る自動伴奏装置の動作例を示すフローチャート。
【符号の説明】
1 CPU、2 ROM、3 RAM、4 外部記憶装置、5 通信インターフェース(通信I/F)、6 入力操作部、7 表示部、8 音源、9 ディスプレイ、10 サウンドシステム、11 外部機器、20 ヘッダ部、21 セクション部、22 セクションデータ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an automatic accompaniment apparatus and a program for adding automatic accompaniment data to music data, and more particularly to an apparatus that can easily create automatic accompaniment data.
[0002]
[Prior art]
[Patent Document 1] JP-A-4-240893
[Patent Document 2] JP-A-11-126076
[Patent Document 3] Japanese Patent Application Laid-Open No. 4-243295
[0003]
Japanese Patent Application Laid-Open No. H11-163,199 discloses that in a performance device having an automatic accompaniment function such as a sequencer, when creating automatic accompaniment data corresponding to performance data of a melody of a certain music, a plurality of intro sections, main sections, ending sections, etc. By using the accompaniment style data consisting of the accompaniment section data of the first section, the intro section is placed before the start measure number of the main section, and the ending section is placed after the end measure number of the main section, so that one song is automatically recorded. It is disclosed to create accompaniment data.
Japanese Patent Application Laid-Open No. H11-163873 analyzes music performance data and automatically generates a chord (chord) progression sequence corresponding to the performance data and each section array of the corresponding accompaniment style data. There is disclosed a technique in which an intro section is automatically added before the ending section, and an ending section is automatically added after the performance data.
[0004]
[Problems to be solved by the invention]
The automatic accompaniment data of the intro section and the ending section is created to correspond to some chord progression, and usually includes a phrase part or a chord progression including musical scale elements. In other words, it is desirable that the sound is reproduced without a musical tone (scale element) other than the intro section or the ending accompaniment sound. However, if there is some other note data (data having a scale element) overlapping the place where the accompaniment section data such as the intro section to the ending section is arranged, the intro section along with the performance sound based on the other note data is used. However, an accompaniment sound such as an ending section is reproduced, giving a sense of incongruity to the user, that is, making the reproduced sound musically unnatural.
In view of such an inconvenience, the intro section or the ending section may be replaced with accompaniment data consisting of, for example, only a rhythm part, or an arbitrary accompaniment part in the intro section or the ending section (such as the above musical phrase) may be muted. There is a technique that can avoid the above-mentioned inconvenience by setting, but in that case, the user himself must be familiar with the setting state of the automatic accompaniment data, and it is not easy to appropriately perform the setting.
Patent Document 3 discloses an electronic musical instrument that controls the volume of an automatic accompaniment sound to be reduced during the reproduction of a melody performance sound in response to a user's manual performance operation. Even if other note data is present together with the ending section, even if the volume of the intro or ending accompaniment sound is controlled to be reduced, the above disadvantage cannot be solved.
[0005]
The present invention has been made in view of the above points, and it is possible to realize natural auditory automatic accompaniment by preventing musically unnatural musical sounds from being mixed when reproducing automatic accompaniment data created using an accompaniment style. It is an object of the present invention to provide an automatic accompaniment device and a program.
[0006]
[Means for Solving the Problems]
The present invention is a program executed by a computer to add automatic accompaniment data to music data. The program adds one or a plurality of sections of automatic accompaniment data to a main body of the music data. Adding the automatic accompaniment data of the additional section corresponding to the section connected before and / or after, and whether note data exists in the section of the music data connected before and / or after the main unit. And, if it is determined that note data is present in the section, a step of substantially invalidating the accompaniment data component having a scale element in the additional section added to the section. It is a program.
[0007]
It is determined whether or not note data is present in the section of the music data that is connected before and / or after the main unit. If it is determined that note data is present in the section, the additional data to be added to the section is determined. Of the musical accompaniment data component having a scale element in the use section. For example, when it is determined that note data is present in the section, by substantially disabling accompaniment data components other than the rhythm part in the additional section, the playback sound of the note data present in the section, It is possible to prevent the musical accompaniment sound based on the accompaniment data component having the musical scale element in the additional section from being unnaturally mixed, and to obtain an auditory / musically natural reproduced sound.
[0008]
Further, the present invention can be implemented not only in the form of a program of a computer or a processor such as a DSP, but also as an invention of a device.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a block diagram showing a hardware configuration of an automatic accompaniment apparatus according to one embodiment of the present invention. This automatic accompaniment device is a device having an automatic accompaniment function such as a sequencer, for example, and is provided to the CPU 1 via the bus 1B, the ROM 2, the RAM 3, the external storage device 4, and the communication interface (communication I / F) 5. , An input operation unit 6, a display unit 7, a sound source 8, and the like. The CPU 1 executes various programs in a memory such as the ROM 2 and the RAM 3 to control the overall operation of the automatic accompaniment device. The automatic accompaniment apparatus according to this embodiment includes a step of analyzing performance data such as a given melody under the control of the CPU 1 and adding an additional section such as an intro section and an ending section to the main body of the music. Automatic accompaniment data creation processing can be performed. A display screen connected to the display unit 7 displays a processing screen in the automatic accompaniment data creation processing and the like, and the user inputs an instruction to input various settings and the like using the input operation unit 6 such as a mouse and a keyboard according to the screen display. I can do it. Further, the automatic accompaniment device can be connected to an appropriate external device 11 such as another computer or an electronic musical instrument via the communication I / F 5.
[0010]
The CPU 1 performs automatic performance processing based on music data to be reproduced (automatic performance data), whereby performance data indicating a musical sound to be reproduced is given to the sound source 8 via the bus 1B. The sound source 8 generates a tone signal composed of a pitch, a tone, a volume, and the like according to the given performance data. As a sound source method of the sound source 8, any conventionally known method such as a waveform memory reading method and an FM method may be used. Further, the sound source 8 may be constituted by a hardware sound source board or may be constituted by a software sound source program. The tone signal generated by the sound source 8 is generated by a sound system 10 including an amplifier and a speaker after digital / analog conversion.
[0011]
In this embodiment, the format of the performance data may be the same as the format of the known automatic performance sequence data composed of the MIDI standard or a simplified version of the MIDI standard, etc. "Event + relative time", expressed as time from the event, "Event + absolute time", expressed as the occurrence time of the performance event in absolute time within the song or bar, pitch and length of notes, or rest and rest A "pitch (rest) + note length" representing performance data in note length, a memory area is secured for each minimum resolution of performance, and performance events are stored in the memory area corresponding to the time when the performance event occurs. Any format such as "solid system" may be used.
[0012]
The music data used by the automatic accompaniment device includes performance data (melody data) corresponding to the melody part of the music, other performance data, chord data (chord information) corresponding to the melody data, and automatic accompaniment. Accompaniment style data used for generating data is included. The accompaniment style data is pattern data for generating accompaniment data according to various accompaniment styles such as rock and pop. The music data and various programs can be stored in a memory such as the ROM 2, the RAM 3 or the external storage device 4, or obtained from an external device 11 such as another computer via the communication I / F 5. Alternatively, automatic performance data and various programs may be obtained from an external server device or the like by connecting to a communication network such as the Internet via the communication I / F 5. The external storage device 4 includes a hard disk, a floppy (registered trademark) disk or a flexible disk (registered trademark), a compact disk (CD-ROM, CD-RAM), a magneto-optical disk (MO), a ZIP disk, a DVD (Digital). Versatile Disk, semiconductor memory, or any other suitable external storage medium may be used.
[0013]
FIGS. 2A and 2B are conceptual diagrams showing an example of the configuration of accompaniment style data. As shown in FIG. 2A, one piece of accompaniment style data is roughly divided into a header section 20 and a section section 21. The header section 20 includes an accompaniment style name (for example, a name of a corresponding performance style such as rock, pop, etc.) of the accompaniment style data, time signature information, tempo information, and the like. The section section 21 includes a plurality of section data such as a main section, an intro section, an ending section, and a fill-in section. The main section is an accompaniment pattern corresponding to the melody body of the music. The intro section is an accompaniment pattern to be performed in the introduction section of the music. The ending section is an accompaniment pattern to be played at the end of the music. The fill-in section is an accompaniment pattern used for fill-in performance.
As shown in (b), the section data 22 for each accompaniment pattern includes the name of the section (main, intro, ending, etc.), the number of measures for one cycle of the section, setting information of the accompaniment part, and the like. It consists of various setting information and accompaniment pattern data. The accompaniment pattern data of each section includes an accompaniment data component having a scale element which is a basis of the accompaniment part performance sound, and generates an accompaniment sound according to a designated chord progression. As is known, each accompaniment pattern data includes a plurality of accompaniment parts such as a drum part (rhythm part), a bass part, a chord backing part, and a phrase part. The phrase part is composed of accompaniment data components of musical scale elements, and corresponds to, for example, an accompaniment pattern (for example, several tone patterns) that realizes a decorative melody generally called “side dish”. In this embodiment, in the section data muting control described later, the accompaniment part other than the drum part is muted, thereby substantially invalidating the accompaniment data component having musical elements in the section.
[0014]
By automatically arranging the respective section data constituting the accompaniment style data, automatic accompaniment data for one music piece is formed.
FIGS. 3A and 3B are diagrams schematically illustrating an example of each section arrangement of accompaniment style data according to a melody part of certain music data. Each of the reproduction tracks TR1 to TR3 is a track set as a reproduction track by the user. Each of the reproduction tracks TR1 to TR3 further includes a plurality of tracks, but illustration and description thereof are omitted.
As shown in FIG. 3A, melody data is stored in the track TR1, and in the illustrated example, the melody data is arranged between the fifth bar and the fourteenth bar. The melody data is a portion corresponding to the music body of the music data. The track TR2 stores note data of the music data other than the melody data (song main body). This note data is stored in the third to fourth measures before the melody data start measure number (intro section). It is located between them. Hereinafter, this is referred to as “other note data”. "Other note data" is data of a note string other than the music body in the music data.
[0015]
Accompaniment style data is arranged on the track TR3. Various main sections and fill-in sections are arranged corresponding to the melody data of TR1, and before and after the melody data, an intro section IntroA and an ending section EndingB are arranged. In the section in which the melody data is arranged, a plurality of sections (in the example of the figure, a main section MainA, a fill-in section FillInAA, a main section) in accordance with the musical delimiter bar number of the melody data (see the above-mentioned related art document 2). MainB and fill-in section FillInAB) are appropriately arranged. The number of measures for one cycle in which the intro section IntroA and the ending section EndingB are played is 2 measures in the illustrated example, and the intro section IntroA is arranged between the third measure and the fourth measure before the main section. The ending section EndingB is arranged between the fifteenth and sixteenth measures at the end of the main section. Each section has a plurality of types of variations, and the variations are distinguished by reference numerals A and B in the specification and drawings. The fill-in section includes, for example, an AA type for connecting sections of variation type A and an AB type for connecting sections of variation type A and type B.
[0016]
As shown in the figure, the section in which the intro section IntroA is arranged (between the third and fourth measures) overlaps with the “other note data” arrangement section stored in TR2. According to this embodiment, if the section in which the intro section IntroA is arranged and the section in which "other note data" are arranged overlap, an accompaniment part other than the drum part in the intro section IntroA (the phrase part etc.) ) Is muted so that only the drum part of the intro section IntroA is played back, thereby effectively disabling the accompaniment part having the scale element in the intro section IntroA, and the other note data (TR2) in the music data. ) And the note sequence generated from the intro section IntroA are not mixed, and an auditory and musically natural accompaniment sound can be obtained.
[0017]
FIG. 3B shows an example in which another note data arrangement section of TR2 extends over three measures. Since the number of measures for one cycle of the intro section IntroA is two measures, the range in which other note data of TR2 is arranged cannot be covered. In such a case, control is performed to replace the intro section IntroA with another substitute section. In the illustrated example, a combination of a main section MainA section for two measures and a fill-in section FillInAA is used as a substitute section. By performing mute control on the accompaniment parts other than the drum part in such a substitute section, it is possible to cope with a case where the other note data (TR2) arrangement section in the music data cannot be covered by the intro section IntroA.
As shown in FIGS. 3A and 3B, the first bar at the beginning of each track is secured as a setup area.
[0018]
An example of the operation of the automatic accompaniment device according to this embodiment will be described with reference to the flowchart of FIG. In step S1, the user selects various accompaniment styles to be used, selection / setting of music data (automatic performance data) to be processed, selection of a reproduction track, selection of a melody track, and the like in accordance with the display on the display 9. I do. In step S2, using the selected accompaniment style data, a section string, which is an automatic accompaniment pattern, is automatically added to the selected music body (the melody data arrangement section in FIG. 3A) of the selected music data. At the same time, an intro section and an ending section are added before and after the melody data arrangement section. Thereby, the automatic accompaniment data (section row) for one music as shown in the track TR3 of FIG. 3A is obtained. The arrangement of the section data may be given to the music data in advance, or may be input and set by the user while referring to the display.
[0019]
In step S3, the start measure number of the melody data arrangement section and the end measure number of the melody data arrangement section are respectively detected, and the detected start measure number (fifth measure in FIG. 3) is set as the melody part start measure number StartM. The detected end bar number (the 14th bar in FIG. 3) is stored as the melody part end bar number EndM. Accordingly, the bar number immediately before the melody part start bar number StartM corresponds to the end bar number of the intro section, and the bar number next (one after) to the melody part end bar number EndM is the start of the ending section. Corresponds to the measure number.
In step S4, the melody part start measure number StartM detected in step S3 is stored in NoteStartM indicating the note data start measure number, and the melody part end measure number EndM is stored in NoteEndM indicating the note data end measure number. Then, in step S5, the measure number (third measure of TR2 in FIG. 3) of the note data that appears first on the reproduction target track (TR2) having the musical sound data other than the melody track (TR1) is stored as NoteStartM. I do. Similarly, the bar number of the note data that appears last in the reproduction target track other than the melody track TR1 is stored as NoteEndM.
[0020]
In step S6, the melody part start measure number StartM is compared with the measure number NoteStartM stored in step S5, and notes other than the melody are placed before the melody data start measure number (that is, in the section where the intro section is arranged). It is determined whether data exists. If StartM is equal to or less than NoteStartM, it is determined that there is no other note data before the start of the melody part, and the process branches to YES, and proceeds to step S11. If StartM is larger than NoteStartM, it is determined that other note data exists before the start of the melody part, and the flow branches to NO, and the process proceeds to step S7. In the example of FIG. 3A, since StartM is the fifth measure and NoteStartM is the third measure, the process branches to NO and proceeds to step S7.
[0021]
In step S7, the number of measures for one cycle of the intro section (two measures in the example of FIG. 3) is compared with the subtraction value of StartM and NoteStartM. Since the subtraction value of StartM and NoteStartM corresponds to the range from the starting measure number of the note data other than the melody data to the starting measure number of the melody body, the number of measures for one cycle of the intro section and the subtracted value are calculated. By performing the comparison, it can be determined whether or not another note data arrangement range can be covered by the intro section data. In FIG. 3A, the arrangement range of the note data is two measures, so that “the number of measures for one cycle of the intro section = the subtraction value”. Therefore, the process branches to YES and proceeds to step S8. In step S8, of the accompaniment parts of the intro section, parts other than the drum part (rhythm part) are muted so that only the drum part is reproduced from the intro section.
[0022]
On the other hand, in the example of FIG. 3B, the other note data arrangement range (measure 5 to measure 2) is equivalent to three measures, so that “the number of measures for one cycle of the intro section <the subtraction value” It is. Therefore, step S7 branches to NO and the process proceeds to step S9.
In step S9, a process of determining a substitute section that can cover another note data arrangement range is performed. The determination of the substitute section may be input and set by the user himself while referring to the display, or may be automatically determined according to a predetermined algorithm. The substitute section is data in which the number of measures is adapted to another note data arrangement range by, for example, combining the main section and the fill-in section singly or appropriately. When the user makes an input, a predetermined substitute section setting screen is displayed on the display 9, and the accompaniment style selection and the substitute section setting may be performed according to a display format such as a drop-down list or a list display. Only one substitute section may be selectable, or a plurality of substitute sections may be appropriately combined. Further, various items such as setting of the use ratio of the section to be combined and setting of the data use portion (for example, using the latter half of the section) in the section may be variable. When the substitute section is automatically determined, for example, the main section name (main section MainA in FIG. 3) that is first arranged in the music body (melody part corresponding range) is detected, and the main section MainA and the main section are detected. A fill-in section (Fill-in section FillInAA) to be connected to the section MainA is created. Then, both may be combined into a substitute section. FIG. 3B shows an example in which a main section MainA for two measures and a fill-in section FillInAA are combined. Note that the substitute section may be set by default.
[0023]
In step S10, the intro section added in step S2 is deleted and replaced with the substitute section determined in step S9. The substitute section is arranged in a section immediately before the melody part start measure number StartM, with the measure number NoteStartM stored in step S5 as a start measure number. The accompaniment part of this substitute section is also muted except for the drum part, similarly to the mute control for the intro section in step S8.
[0024]
As shown in steps S11 to S15, by performing substantially the same processing as that performed on the intro section in steps S6 to S10 for the ending section, the mute control and the replacement processing with the substitute section are performed. I can do it. That is, the melody part end bar number EndM is compared with the bar number NoteEndM stored in the step S5, and if EndM <measure number NoteEndM (NO in step S11), the melody part end bar number and thereafter (that is, the ending section is changed). It is determined that note data other than the melody exists in the section where the melody is located, and the number of measures for one cycle of the ending section is compared with the subtraction value of EndM and NoteEndM in step S12. If the ending section can be used (YES in step S12), parts other than the drum part are muted so that only the drum part is reproduced as an accompaniment sound of the ending section (step S13).
On the other hand, if “the number of measures in one cycle of the end section <the subtraction value” (NO in step S12), the same substitute section determination processing as described above is performed, and the substitute section for which the ending section has been determined is determined. Replace. Since there is no subsequent section in the substitute section of the ending section, it is not necessary to add a fill-in section unlike the substitute section of the intro section.
[0025]
In the above-described embodiment, the control object of the section data mute control is described as muting the accompaniment part other than the drum part. However, the control for substantially disabling the accompaniment data component having the musical scale element in the section is performed. And it is not necessary to mute all the accompaniment parts other than the drum part. For example, if a certain accompaniment part contains audio data such as a human voice, this accompaniment part may be reproduced like a drum part.
[0026]
In the above embodiment, the intro section and the ending section have been described. However, other sections such as a fill-in section may be used. The section to be targeted may be set by the user.
[0027]
In the above embodiment, the melody data and the note data other than the melody are stored in separate tracks (TR1 and TR2). However, the melody data and the note data may be stored in the same track. In this case, the range setting of the melody part (that is, the designation of the melody part start measure number StartM and the melody part end measure number EndM) may be performed by the user.
Further, in the above-described embodiment, the presence / absence of note data to be reproduced other than the melody data (that is, a track that is not muted) is determined (for example, the bar number of the note data is determined in steps S4 and S5). At this time, from the note data (data including pitch information) which is the object of the presence / absence determination, note data whose timbre is a rhythm timbre, that is, note data for generating a rhythm sound is determined. It may be excluded from the target. This is because, if it is a rhythm sound, even if it is reproduced together with note data in a section such as an intro / ending section, the reproduced sound does not become musically unnatural. Also, note data in a track that is not to be reproduced (muted) may be added to the determination target.
[0028]
Further, in the above-described embodiment, the method of automatically adding the main section, the intro section, and the ending section using the accompaniment style data (Auto Arranger (registered trademark) method) has been described. The present invention can be applied to the case of setting.
Further, in the above-described example, the section in which the "other note data" other than the music body section in the music is arranged and the section in which the accompaniment section (intro section, etc.) is arranged are processing targets. It is also possible to perform processing so that only measures and beats in which "other note data" exists are not reproduced.
[0029]
The configuration of the accompaniment pattern may be such that the data of each accompaniment part is divided and stored in a plurality of tracks, or may be mixed in one track.
[0030]
Further, in the above-described embodiment, an example has been described in which the mute setting is performed on the accompaniment part itself of the section data such as the intro section and the ending section. However, the present invention is not limited to this, and any processing such as mute setting is performed on the data itself. Instead, the output side may perform mute processing during reproduction. Further, not only muting as the processing for the accompaniment part but also processing for lowering the sound volume to an extremely small level that is inaudible can be used to implement the present invention.
[0031]
In the above-described embodiment, an example is described in which the present invention is configured as an apparatus invention. However, the present invention is not limited to this, and the present invention can be embodied in the form of a program of a computer or a processor such as a DSP.
[0032]
【The invention's effect】
As described above, according to the present invention, when note data other than the melody is present in a section connected to the front and back of the music main body, the section having the musical element of the section which is the automatic accompaniment pattern arranged in the section is provided. By substantially disabling the accompaniment data component, it is possible to prevent musically unnatural scale sounds from being mixed during the reproduction of the automatic accompaniment data, thereby enabling natural accompaniment automatic accompaniment. Moreover, there is an excellent effect that such automatic accompaniment data can be easily created.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of an automatic accompaniment apparatus according to one embodiment of the present invention.
FIGS. 2A and 2B are diagrams showing a configuration example of accompaniment style data according to the embodiment; FIGS.
FIG. 3 is an exemplary view schematically showing an example of the arrangement of sections in the accompaniment style data according to the embodiment.
FIG. 4 is an exemplary flowchart showing an example of the operation of the automatic accompaniment device according to the embodiment.
[Explanation of symbols]
1 CPU, 2 ROM, 3 RAM, 4 external storage device, 5 communication interface (communication I / F), 6 input operation section, 7 display section, 8 sound source, 9 display, 10 sound system, 11 external equipment, 20 header section , 21 section, 22 section data

Claims (4)

楽曲データに自動伴奏データを付加するためにコンピュータによって実行されるプログラムであって、
前記楽曲データの本体部に対して1又は複数セクションの自動伴奏データを付加すると共に、該本体部の前及び/又は後につながる区間に対応して追加用セクションの自動伴奏データを付加する手順と、
前記楽曲データにおける前記本体部の前及び/又は後につながる前記区間にノートデータが存在するか否かを判定する手順と、
前記区間にノートデータが存在すると判定された場合、該区間に付加される前記追加用セクションにおける音階的要素を持つ伴奏データ成分を実質的に無効にする手順と
を具えるプログラム。
A program executed by a computer to add automatic accompaniment data to music data,
A step of adding one or more sections of automatic accompaniment data to the main body of the music data, and adding an automatic accompaniment data of an additional section corresponding to a section connected before and / or after the main body;
A step of determining whether or not note data is present in the section of the music data connected before and / or after the main unit;
When it is determined that note data is present in the section, the accompaniment data component having a musical element in the additional section added to the section is substantially invalidated.
前記追加用セクションの自動伴奏データはリズムパートの伴奏データ成分を含み、前記区間にノートデータが存在すると判定された場合、前記リズムパート以外の伴奏データ成分を実質的に無効にすることを特徴とする請求項1に記載のプログラム。The automatic accompaniment data of the additional section includes an accompaniment data component of a rhythm part, and when it is determined that note data exists in the section, the accompaniment data component other than the rhythm part is substantially invalidated. The program according to claim 1, which performs the program. 前記追加用セクションの自動伴奏データの時間長が前記ノートが存在する区間の時間長より短い場合、該追加用セクションの自動伴奏データを該区間の時間長に適合する時間長の1又は複数セクションの自動伴奏データに置換することを特徴とする請求項1又は2に記載のプログラム。When the time length of the automatic accompaniment data of the additional section is shorter than the time length of the section in which the note is present, the automatic accompaniment data of the additional section is converted into one or more sections having a time length matching the time length of the section. 3. The program according to claim 1, wherein the program is replaced with automatic accompaniment data. 楽曲データに自動伴奏データを付加する自動伴奏装置であって、
前記楽曲データの本体部に対して1又は複数セクションの自動伴奏データを付加すると共に、該本体部の前及び/又は後につながる区間に対応して追加用セクションの自動伴奏データを付加する付加手段と、
前記楽曲データにおける前記本体部の前及び/又は後につながる前記区間にノートデータが存在するか否かを判定する判定手段と、
前記判定手段で前記区間にノートデータが存在すると判定された場合、該区間に付加される前記追加用セクションにおける音階的要素を持つ伴奏データ成分を実質的に無効にする処理手段と
を具える自動伴奏装置。
An automatic accompaniment device for adding automatic accompaniment data to music data,
Adding means for adding one or more sections of automatic accompaniment data to the main body of the music data, and adding automatic accompaniment data of additional sections corresponding to sections connected before and / or after the main body; ,
Determining means for determining whether note data is present in the section of the music data connected before and / or after the main unit,
Processing means for substantially invalidating accompaniment data components having musical scale elements in the additional section added to the section when the determination means determines that note data is present in the section. Accompaniment device.
JP2003077981A 2003-03-20 2003-03-20 Automatic accompaniment apparatus and program Expired - Fee Related JP4147991B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003077981A JP4147991B2 (en) 2003-03-20 2003-03-20 Automatic accompaniment apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003077981A JP4147991B2 (en) 2003-03-20 2003-03-20 Automatic accompaniment apparatus and program

Publications (2)

Publication Number Publication Date
JP2004287013A true JP2004287013A (en) 2004-10-14
JP4147991B2 JP4147991B2 (en) 2008-09-10

Family

ID=33292602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003077981A Expired - Fee Related JP4147991B2 (en) 2003-03-20 2003-03-20 Automatic accompaniment apparatus and program

Country Status (1)

Country Link
JP (1) JP4147991B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007256755A (en) * 2006-03-24 2007-10-04 Yamaha Corp Electronic musical instrument system
JP2007256754A (en) * 2006-03-24 2007-10-04 Yamaha Corp Electronic musical instrument system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007256755A (en) * 2006-03-24 2007-10-04 Yamaha Corp Electronic musical instrument system
JP2007256754A (en) * 2006-03-24 2007-10-04 Yamaha Corp Electronic musical instrument system

Also Published As

Publication number Publication date
JP4147991B2 (en) 2008-09-10

Similar Documents

Publication Publication Date Title
CN101014994A (en) Content creating device and content creating method
JP3127722B2 (en) Karaoke equipment
CN1750116B (en) Automatic rendition style determining apparatus and method
JP4265551B2 (en) Performance assist device and performance assist program
JPH11224086A (en) Playing device, and storage medium recorded with registration data
JP4147991B2 (en) Automatic accompaniment apparatus and program
JP4175337B2 (en) Karaoke equipment
JP2021113895A (en) Accompaniment sound generation device, electronic musical instrument, accompaniment sound generation method, and accompaniment sound generation program
JP2002372981A (en) Karaoke system with voice converting function
JP3705144B2 (en) Performance data change processing device
JP5838563B2 (en) Electronic musical instruments and programs
JP3620396B2 (en) Information correction apparatus and medium storing information correction program
JP2862062B2 (en) Karaoke equipment
JP2889841B2 (en) Chord change processing method for electronic musical instrument automatic accompaniment
JP3587133B2 (en) Method and apparatus for determining pronunciation length and recording medium
JP2002304175A (en) Waveform-generating method, performance data processing method and waveform-selecting device
JP2001100771A (en) Karaoke device
JP4802947B2 (en) Performance method determining device and program
JP4094441B2 (en) Electronic musical instruments
JP4345010B2 (en) Pitch change amount determination method, pitch change amount determination device, and program
JP3166670B2 (en) Karaoke device and automatic performance device
JP4222257B2 (en) Accompaniment adding device
JP3753087B2 (en) Electronic musical instrument, differential sound output device, program, and recording medium
JP4186802B2 (en) Automatic accompaniment generator and program
JP3770226B2 (en) Musical sound generating device and medium recording program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080603

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130704

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees