[go: up one dir, main page]

JPH03200289A - Automatic player - Google Patents

Automatic player

Info

Publication number
JPH03200289A
JPH03200289A JP1341018A JP34101889A JPH03200289A JP H03200289 A JPH03200289 A JP H03200289A JP 1341018 A JP1341018 A JP 1341018A JP 34101889 A JP34101889 A JP 34101889A JP H03200289 A JPH03200289 A JP H03200289A
Authority
JP
Japan
Prior art keywords
performance
data
time
input
tempo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1341018A
Other languages
Japanese (ja)
Other versions
JP2658463B2 (en
Inventor
Shigeru Matsuyama
茂 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP1341018A priority Critical patent/JP2658463B2/en
Publication of JPH03200289A publication Critical patent/JPH03200289A/en
Application granted granted Critical
Publication of JP2658463B2 publication Critical patent/JP2658463B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE:To enable automatic performance wherein individually shows up by carrying on performance by a player himself in player's tempo over timing and normalizing note data according to performance data on the performance so that the individuality of the player is maintained. CONSTITUTION:The player carries on the performance operation, the performance data based upon the performance operation is outputted, and time timing is inputted to the player together with the performance operation by the player, thereby outputting time timing data based upon the input operation. Time data indicating the input timing of the performance data and time timing data outputted from a performance operation means and a time timing input means in order is generated and written in storage means 7 and 8 together with the performance data and time timing data. Further, the time data stored in the storage means 7 and 8 are normalized and written so that sections determined by time timing data in the storage means 7 and 8 which adjoin to each other with time become equal in time. Consequently, the performance operation wherein the individuality of the player shows up becomes possible.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、自動演奏装置に係り、更に詳しくは、演奏者
に実際に演奏操作をさせながら自動演奏用の演奏情報を
入力させ、その演奏情報を再生して自動演奏を行う自動
演奏装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an automatic performance device, and more specifically, the present invention relates to an automatic performance device, and more specifically, it allows a player to input performance information for automatic performance while actually performing the performance operations, and performs the performance. The present invention relates to an automatic performance device that reproduces information and performs automatic performance.

(従来の技術〕 楽器を自動演奏させるための自動演奏装置において、演
奏音符データを入力する場合、大別して2通りの入力の
仕方がある。1つは、コンピュータ、シーケンサ等に直
接、楽譜情報を符号化した音符データをキーボード等を
用いて入力していくもの、もう1つは、演奏者が直接楽
器を演奏しMIDI等のインターフェースを通じてデジ
タルの音符情報に展開し、その情報をシーケンサ等に蓄
積するものである。前者は楽譜から正確に音符f5報が
生成されるので音符に忠実であるが、演奏タイミング等
に関する演奏者の個人性は全く無視される。それに対し
後者は、演奏者の演奏した通りに音符情報が蓄積される
のでそれを再生したとき、演奏者の個人性がそのまま再
現される。後者において、例えば1人又は複数の演奏者
が、異なる楽譜パートを別々に演奏して自動演奏用の音
符情報を作成し、それらを合成(シーケンサ等の機能と
して一般に実現される)してアンサンプルで自動演奏を
行わせるような場合においては、各演奏間のリズムを同
期させる必要があり、そのために従来、−1的にはメト
ロノーム等の拍子にあわせて演奏を行わせている。すな
わち、演奏者がヘッドホン等によりメトロノーム等の拍
子信号を聴きながらその拍子に合わせて演奏を行ってい
くものである。
(Prior Art) When inputting performance note data in an automatic performance device for automatically playing a musical instrument, there are two main ways of inputting the data.One is to input musical score information directly to a computer, sequencer, etc. One is to input encoded note data using a keyboard, etc., and the other is to have the performer play the instrument directly, develop it into digital note information through an interface such as MIDI, and store that information in a sequencer, etc. The former generates accurate note f5 information from the musical score, so it is faithful to the notes, but the performer's individuality regarding performance timing etc. is completely ignored.On the other hand, the latter Since the note information is accumulated as the notes are played, the individuality of the performer is directly reproduced.In the latter case, for example, one or more performers can play different musical score parts separately and automatically When creating note information for performance, compositing them (generally implemented as a function such as a sequencer), and performing automatic performance using unsamples, it is necessary to synchronize the rhythm between each performance. For this purpose, conventionally, the performer performs in accordance with the time signature of a metronome, etc. In other words, the performer listens to the time signature signal of the metronome etc. through headphones etc. and performs in accordance with the time signature. It is something.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかし、上述のように演奏者がメトロノーム等に合わせ
て演奏を行う場合、メトロノーム等の拍子は機械的なも
のであり、常に一定間隔で拍子が刻まれているため、演
奏者のテンポとの間にずれを生じることが多い。また、
演奏者が無理にメトロノームに合わせて演奏を行おうと
するために演奏がぎこちなくなるという問題点を生ずる
However, as mentioned above, when a performer performs in time with a metronome, etc., the metronome's time signature is mechanical and is always marked at regular intervals, so there is a difference between the tempo of the performer and the metronome. There is often a difference between the two. Also,
This creates a problem in that the performer's performance becomes awkward because the performer tries to force the performance to match the metronome.

本発明の課題は、演奏者自身が自分自身のテンポで拍子
をとりながら演奏を行い、その演奏データを基に演奏者
の個人性を保存するように音符データを正規化して、自
動演奏をできるようにすることにある。
The problem of the present invention is to allow the performer to perform automatically while keeping the beat at his or her own tempo, and to normalize the note data based on the performance data so as to preserve the individuality of the performer. The purpose is to do so.

〔課題を解決するための手段〕[Means to solve the problem]

本発明は、楽音発生手段に演奏データを順次出力するこ
とにより楽音発生手段に自動演奏を行わせる自動演奏装
置を前提とする。例えば自動演奏データの記録再生のみ
を行う専用のシーケンサである。或いは、楽音発生手段
自身を内蔵した自動演奏機能付の電子楽器であってもよ
い。
The present invention is based on an automatic performance device that causes the musical tone generating means to perform automatic performance by sequentially outputting performance data to the musical tone generating means. For example, it is a dedicated sequencer that only records and reproduces automatic performance data. Alternatively, it may be an electronic musical instrument with an automatic performance function that includes a built-in musical tone generating means itself.

そして、まず、演奏者に演奏操作を行わせ、該演奏操作
に基づく演奏データを出力する演奏操作手段を存する。
First, there is a performance operation means for causing a player to perform a performance operation and outputting performance data based on the performance operation.

同手段は、例えば鍵盤である。同手段は、MIDI等を
介して外部に接続されるキーボード等の鍵盤等であって
もよい。
The means is, for example, a keyboard. The means may be a keyboard such as a keyboard connected to the outside via MIDI or the like.

次に、演奏者に演奏操作と共に拍子タイミングを入力さ
せ、該入力操作に基づく拍子タイミングデータを出力す
る拍子タイミング入力手段を有する。同手段は、例えば
演奏者に4分音符の拍子で各拍子タイミングを足で入力
させるフットスイッチである。なお、勿論、拍子は2分
音符、8分音符又は16分音符等であってもよい。
Next, it has a beat timing input means that allows the performer to input beat timing along with a performance operation, and outputs beat timing data based on the input operation. The means is, for example, a foot switch that allows the performer to input the timing of each beat using a quarter note beat. Note that, of course, the time signature may be a half note, an eighth note, a sixteenth note, or the like.

続いて、演奏データ及び拍子タイミングデータを記憶す
る記憶手段を有する。同手段は、例えばRAM等である
Subsequently, it has storage means for storing performance data and beat timing data. The means is, for example, a RAM or the like.

加えて、演奏者の演奏操作に基づいて演奏操作手段及び
拍子タイミング入力手段から順次出力される演奏データ
及び拍子タイミングデータの入力タイミングを示す時間
データを生成し、該演奏データ及び拍子タイミングデー
タと共に記憶手段に書き込む書込手段を有する。同手段
は、例えば前回の演奏データ又は拍子タイミングデータ
の入力時点から今回の同データの入力時点までのタイミ
ングを計測するタイマー回路を有し、その出力として時
間データを生成する。
In addition, time data indicating the input timing of the performance data and beat timing data sequentially outputted from the performance operation means and the beat timing input means based on the performance operation of the performer is generated, and is stored together with the performance data and beat timing data. It has a writing means for writing into the means. The means includes, for example, a timer circuit that measures the timing from the input point of the previous performance data or beat timing data to the current input point of the same data, and generates time data as its output.

更に、記憶手段に記憶されている時間的に隣り合う各拍
子タイミングデータによって定まる各区間の時間が相互
に等しくなるように、記憶手段に記憶されている各時間
データを正規化して書き換える時間データ書き換え手段
を有する。同手段は、例えば各拍子タイミングデータに
よって定まる例えば4分音符の各拍子区間の実時間を計
算する第1の実時間計算部を有する。また、同計算部で
求まった例えば4分音符の各拍子区間の実時間から、例
えば96分音符の実時間を計算する第2の実時間計算部
を有する。更に、各拍子区間内の各時間データの時間値
が、第2の実時間計算部で求まった例えば96分音符の
実時間の何倍になるかを計算し、その計算結果で前記時
間データを書き換える書き換え部を有する。
Furthermore, time data rewriting is performed to normalize and rewrite each time data stored in the storage means so that the time of each section determined by each temporally adjacent beat timing data stored in the storage means is equal to each other. have the means. The means includes a first real-time calculation section that calculates the real time of each beat interval of, for example, a quarter note, determined by each beat timing data, for example. Further, the second real time calculation section calculates the real time of, for example, a 96th note from the real time of each time signature section of, for example, a quarter note determined by the calculation section. Furthermore, it calculates how many times the time value of each time data in each time signature section is the real time of, for example, a 96th note found in the second real time calculation section, and uses the calculation result to calculate the time data. It has a rewriting section for rewriting.

そして、上述の書き換え動作の後に、記憶手段に記憶さ
れている各時間データに基づくタイミングで、記憶手段
から各演奏データを順次読み出して楽音発生手段に出力
する演奏再生手段を有する。
After the above-mentioned rewriting operation, the musical performance reproducing means sequentially reads out each performance data from the storage means and outputs it to the musical sound generation means at a timing based on each time data stored in the storage means.

同手段は、例えば記憶手段の各アドレスから成る演奏デ
ータが読み出されたらそれを楽音発生手段に出力し、そ
れに続いて時間データが読み出されたらその時間データ
分だけ例えばタイマー回路でタイミングをとり、そのタ
イミングの後に次の演奏データを読み出して楽音発生手
段に出力する、という動作を繰り返して、楽音発生手段
に自動演奏を行わせる。
For example, when the performance data consisting of each address of the storage means is read out, the means outputs it to the musical sound generation means, and when the time data is subsequently read out, the timing is set by a timer circuit, for example, for the time data. , and after that timing, the next performance data is read out and outputted to the musical tone generating means, and this operation is repeated to cause the musical tone generating means to perform automatic performance.

〔作  用〕[For production]

演奏者は、演奏者自身のテンポをフットスイッチ等の拍
子タイミング入力手段でとりながら、演奏原作手段で演
奏操作を行える。従って、演奏者はメトロノーム等の一
定の拍子に無理に合わせて演奏を行う必要がなく、演奏
がぎこちなくなることもなくなる。
The performer can operate the performance using the performance original means while setting his or her own tempo using a beat timing input means such as a foot switch. Therefore, the performer does not have to force his/her performance to match a fixed time signature such as a metronome, and the performance does not become awkward.

そして、演奏再生時に先立って、時間データ書き換え手
段が、時間的に隣り合う各拍子タイミングデータによっ
て定まる各区間の時間が相互に等しくなるように、各時
間データを正規化して書き換える。すなわち、例えば各
区間が96音符を単位として24単位時間となるように
正規化される。
Then, prior to performance reproduction, the time data rewriting means normalizes and rewrites each time data so that the time of each section determined by each temporally adjacent beat timing data becomes equal to each other. That is, for example, each section is normalized to have 24 units of time in units of 96 notes.

しかも、各拍子区間においては、各区間内の各時間デー
タの相対的な時間データの比は保存したまま正規化が行
われる。これにより、演奏者自身が1拍毎のテンポを入
力しつつ演奏を行うことにより、各拍子内の時間データ
間の相対的な時間関係は、演奏者の演奏した通りに保存
され、しかも各拍子間のタイミングは正確に均一化され
る。従って、演奏者の個人性を保存しつつ、演奏者間又
は各演奏動作間のリズムのずれを解消することができる
Moreover, in each beat interval, normalization is performed while preserving the relative time data ratio of each time data within each interval. This allows the performer to perform while inputting the tempo for each beat, so that the relative time relationship between the time data within each beat is saved as the performer played, and also for each beat. The timing between them is precisely equalized. Therefore, while preserving the individuality of the performers, it is possible to eliminate rhythm deviations between performers or between each performance movement.

〔実  施  例〕〔Example〕

以下、本発明の実施例につき詳細に説明を行う。 Hereinafter, embodiments of the present invention will be described in detail.

本実施例は、自動演奏機能を有する電子楽器として実現
される。なお、鍵盤等の演奏操作部及び楽音の発音動作
を行う楽音発生部が、MIDIインタフェースを介して
外部に接続され、自動演奏機能のみを有するシーケンサ
等として実現されてもよい。
This embodiment is realized as an electronic musical instrument having an automatic performance function. Note that the performance operation section such as a keyboard and the musical tone generation section that performs the operation of producing musical tones may be connected to the outside via a MIDI interface and realized as a sequencer or the like having only an automatic performance function.

第1図は、本発明の実施例の全体構成図である。FIG. 1 is an overall configuration diagram of an embodiment of the present invention.

まず、鍵盤部1は特には図示しない複数の鍵により構成
されており、演奏者は、この鍵盤部1より演奏データを
入力する。該鍵盤部lには入力センス回路2が接続され
ており、前記鍵盤部1の出力を基に押鍵、離鍵検出、音
符に対応するキーコード及び操作速度に対応するヘロシ
ティデータ等を出力する。
First, the keyboard section 1 is made up of a plurality of keys (not particularly shown), and the player inputs performance data through the keyboard section 1. An input sense circuit 2 is connected to the keyboard section 1, and based on the output of the keyboard section 1, detects key presses and key releases, outputs key codes corresponding to musical notes, herocity data corresponding to operation speed, etc. do.

またこれとは別に、演奏者自身のテンポを演奏操作と同
時に入力するための構成を含む演奏情報入力部3がある
。演奏情報入力部3は、演奏、録音、再生の3種類のモ
ードからなる演奏モードを選択するための演奏モード切
り替えスイッチ3aと、演奏時のテンポを入力するため
のフットスイッチ3bと、録音の終了または再生の中断
を行うためのスイッチ3c、録音時のテンポを演奏者が
入力するか、一定のテンポにするかを決定するテンポ選
択スイッチ3dと、再生時のテンポ値を決定するテンポ
決定スイッチ3e、3fとから構成される。
Separately from this, there is a performance information input section 3 that includes a configuration for inputting the player's own tempo at the same time as the performance operation. The performance information input unit 3 includes a performance mode changeover switch 3a for selecting a performance mode consisting of three modes: performance, recording, and playback, a foot switch 3b for inputting the tempo during performance, and a foot switch 3b for inputting the tempo during performance, and a switch for ending recording. Alternatively, a switch 3c for interrupting playback, a tempo selection switch 3d for determining whether the tempo at the time of recording is input by the performer or a constant tempo, and a tempo determination switch 3e for determining the tempo value at the time of playback. , 3f.

演奏情報入力部3の出力は演奏情報検出回路4に入力さ
れる。演奏情報検出回路4は上述の3a〜3fの各スイ
ッチの状態を検知しスイッチの種類に応じて、中央制御
装置5による制御に基づいて、後述する演奏情報記憶部
7と演奏データ記憶部8に検知データの蓄積を行う。
The output of the performance information input section 3 is input to the performance information detection circuit 4. The performance information detection circuit 4 detects the state of each of the above-mentioned switches 3a to 3f, and depending on the type of the switch, the performance information storage section 7 and the performance data storage section 8, which will be described later, are Accumulates detection data.

中央制御装置(CPU、以下同じ)5は、プログラム記
憶部6と、演奏情報記憶部7と、演奏データ記憶部8に
バスを介して接続されており、予めプログラム記憶部6
に蓄えられているプログラムに基づき各処理を行う。具
体的には演奏者により入力される演奏データを、入力セ
ンス回路2より抽出し、演奏データ記憶部8に蓄積する
と同時に、演奏情報入力部3のフットスイッチ3bから
出力されるテンポ情報を演奏情報検出回路4を経て演奏
データ記憶部8に蓄積していく。また前記演奏情報入力
部3のスイッチ3a、30〜3fから出力される各情報
は、演奏情報検出回路4を経て演奏情報記憶部7に随時
記憶される。演奏情報記憶部7の内容は、例えば第2図
のように構成され、スイッチが押下されているときは図
中のテーブル内に「l」が、押下されていないときは「
0」が格納される。CPU5は、演奏情報記憶部7に記
憶された演奏情報を常に監視しており、演奏情報の状態
に応じて、必要なプログラムをプログラム記憶部6より
読み込みプログラムの実行を行う。
A central control unit (CPU, hereinafter the same) 5 is connected to a program storage section 6, a performance information storage section 7, and a performance data storage section 8 via a bus.
Each process is performed based on the programs stored in the . Specifically, the performance data input by the performer is extracted from the input sense circuit 2 and stored in the performance data storage section 8, and at the same time, the tempo information output from the foot switch 3b of the performance information input section 3 is stored as performance information. The data is stored in the performance data storage section 8 via the detection circuit 4. Further, each piece of information output from the switches 3a, 30 to 3f of the performance information input section 3 is stored in the performance information storage section 7 via the performance information detection circuit 4 as needed. The contents of the performance information storage section 7 are configured as shown in FIG. 2, for example. When the switch is pressed, "l" is displayed in the table in the figure, and when the switch is not pressed, "l" is displayed.
0" is stored. The CPU 5 constantly monitors the performance information stored in the performance information storage section 7, reads a necessary program from the program storage section 6, and executes the program depending on the state of the performance information.

また本実施例においては、演奏者のテンポをカウントす
るタイマ部9と、演奏再生時のテンポ等を表示するLE
D表示部10と、演奏再生時のテンポを記憶するテンポ
値変換テーブル11が、バスを介してCPU5に接続さ
れる。
Further, in this embodiment, a timer unit 9 that counts the tempo of the performer, and an LE unit that displays the tempo etc. during playback of the performance are provided.
A D display section 10 and a tempo value conversion table 11 that stores the tempo at the time of performance reproduction are connected to the CPU 5 via a bus.

またさらに、本実施例においては、演奏データ記憶部8
に蓄積された演奏データに基づき、デジタル楽音信号を
生成する楽音発生回路12がバスを介してCPU5に接
続され、同回路にデジタル楽音信号をアナログ楽音信号
に変換するD/Aコンバータ13、増幅器14及びスピ
ーカ15が順次接続され、楽音発生部を構成する。
Furthermore, in this embodiment, the performance data storage section 8
A musical tone generating circuit 12 that generates a digital musical tone signal based on the performance data stored in the CPU 5 is connected to the CPU 5 via a bus, and a D/A converter 13 and an amplifier 14 that convert the digital musical tone signal into an analog musical tone signal are connected to the CPU 5. and a speaker 15 are connected in sequence to constitute a musical tone generating section.

以上の構成からなる第1図の電子楽器につき、各部の詳
細な構成を説明しつつ、動作を説明していく。
The operation of the electronic musical instrument shown in FIG. 1 having the above configuration will be explained while explaining the detailed configuration of each part.

第3図は演奏者による演奏データの入力から、再生(自
動演奏)までの一連の実行手順を示している。
FIG. 3 shows a series of execution steps from input of performance data by the player to playback (automatic performance).

まず、演奏者によって演奏情報入力部3の演奏モード切
り替えスイッチ3aが録音モードを示すr e c ”
に、また、テンポ選択スイッチ3dが演奏者自身がテン
ポを入力するモードにセットされる(第3図Ml)。
First, the performance mode changeover switch 3a of the performance information input section 3 is selected by the performer to indicate the recording mode.
In addition, the tempo selection switch 3d is set to a mode in which the performer himself inputs the tempo (FIG. 3 Ml).

次に、演奏者がフットスイッチ3bを押下すると演奏開
始モードになる(第3図M2)。
Next, when the player presses the foot switch 3b, the performance start mode is entered (M2 in FIG. 3).

演奏者は自らテンポをフットスイッチ3bより入力しつ
つ、鍵盤部1より楽音の入力を行う。上述のテンポ情報
と楽音情報はそれぞれ、入力センス回路2と演奏情報検
出回路4を経て、随時演奏データ記憶部8に演奏データ
として蓄積される。
The performer inputs musical tones from the keyboard section 1 while inputting the tempo himself from the foot switch 3b. The above-mentioned tempo information and musical tone information are stored as performance data in the performance data storage section 8 as needed through the input sense circuit 2 and the performance information detection circuit 4, respectively.

この際演奏データ記憶部に蓄積される演奏データは、例
えば第4図のようになる。最初のアドレスには初めてフ
ットスイッチが押下され演奏開始状態になったとき5t
artイベントデータが書き込まれ、タイマ一部9が動
作を始める。その後、鍵盤部1もしくはフットスイッチ
3bより楽音情報もしくはテンポ情報が入力される毎に
対応したイベントデータ(キーオンイベント、キーオフ
イベント、テンポイベント等)が書き込まれ、タイマ一
部9で計測された成るイベントと次のイベントまでの時
間が書き込まれる(以上、第3図M3)。
At this time, the performance data stored in the performance data storage section is as shown in FIG. 4, for example. The first address is 5t when the foot switch is pressed for the first time and the performance starts.
The art event data is written and the timer part 9 starts operating. Thereafter, each time musical tone information or tempo information is input from the keyboard section 1 or the foot switch 3b, corresponding event data (key-on event, key-off event, tempo event, etc.) is written, and the event is measured by the timer section 9. and the time until the next event is written (M3 in Figure 3).

以上の動作が、演奏終了を示すスイッチ3Cが押下され
るまで繰り返され、その時点で演奏データ記憶部8には
演奏終了を示すendイベントが書き込まれる(第4図
参照)。演奏者により演奏終了を示すスイッチ3Cが押
下されると、その情報は演奏情報記憶部7に記憶され、
中央制御装置5は演奏情報記憶部7に記憶された情報を
読み取り、演奏データを演奏データ記憶部8に蓄積する
ことを終了する(以上、第3図M4)。
The above operations are repeated until the switch 3C indicating the end of the performance is pressed, at which point an end event indicating the end of the performance is written in the performance data storage section 8 (see FIG. 4). When the performer presses the switch 3C indicating the end of the performance, the information is stored in the performance information storage section 7,
The central controller 5 reads the information stored in the performance information storage section 7 and finishes storing the performance data in the performance data storage section 8 (M4 in FIG. 3).

続いてCPUは、演奏データ記憶部8に蓄積された音符
データのうち時間データのみを書き換える処理を実行す
る。この処理においては、演奏者が演奏時にフットスイ
ッチ3bより入力したテンポ信号に基づいて時間軸の正
規化が行われ、演奏データ記憶部8に記憶されている演
奏データのうち時間データのみが書き直されていくと同
時に、LED表示部10に時間データ書き換え中を示す
LEDを点灯する(以上、第3図M5)。
Subsequently, the CPU executes a process of rewriting only the time data of the note data stored in the performance data storage section 8. In this process, the time axis is normalized based on the tempo signal that the performer inputs from the foot switch 3b during performance, and only the time data of the performance data stored in the performance data storage section 8 is rewritten. At the same time, the LED indicating that time data is being rewritten is lit on the LED display unit 10 (M5 in FIG. 3).

その後、演奏情報入力部3のスイッチ3e、3fにより
再生時の演奏テンポが入力されると、その信号に応じて
中央制御装置5はLED表示部10にテンポを表示し、
その値をテンポ値変換テーブル11に格納する(第3図
M6)。
After that, when the performance tempo during playback is inputted by the switches 3e and 3f of the performance information input section 3, the central control device 5 displays the tempo on the LED display section 10 in accordance with the signal,
The value is stored in the tempo value conversion table 11 (M6 in FIG. 3).

そして、演奏者が演奏モード切り替えスイッチ3aを自
動再生を示す’auto”にし、フットスイッチ3bを
押下することにより演奏テンポの正規化された演奏デー
タが、演奏データ記憶部8から順次読み出され、再生さ
れる(第3図M7)。
Then, when the performer sets the performance mode changeover switch 3a to 'auto' indicating automatic playback and presses the foot switch 3b, performance data with normalized performance tempo is sequentially read out from the performance data storage section 8, It is played back (M7 in Figure 3).

次に、本発明に特に関連する第3図M5の時間データ書
き換えの処理につき、詳細に説明する。
Next, the time data rewriting process shown in FIG. 3 M5, which is particularly relevant to the present invention, will be described in detail.

第5図は、第3図M5の時間データ書き換え処理の詳細
な動作フローチャートであり、この制御はCPU5がプ
ログラム記憶部6のプログラムを実行することにより実
現される。な、お、以下の処理で使用される各変数デー
タADR,Rs、Re、P、Q、T、X、Y、Zは、第
1図の演奏情報記憶部7内のワーク領域上の変数データ
として確保される。以下の説明では、各変数データには
適宜機能的な名称が付与されて説明される。
FIG. 5 is a detailed operational flowchart of the time data rewriting process M5 in FIG. 3, and this control is realized by the CPU 5 executing the program in the program storage section 6. Incidentally, each of the variable data ADR, Rs, Re, P, Q, T, will be secured as In the following description, each variable data is given a functional name as appropriate.

また、以下の処理では、第1図の演奏データ記憶部8に
第7図(a)に示されるような演奏データが記憶されて
いる場合を例に説明する。第7図(a)の例では、E2
〜E6が各々鍵盤部1での演奏操作に基づくノートオン
イベント・ノートオフイベント等のデータであり、P4
、P5がフットスイッチ3bでのテンポ入力操作に基づ
くテンポイベントのデータである。そして、t1〜t6
は、上述の各イベントデータ間のタイミングを示す時間
データである。
Furthermore, in the following processing, an example will be explained in which performance data as shown in FIG. 7(a) is stored in the performance data storage section 8 of FIG. 1. In the example of FIG. 7(a), E2
~E6 are data such as note-on events and note-off events based on performance operations on the keyboard section 1, and P4
, P5 is tempo event data based on the tempo input operation with the foot switch 3b. And t1 to t6
is time data indicating the timing between each of the above-mentioned event data.

第5図において、まず、Slでスイッチ3dの状態が検
出され、演奏者によるテンポ入力の状態にあるか否かが
判別される。演奏者によるテンポ入力の状態でなければ
以下の処理は行わず、第3図M5の時間データ書き換え
処理は実質的に実行されない。
In FIG. 5, first, the state of the switch 3d is detected at Sl, and it is determined whether or not the tempo is being input by the performer. Unless the tempo is input by the performer, the following process is not performed, and the time data rewriting process M5 in FIG. 3 is not substantially executed.

逆に、演奏者によるテンポ入力の状態であるならば、S
2で初期状態の設定処理が行われる。ここでは、321
及びS22で、次に処理すべき演奏データのアドレスA
DR及び加算開始アドレスRsが共に1にセットされる
。そして、S23で後述するタイマー値Qの値が255
に初期設定され、更に、S24でLED表示部10に時
間データ書き換え中を示すLEDが点灯される。なお、
S23でセットされるタイマー値Qの値は0以外の値で
あれば何でもよい。この意味については後述する。
Conversely, if the tempo is being input by the performer, S
In step 2, initial state setting processing is performed. Here, 321
And in S22, address A of the performance data to be processed next.
Both DR and addition start address Rs are set to 1. Then, in S23, the value of the timer value Q, which will be described later, is 255.
Further, in S24, an LED indicating that time data is being rewritten is lit on the LED display section 10. In addition,
The timer value Q set in S23 may be any value other than 0. The meaning of this will be explained later.

次に、S3においては、演奏データ記憶部8の記憶内容
において、特にフットスイッチ3bが押されたことを示
すテンポイベントに着目して、各テンポイベントから次
のテンポイベントまで(演奏開始時点では5tartイ
ベントから最初のテンポイベントまで)の実時間が計算
される。
Next, in S3, in the storage contents of the performance data storage section 8, focusing on the tempo event that indicates that the foot switch 3b has been pressed, the process starts from each tempo event to the next tempo event (5 tarts at the start of the performance). The actual time (from the event to the first tempo event) is calculated.

すなわち、まず、S31において累算時間データX(後
述する)がOにリセットされる。
That is, first, cumulative time data X (described later) is reset to O in S31.

次に、S32で演奏データ記憶部8のアドレスADHで
示されるアドレスの内容が読み出され、変数Yにセット
される。今、アドレスADRの内容は1であり(S21
参照)、演奏データ記憶部8上の奇数アドレスには第7
図に示されるように時間データ、偶数アドレスにはイベ
ントデータが記憶されているため、変数Yには最初の時
間データが格納される。この変数Yに読み出された時間
データは、S33において累算時間データX(S31で
リセットされている)に累算される。
Next, in S32, the contents of the address indicated by the address ADH of the performance data storage section 8 are read out and set in the variable Y. Now, the content of address ADR is 1 (S21
), the odd address on the performance data storage section 8 has the seventh
As shown in the figure, time data and event data are stored in even-numbered addresses, so the first time data is stored in variable Y. The time data read into this variable Y is accumulated into cumulative time data X (which has been reset in S31) in S33.

続いて、S34においてアドレスADRがインクリメン
トされて偶数アドレスにされ、続<335で演奏データ
記憶部8の偶数アドレスに格納されているイベントデー
タが変数Zに読み込まれる。
Subsequently, in S34, the address ADR is incremented to an even address, and in S335, the event data stored in the even address of the performance data storage section 8 is read into the variable Z.

このイベントデータがendイベント又はテンポイベン
トでない間は、S36の判別がNOとなり、S37でア
ドレスADRが再び奇数アドレスにされ、再びS32が
実行されて次の時間情報が変数Yに読み込まれる、とい
うようにして332〜S37の処理が繰り返される。
While this event data is not an end event or a tempo event, the determination in S36 is NO, the address ADR is changed to an odd address again in S37, S32 is executed again, and the next time information is read into variable Y, and so on. Then, the processes from 332 to S37 are repeated.

以上の処理の繰り返しの後、S35で変数Zにテンポイ
ベント又はendイベントが読み出され、336の判定
がYESとなった時点で、累算時間データXは、5ta
rtイヘント又は前回のテンポイベントから次のテンポ
イベントまでの実時間を示している。この実時間は、演
奏者が1拍として入力した1区間の累算時間を示してい
る。
After repeating the above processing, the tempo event or end event is read out to the variable Z in S35, and when the determination in 336 becomes YES, the cumulative time data X becomes 5ta.
rt event or the actual time from the previous tempo event to the next tempo event. This real time indicates the cumulative time of one section input by the performer as one beat.

第7図(a)の例では、まず、5tartイヘントから
テンポイベントP4までの区間で、第5図S32〜S3
7の処理が繰り返される。これにより、累算時間データ
Xの値は、 X=t++tz+t、:+          ・・・
(1)となる(第7図(b)参照)。
In the example of FIG. 7(a), first, in the section from the 5 tart event to the tempo event P4, S32 to S3 of FIG.
7 is repeated. As a result, the value of cumulative time data X is: X=t++tz+t, :+...
(1) (see FIG. 7(b)).

次に、S35で変数Zにテンポイベント或いはendイ
ベントが読み出され、336の判定がYESとなると、
S4に進む。S4において、変数Zの内容がendイベ
ントでなくテンポイベントであれば341の判定がYE
Sとなり、S42に進む。ここでは、累算時間データX
で表される1拍の区間において、96分音符が何秒にな
るかが計算される。本実施例では、演奏者に対して4分
音符を1拍としてフットスイッチ3bを操作するように
指定している。そして、4分音符は96分音符の24個
分であるため、96分音符の実時間を計算するためには
、S42の如く、1拍の時間を示す累算時間データXの
値を24で割ればよい。
Next, in S35, the tempo event or end event is read into the variable Z, and when the determination in S336 becomes YES,
Proceed to S4. In S4, if the content of variable Z is not an end event but a tempo event, the determination of 341 is YE.
The result is S, and the process advances to S42. Here, cumulative time data
The number of seconds of a 96th note in the one-beat interval represented by is calculated. In this embodiment, the player is instructed to operate the foot switch 3b with a quarter note as one beat. Since a quarter note is equal to 24 96th notes, in order to calculate the actual time of a 96th note, the value of cumulative time data Just divide it.

この詳細な動作フローチャートを、第6図に示す。A detailed flowchart of this operation is shown in FIG.

同図に示されるように、第5図342での除算動作は、
第6図5423.5424で、累算時間データXから1
2ずつ順次減算を行うことにより実現されており、その
結果は11捨12人され、最終的に5423で累算され
るタイマー値Q(S421でOにリセットされている)
として求まる。
As shown in the figure, the division operation at 342 in FIG.
At 5423 and 5424 in Figure 6, 1 from cumulative time data
This is achieved by sequentially subtracting 2 by 2, and the result is divided by 11 and 12, and the timer value Q is finally accumulated to 5423 (reset to O in S421).
It can be found as

上述の動作の後、343において、現在のアドレスAD
RからIK算した値が加算終了アドレスReとされる。
After the above operations, at 343 the current address AD
The value calculated by IK from R is set as the addition end address Re.

これにより加算終了アドレスReは、前述の332〜3
37の処理で検出された区間において最後の時間データ
が格納されているアドレスとなる。この役割については
後述する。
As a result, the addition end address Re is 332 to 3 mentioned above.
This is the address where the last time data in the section detected in the process of No. 37 is stored. This role will be explained later.

なお、S4において、変数Zの内容がendイベントの
場合は、341の判定がNoとなり、S44に進む。こ
こでは、上述のタイマー値Qの計算はなされず、現在の
アドレスADRに1加算した値が加算終了アドレスRe
とされる。これにより加算終了アドレスReは、前述の
332〜S37の処理で検出された区間においてend
イヘントが格納されている最終アドレスの次のアドレス
となる。この役割については後述する。
Note that in S4, if the content of variable Z is an end event, the determination in step 341 is No, and the process advances to S44. Here, the above-mentioned timer value Q is not calculated, and the value obtained by adding 1 to the current address ADR is the addition end address Re.
It is said that As a result, the addition end address Re is determined as the end address Re in the section detected in the processing from 332 to S37 described above
This is the address following the last address where the event is stored. This role will be explained later.

上記S4の処理を、前述した第7図(a)又は(b)の
5tartイベントからテンポイベントP4までの区間
の例で説明すると、次のようになる。すなわち、累算時
間データXの値は、前述の(1)式の如く、 X = t+ 十tz + tz であるから、タイマー値Qは、 Q= (t++b+b) / 24      ・・・
(2)となる。また、現在のアドレスADRは、第7図
(a)のアドレス6を示しているため、加算終了アドレ
スReは、343により、 Re=6−1=5          ・・13)とな
り、時間データt3の格納アドレスとなる。
The process of S4 will be explained below using an example of the section from the 5tart event to the tempo event P4 in FIG. 7(a) or (b). That is, since the value of the cumulative time data X is X = t+ 1 tz + tz as in the above-mentioned equation (1), the timer value Q is: Q= (t++b+b) / 24...
(2) becomes. Also, since the current address ADR indicates address 6 in FIG. 7(a), the addition end address Re is 343, Re=6-1=5...13), and the storage of time data t3 is completed. It becomes the address.

次に、第5図のS5において、1拍内での演奏操作に基
づくイベントデータ間の各時間データが96分音符を単
位としてその何倍の時間を持つかという情報に書き直さ
れてゆく。
Next, in S5 of FIG. 5, each time data between event data based on performance operations within one beat is rewritten into information indicating how many times longer the time is in units of 96th notes.

まず、5501において、後述する動作のために音符累
算値PがOにリセットされ、次に、5502において、
アドレスADHに加算開始アドレスRsがセットされる
。そして、8503〜5508の処理の繰り返しにより
、加算開始アドレスRsから加算終了アドレスReの直
前までの区間において(3503)、順次時間データが
格納されている奇数アドレスが指定されながら(S50
8)、各時間データが以下のように書き直されてゆく。
First, in 5501, the note cumulative value P is reset to O for the operation described later, and then, in 5502,
Addition start address Rs is set to address ADH. Then, by repeating the processes 8503 to 5508, in the section from the addition start address Rs to immediately before the addition end address Re (3503), odd addresses where time data is stored are sequentially specified (S50
8), each time data is rewritten as follows.

すなわち、5504で、現在のアドレスADRで示され
る時間データが変数Yに格納され、5505で、その時
間データが前述のタイマー値Qで除算され、音符データ
Tとされる。そして、この音符データTが、現在のアド
レスADRに新たに設定される。今、タイマー値Qは、
現在の区間における96分音符の実時間を表しているた
め、これにより各時間データが96分音符の何倍かが計
算される。また、上記繰り返しにおいて、5507で、
音符累算値P(前述の8501においてリセットされて
いる)に上述の正規化された時間データである音符デー
タTが順次累算されてゆく。
That is, in 5504, the time data indicated by the current address ADR is stored in the variable Y, and in 5505, the time data is divided by the above-mentioned timer value Q to obtain musical note data T. Then, this note data T is newly set at the current address ADR. Now, the timer value Q is
Since it represents the actual time of a 96th note in the current section, this calculates how many times each time data is a 96th note. Also, in the above repetition, at 5507,
The note data T, which is the above-mentioned normalized time data, is sequentially accumulated in the note accumulation value P (which was reset in 8501 described above).

この音符累算値Pの役割については後述する。The role of this cumulative note value P will be described later.

そして、現在のアドレスADHが加算終了アドレスRe
に等しくなると、5503の判定がYESとなり、更に
、変数Zの内容がendイベントでなくテンポイベント
であれば、5509の判定がYESとなり、5510〜
5512の処理が実行される。ここでは、現在の区間の
最後の時間データの正規化、並びに加算開始アドレスR
sとアドレスADRの再設定が行われる。
Then, the current address ADH is the addition end address Re
, the determination in 5503 becomes YES, and if the content of variable Z is not an end event but a tempo event, the determination in 5509 becomes YES, and 5510~
The process of 5512 is executed. Here, the last time data of the current section is normalized, and the addition start address R
s and address ADR are reset.

まず、最後の時間データに対しては、前述の3505の
ようにして正規化を行うのではなく、5510の処理に
より正規化が行われる。すなわち、1拍(4分音符)は
96分音符の24個分であるため、最後の時間データは
、1拍全体を示す24から、5505の繰り返しで計算
された各時間データに対応する各音符データTの累算値
を引いた値で表現される。この累算値は、前述の850
7の処理により音符累算値Pとして求まっているため、
最後の時間データは、24から音符累算値Pを減算する
ことにより求まる。このように処理することにより、前
述の342に対応する第6図での除算処理による誤差の
蓄積を防くことができる。
First, the last time data is not normalized as in step 3505 described above, but is normalized in step 5510. In other words, since one beat (quarter note) is equal to 24 96th notes, the final time data is calculated from 24, which indicates the entire beat, to each note corresponding to each time data calculated by repeating 5505 steps. It is expressed as a value obtained by subtracting the accumulated value of data T. This accumulated value is 850 as mentioned above.
Since the cumulative note value P has been determined by the process in step 7,
The final time data is found by subtracting the cumulative note value P from 24. By processing in this manner, it is possible to prevent the accumulation of errors due to the division processing in FIG. 6 corresponding to 342 described above.

次に、5511で、加算終了アドレスReの値に2を加
算した値が新たな加算開始アドレスRsとされる。今、
加算終了アドレスReは、前述の332〜S37の処理
で検出された区間において最後の時間データが格納され
ているアドレスであるため、+2することにより、上記
区間の次の区間の先頭の時間データが格納されているア
ドレスとなる。そして、この加算開始アドレスRsは、
5512において、同時にアドレスADRにもセットさ
れる。
Next, in 5511, the value obtained by adding 2 to the value of the addition end address Re is set as a new addition start address Rs. now,
Since the addition end address Re is the address where the last time data is stored in the section detected in the process from 332 to S37 described above, by adding +2, the first time data of the section next to the above section is stored. This is the address where it is stored. And this addition start address Rs is
At 5512, address ADR is also set at the same time.

この動作の後は、前述の33の処理に戻り、次のテンポ
イベントまでの1拍分の区間の実時間が計算され、上述
と同様の処理が繰り返される。
After this operation, the process returns to step 33 described above, the real time of one beat's worth of time until the next tempo event is calculated, and the same process as described above is repeated.

上記S5の処理を、前述した第7図(a)又は(b)の
5tartイベントからテンポイベントP4までの区間
の例で説明すると、次のようになる。すなわち、S42
の処理で前述の(2)式のように求まるタイマー値Qを
用いて、各時間データL、及びし2は、5505におい
て、各々、 というように正規化される。
The process of S5 above will be explained as follows using an example of the section from the 5tart event to the tempo event P4 in FIG. 7(a) or (b). That is, S42
In step 5505, each time data L and 2 are normalized as follows using the timer value Q determined as in the above-mentioned equation (2).

また、Ll及びt2の正規化が終わった時点で、550
7の処理で音符累算値Pは、(4)式より、P ’= 
t 1/ Q + t 2 / Q        ・
・・(5)となる。(5)式により、上記区間の最後の
時間データt3は、5510において、 T=24−P =24− D+/Q+tz/Q)    ・・・(6)
というように正規化される。
Also, when the normalization of Ll and t2 is completed, 550
In the process of step 7, the cumulative note value P is calculated as P'= from equation (4).
t 1 / Q + t 2 / Q ・
...(5). According to equation (5), the last time data t3 of the above section is 5510, T=24-P=24-D+/Q+tz/Q)...(6)
It is normalized as follows.

この動作の後、次区間の加算開始アドレスRsは、55
11において、前述の(3)式より、Rs=Re+2=
5+2=7   4 + ・(7)として求まり、テン
ポイベントP4〜P5で定まる区間の最初の時間データ
L4の格納アドレスとなる。この加算開始アドレスRs
は、5512において、同時にアドレスADRとされる
After this operation, the addition start address Rs of the next section is 55
11, from the above equation (3), Rs=Re+2=
It is determined as 5+2=7 4 + (7), and becomes the storage address of the first time data L4 in the section determined by the tempo events P4 to P5. This addition start address Rs
is simultaneously set as address ADR in 5512.

以上の如くして、第7図(a)又は(b)の5tart
イヘントからテンポイベントP4までの1拍分における
各イベントデータ間の時間データL1、L2及びt、3
が正規化される。
As described above, 5 tarts in FIG. 7(a) or (b)
Time data L1, L2 and t, 3 between each event data for one beat from event to tempo event P4
is normalized.

続いて、第7図(a)又は(b)のテンポイベントP4
からテンポイベントP5までの区間に対しても、上述の
場合と全く同様の処理が実行されるが、この区間内では
、テンポイベント以外のイベントは発生していないため
、5502から5503の処理に移った時点で8503
の判定がすぐにYESとなり、8504〜5508の処
理は実行されない。そして、5509の判定のYESと
なって、5510の処理が実行される。この場合、音符
累算値Pは、5501でリセットされた値0のままであ
るため、5510で時間データt4を正規化した値は2
4となる。すなわち、時間データL4は、テンポイベン
トP4からP5までの1拍分の時間すなわち4分音符の
時間であるため、96分音符で24個分を示す正規化値
となる。
Next, the tempo event P4 in FIG. 7(a) or (b)
Exactly the same processing as in the above case is executed for the section from 5502 to 5503, but since no events other than the tempo event have occurred in this section. 8503 at the time
The determination immediately becomes YES, and the processes 8504 to 5508 are not executed. Then, the determination in 5509 is YES, and the process in 5510 is executed. In this case, the cumulative note value P remains at the value 0 that was reset at 5501, so the value obtained by normalizing the time data t4 at 5510 is 2.
It becomes 4. That is, since the time data L4 is the time of one beat from tempo event P4 to P5, that is, the time of a quarter note, it becomes a normalized value representing 24 96th notes.

S5における以上の動作に対して、S5においてend
イベントまでの最終区間の正規化を行う場合は、次のよ
うになる。すなわち、前述の835でセットされS36
で判別された変数Zの内容はendイベントであり、前
述の344によって、加算終了アドレスReの内容は、
endイベントが格納されている最終アドレスの次のア
ドレスとされている。従って、3503〜350Bの繰
り返しによって、endイベントまでの最終区間の全て
の時間データに対して3505に基づく正規化処理が行
われる。この場合、タイマー値Qとしては、1つ前の区
間のものが用いられる(S44で、タイマー値Qが計算
されていない)。また、3510による正規化処理も実
行されない。これらは、最後の区間は、1泊に満たない
場合があることを考慮した処理である。
For the above operation in S5, end in S5
When normalizing the final section up to the event, the procedure is as follows. That is, it is set in the above-mentioned 835 and S36
The content of the variable Z determined in is the end event, and the content of the addition end address Re is as follows by 344 described above.
This is the address following the final address where the end event is stored. Therefore, by repeating steps 3503 to 350B, normalization processing based on step 3505 is performed on all time data in the final section up to the end event. In this case, the timer value Q in the previous interval is used (the timer value Q has not been calculated in S44). Further, the normalization processing by 3510 is not executed. These processes take into consideration that the last section may last less than one night.

この場合に、アドレスADRが加算終了アドレスReに
等しくなって、最終区間の最後の時間データの正規化が
終了すると、5503の判定がYES、5509の判定
がNoとなって、S6において、第1図のLED表示部
10の時間データ書き換え中を示すL E Dを消灯し
、第3図M5の時間データ書き換えの処理を終了する。
In this case, when the address ADR becomes equal to the addition end address Re and the normalization of the last time data of the final section is completed, the determination in 5503 becomes YES, the determination in 5509 becomes No, and in S6, the first The LED indicating that the time data is being rewritten on the LED display section 10 shown in the figure is turned off, and the time data rewriting process M5 in FIG. 3 is completed.

上述の処理を、第7図(a)又は(b)のテンポイベン
1−P5からendイベントまでの区間の例で説明する
と、次のようになる。すなわち、まず、S42ではなく
S44の処理が実行されるため、タイマー値Qとしては
、1つ前の区間の値 Q=L/24            ・・・(8)が
用いられる。
The above processing will be explained as follows using an example of the section from tempo event 1-P5 to the end event in FIG. 7(a) or (b). That is, first, since the process of S44 is executed instead of S42, the value of the previous interval Q=L/24 (8) is used as the timer value Q.

このタイマー値Qを用いて、最終区間の各時間データt
、及びL6は、5505において、各々、というように
正規化される。
Using this timer value Q, each time data t in the final section
, and L6 are each normalized at 5505, and so on.

以上の動作により、例えば第7図(b)で示される5t
artイベントからテンポイベントP4、テンポイベン
トP4からテンポイベントP5及びテンポイベントP5
からendイベントまでの各1拍の区間が、全て96音
符を単位として24単位時間となるように正規化される
。しかも、各拍子の区間においては、各区間内の各時間
データの相対的な時間比は保存したまま正規化が行われ
る。
By the above operation, for example, 5t shown in FIG. 7(b)
From art event to tempo event P4, from tempo event P4 to tempo event P5, and tempo event P5
The interval of one beat from to the end event is normalized to be 24 time units with 96 notes as a unit. Moreover, in each beat interval, normalization is performed while preserving the relative time ratio of each time data within each interval.

これにより、演奏者自身が1拍毎のテンポを入力しつつ
演奏を行うことにより、各拍子内の時間データ間の相対
的な時間関係は、演奏者の演奏した通りに保存され、し
かも各拍子間のタイミングは、96音符単位で24単位
となるように正確に正規化される。従って、演奏者の個
人性を保存しつつ、演奏者間又は各演奏動作間のリズム
のずれを解消することができる。
This allows the performer to perform while inputting the tempo for each beat, so that the relative time relationship between the time data within each beat is saved as the performer played, and also for each beat. The timing between them is accurately normalized to 24 units of 96 notes. Therefore, while preserving the individuality of the performers, it is possible to eliminate rhythm deviations between performers or between each performance movement.

なお、演奏者が、第3図M3の演奏入力処理において、
何も演奏しないで第1図の演奏情報入力部3のスイッチ
3cを押下した場合、演奏データ記憶部8にはendイ
ベントのみが記憶されている。従って、第5図の332
〜S35の処理は実行されるが意味はなく、すぐに33
6がYESとなった後、341がNOとなる。更に55
03は1回だけNOとなって、5504〜5508の処
理は実行されるがこれらの処理も意味はない。そして、
5503→5509→S6と進んで、実質的に何も行わ
ない。この場合、5505において値0による除算が発
生しないよう、S23でタイマー値Qに予め0以外の値
が入力されている。
In addition, in the performance input process of FIG. 3 M3, the performer
If the switch 3c of the performance information input section 3 in FIG. 1 is pressed without playing anything, only the end event is stored in the performance data storage section 8. Therefore, 332 in FIG.
~The process in S35 is executed, but it has no meaning, and the process in S35 is executed immediately.
After 6 becomes YES, 341 becomes NO. 55 more
03 is NO only once, and the processes 5504 to 5508 are executed, but these processes are also meaningless. and,
The process proceeds from 5503 to 5509 to S6, and virtually nothing is done. In this case, a value other than 0 is input in advance to the timer value Q in S23 so that division by the value 0 does not occur in 5505.

本実施例では、第1図のフットス不ツチ3bによる拍子
を4分音符でとらせ、それに限られるものではなく、拍
子を2音符、8分音符、16分音符等でとらせることも
勿論可能であり、それらを任意に選択させることもでき
る。また、本実施例では、96分音符の単位で正規化を
行ったが、96分音符以外で正規化してもよい。
In this embodiment, the time signature by the footstool 3b in Fig. 1 is set as a quarter note, but the time signature is not limited to this, and it is of course possible to set the time signature as a half note, an eighth note, a sixteenth note, etc. , and they can be selected arbitrarily. Further, in this embodiment, normalization was performed in units of 96th notes, but normalization may be performed in units other than 96th notes.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、 演奏者は、演奏者自身のテンポをフ
ットスイッチ等の拍子タイミング入力手段でとりながら
、演奏操作手段で演奏操作を行える。従って、演奏者は
メトロノーム等の一定の拍子に無理に合わせて演奏を行
う必要がなく、演奏者の個性を生かした演奏操作を行う
ことが可能となる。
According to the present invention, the performer can operate the performance using the performance operation means while setting his or her own tempo using the beat timing input means such as a foot switch. Therefore, the performer does not have to force his performance to match a fixed time signature such as a metronome, and it is possible to carry out performance operations that make use of the performer's individuality.

そして、演奏再生時には、各拍子内の時間データ間の相
対的な時間関係が、演奏者の演奏した通りに保存され、
しかも各拍子間のタイミングが正確に均一化されて、自
動演奏が行われため、演奏者の個人性を保存しつつ、演
奏者間又は各演奏動作間のリズムのずれを解消すること
ができる。
Then, when the performance is played back, the relative time relationship between the time data within each beat is saved as performed by the performer.
Moreover, since the timing between each beat is accurately equalized and automatic performance is performed, it is possible to eliminate rhythm deviations between performers or between performance movements while preserving the individuality of the performers.

これにより、例えば1人又は複数の演奏者が、異なる楽
譜パートを別々に演奏して自動演奏用の音符情報を作成
し、それらを合成してアンサンプルで自動演奏を行わせ
るような場合においても、演奏者の個人性を保存したま
ま各演奏間のリズムを正確に同期させることが可能とな
る。
This allows, for example, when one or more performers play different musical score parts separately to create note information for automatic performance, and then synthesize them to perform automatic performance using unsamples. , it becomes possible to accurately synchronize the rhythm between each performance while preserving the individuality of the performer.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明の実施例の構成図、 第2図は、演奏情報記憶部7の記憶内容を示した図、 第3図は、本実施例の実行手順を示した動作フローチャ
ート、 第4図は、演奏データ記憶部の記憶内容の例を示した図
、 第5回は、時間データ書き換え処理の動作フローチャー
ト、 第6図は、除算処理の動作フローチャート、第7図は、
本実施例の動作説明図である。 工・・・SS1盤部、 2・・・人力センス回路、 b 4 ・ ・ 5 ・ ・ 6 ・ ・ 7 ・ ・ 8 ・ ・ 9 ・ ・ 10  ・ ・ 11 ・ ・ 12 ・ ・ 13 ・ ・ 14 ・ ・ 15 ・ ・ 演奏情報入力部、 ・・フットスイッチ、 演奏情報検出回路、 中央制御装置(CPU)、 プログラム記憶部、 演奏情報記憶部、 演奏データ記1.0部、 タイマ一部、 LED表示部、 テンポ値変換テーブル、 楽音発生回路、 D/Aコンバータ、 増幅器、 スピーカ。
FIG. 1 is a block diagram of an embodiment of the present invention; FIG. 2 is a diagram showing the storage contents of the performance information storage unit 7; FIG. 3 is an operation flowchart showing the execution procedure of the embodiment; Fig. 4 is a diagram showing an example of the storage contents of the performance data storage unit, Part 5 is an operation flowchart of time data rewriting processing, Fig. 6 is an operation flowchart of division processing, and Fig. 7 is:
FIG. 3 is an explanatory diagram of the operation of this embodiment. Engineering...SS1 panel, 2...Manual sense circuit, b 4 ・ ・ 5 ・ ・ 6 ・ ・ 7 ・ ・ 8 ・ ・ 9 ・ ・ 10 ・ ・ 11 ・ ・ 12 ・ ・ 13 ・ ・ 14 ・ ・15 ・ ・ Performance information input section, ... foot switch, performance information detection circuit, central control unit (CPU), program storage section, performance information storage section, 1.0 copy of performance data record, part of the timer, LED display section, Tempo value conversion table, musical tone generation circuit, D/A converter, amplifier, speaker.

Claims (1)

【特許請求の範囲】 1)楽音発生手段に演奏データを順次出力することによ
り該楽音発生手段に自動演奏を行わせる自動演奏装置に
おいて、 演奏者に演奏操作を行わせ、該演奏操作に基づく演奏デ
ータを出力する演奏操作手段と、演奏者に前記演奏操作
と共に拍子タイミングを入力させ、該入力操作に基づく
拍子タイミングデータを出力する拍子タイミング入力手
段と、前記演奏データ及び前記拍子タイミングデータを
記憶する記憶手段と、 演奏者の演奏操作に基づいて前記演奏操作手段及び前記
拍子タイミング入力手段から順次出力される前記演奏デ
ータ及び前記拍子タイミングデータの入力タイミングを
示す時間データを生成し、該演奏データ及び拍子タイミ
ングデータと共に前記記憶手段に書き込む書込手段と、 前記記憶手段に記憶されている時間的に隣り合う前記各
拍子タイミングデータによって定まる各区間の時間が相
互に等しくなるように、前記記憶手段に記憶されている
前記各時間データを正規化して書き換える時間データ書
き換え手段と、該書き換え動作の後に、前記記憶手段に
記憶されている前記各時間データに基づくタイミングで
、前記記憶手段から前記各演奏データを順次読み出して
前記楽音発生手段に出力する演奏再生手段と、を有する
ことを特徴とする自動演奏装置。 2)前記拍子タイミング入力手段は、演奏者に前記拍子
タイミングを足で入力させるフットスイッチであること
を特徴とする請求項1記載の自動演奏装置。
[Scope of Claims] 1) An automatic performance device that sequentially outputs performance data to a musical sound generating means to cause the musical sound generating means to automatically perform a performance, wherein the performer is made to perform a performance operation, and the performance is performed based on the performance operation. performance operation means for outputting data; beat timing input means for causing a performer to input beat timing along with the performance operation; and outputting beat timing data based on the input operation; and storing the performance data and the beat timing data. a storage means; generating time data indicating input timings of the performance data and the beat timing data sequentially outputted from the performance operation means and the beat timing input means based on a performance operation of a performer; writing means for writing into the storage means together with the beat timing data; and writing means for writing into the storage means so that the time of each section determined by each temporally adjacent beat timing data stored in the storage means is equal to each other. time data rewriting means for normalizing and rewriting each of the stored time data; and after the rewriting operation, rewriting each of the performance data from the storage means at a timing based on the time data stored in the storage means. an automatic performance device comprising: performance reproduction means for sequentially reading out and outputting the musical tone generation means to the musical tone generation means. 2) The automatic performance apparatus according to claim 1, wherein the beat timing input means is a foot switch that allows the player to input the beat timing with his/her foot.
JP1341018A 1989-12-28 1989-12-28 Automatic performance device Expired - Fee Related JP2658463B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1341018A JP2658463B2 (en) 1989-12-28 1989-12-28 Automatic performance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1341018A JP2658463B2 (en) 1989-12-28 1989-12-28 Automatic performance device

Publications (2)

Publication Number Publication Date
JPH03200289A true JPH03200289A (en) 1991-09-02
JP2658463B2 JP2658463B2 (en) 1997-09-30

Family

ID=18342455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1341018A Expired - Fee Related JP2658463B2 (en) 1989-12-28 1989-12-28 Automatic performance device

Country Status (1)

Country Link
JP (1) JP2658463B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5491176A (en) * 1994-06-16 1996-02-13 Imperial Chemical Industries Plc Process for preparing flexible foams
US6322908B1 (en) 1997-07-09 2001-11-27 Nec Corporation Organic electroluminescent device
US6329083B1 (en) 1997-11-05 2001-12-11 Nec Corporation Organic electroluminescent device containing a benzoperylene compound
US6465116B1 (en) 1998-06-08 2002-10-15 Nec Corporation Organic electroluminescent device
US6670051B2 (en) 1998-10-23 2003-12-30 Nec Corporation Organic electroluminescent device using hole-injectable, light-emitting material
US6699594B1 (en) 1998-06-08 2004-03-02 Nec Corporation Organic electroluminescent device
US6759144B2 (en) 1998-12-16 2004-07-06 Samsung Sdi Co., Ltd. Organic electroluminescence device
WO2004092111A1 (en) 2003-04-10 2004-10-28 Idemitsu Kosan Co., Ltd. Aromatic amine derivative and organic electroluminescent element employing the same
WO2007004364A1 (en) 2005-07-06 2007-01-11 Idemitsu Kosan Co., Ltd. Pyrene derivative and organic electroluminescence device making use of the same
WO2007052759A1 (en) 2005-11-07 2007-05-10 Idemitsu Kosan Co., Ltd. Organic electroluminescent element
WO2007099983A1 (en) 2006-02-28 2007-09-07 Idemitsu Kosan Co., Ltd. Organic electroluminescent device using fluoranthene derivative and indenoperylene derivative
EP2295519A1 (en) 2002-07-19 2011-03-16 Idemitsu Kosan Co., Ltd. Organic electroluminescent devices and organic luminescent medium
EP2448374A2 (en) 2003-12-01 2012-05-02 Idemitsu Kosan Co., Ltd. Asymmetric monoanthracene derivative, material for organic electroluminescent device and organic electroluminescent device utilizing the same
EP2770036A1 (en) 2002-03-15 2014-08-27 Idemitsu Kosan Co., Ltd Material for organic electroluminescent devices and organic electroluminescent devices made by using the same
EP2910619A1 (en) 2003-12-19 2015-08-26 Idemitsu Kosan Co., Ltd Light-emitting material for organic electroluminescent device, organic electroluminescent device using same, and material for organic electroluminescent device
US9412957B2 (en) 2012-08-22 2016-08-09 Samsung Display Co., Ltd. Cascade-type compound and organic light-emitting device including the same
US9478752B2 (en) 2013-01-11 2016-10-25 Samsung Display Co., Ltd. Organic light-emitting diode comprising amine-based compounds and pyrene-based compounds
US9496501B2 (en) 2013-05-23 2016-11-15 Samsung Display Co., Ltd. Organic light-emitting diode
US9520568B2 (en) 2013-05-23 2016-12-13 Industry-Academic Cooperation Foundation Gyeongsang National University Organic light-emitting diode
US9570687B2 (en) 2013-05-23 2017-02-14 Samsung Display Co., Ltd. Organic light-emitting diode
US9865828B2 (en) 2012-08-22 2018-01-09 Samsung Display Co., Ltd. Organic light emitting device
USRE49118E1 (en) 2005-12-15 2022-06-28 Idemitsu Kosan Co., Ltd. Material for organic electroluminescence device and electroluminescence device employing the same

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102253439B1 (en) 2013-07-30 2021-05-20 삼성디스플레이 주식회사 Heterocyclic compound and organic light emitting device comprising same
KR102283458B1 (en) 2014-07-16 2021-07-30 삼성디스플레이 주식회사 Compound and organic light emitting device comprising same

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5491177A (en) * 1994-06-16 1996-02-13 Imperial Chemical Industries Plc Process for preparing a flexible polyurethane foam
US5521225A (en) * 1994-06-16 1996-05-28 Imperial Chemical Industries Plc Process for preparing flexible foams
US5594040A (en) * 1994-06-16 1997-01-14 Imperial Chemical Industries Plc Process for preparing flexible foams
US5594039A (en) * 1994-06-16 1997-01-14 Imperial Chemical Industries Process for preparing flexible foams
US5491176A (en) * 1994-06-16 1996-02-13 Imperial Chemical Industries Plc Process for preparing flexible foams
US6322908B1 (en) 1997-07-09 2001-11-27 Nec Corporation Organic electroluminescent device
US7125614B2 (en) 1997-11-05 2006-10-24 Samsung Sdi Co., Ltd. Organic electroluminescent device
US6329083B1 (en) 1997-11-05 2001-12-11 Nec Corporation Organic electroluminescent device containing a benzoperylene compound
US6753097B2 (en) 1997-11-05 2004-06-22 Samsung Sdi Co., Ltd. Organic electroluminescent device
US6465116B1 (en) 1998-06-08 2002-10-15 Nec Corporation Organic electroluminescent device
US6699594B1 (en) 1998-06-08 2004-03-02 Nec Corporation Organic electroluminescent device
US6670051B2 (en) 1998-10-23 2003-12-30 Nec Corporation Organic electroluminescent device using hole-injectable, light-emitting material
US6759144B2 (en) 1998-12-16 2004-07-06 Samsung Sdi Co., Ltd. Organic electroluminescence device
EP2770036A1 (en) 2002-03-15 2014-08-27 Idemitsu Kosan Co., Ltd Material for organic electroluminescent devices and organic electroluminescent devices made by using the same
EP3290490A1 (en) 2002-03-15 2018-03-07 Idemitsu Kosan Co., Ltd Material for organic electroluminescent devices and organic electroluminescent devices made by using the same
EP2295519A1 (en) 2002-07-19 2011-03-16 Idemitsu Kosan Co., Ltd. Organic electroluminescent devices and organic luminescent medium
WO2004092111A1 (en) 2003-04-10 2004-10-28 Idemitsu Kosan Co., Ltd. Aromatic amine derivative and organic electroluminescent element employing the same
EP2448374A2 (en) 2003-12-01 2012-05-02 Idemitsu Kosan Co., Ltd. Asymmetric monoanthracene derivative, material for organic electroluminescent device and organic electroluminescent device utilizing the same
EP2910619A1 (en) 2003-12-19 2015-08-26 Idemitsu Kosan Co., Ltd Light-emitting material for organic electroluminescent device, organic electroluminescent device using same, and material for organic electroluminescent device
WO2007004364A1 (en) 2005-07-06 2007-01-11 Idemitsu Kosan Co., Ltd. Pyrene derivative and organic electroluminescence device making use of the same
WO2007052759A1 (en) 2005-11-07 2007-05-10 Idemitsu Kosan Co., Ltd. Organic electroluminescent element
USRE49118E1 (en) 2005-12-15 2022-06-28 Idemitsu Kosan Co., Ltd. Material for organic electroluminescence device and electroluminescence device employing the same
WO2007099983A1 (en) 2006-02-28 2007-09-07 Idemitsu Kosan Co., Ltd. Organic electroluminescent device using fluoranthene derivative and indenoperylene derivative
US9412957B2 (en) 2012-08-22 2016-08-09 Samsung Display Co., Ltd. Cascade-type compound and organic light-emitting device including the same
US9865828B2 (en) 2012-08-22 2018-01-09 Samsung Display Co., Ltd. Organic light emitting device
US9478752B2 (en) 2013-01-11 2016-10-25 Samsung Display Co., Ltd. Organic light-emitting diode comprising amine-based compounds and pyrene-based compounds
US9496501B2 (en) 2013-05-23 2016-11-15 Samsung Display Co., Ltd. Organic light-emitting diode
US9520568B2 (en) 2013-05-23 2016-12-13 Industry-Academic Cooperation Foundation Gyeongsang National University Organic light-emitting diode
US9570687B2 (en) 2013-05-23 2017-02-14 Samsung Display Co., Ltd. Organic light-emitting diode

Also Published As

Publication number Publication date
JP2658463B2 (en) 1997-09-30

Similar Documents

Publication Publication Date Title
JPH03200289A (en) Automatic player
JP6011064B2 (en) Automatic performance device and program
JP3728942B2 (en) Music and image generation device
JP2896716B2 (en) Automatic performance device
JP6728702B2 (en) Electronic audio equipment
JP2005274851A (en) Electronic music system and computer program applied to the same system
JP3214623B2 (en) Electronic music playback device
JP3709821B2 (en) Music information editing apparatus and music information editing program
JP2650591B2 (en) Automatic accompaniment device
JP4070315B2 (en) Waveform playback device
JP3903492B2 (en) Karaoke equipment
JP4270102B2 (en) Automatic performance device and program
JP2660462B2 (en) Automatic performance device
JPH07295589A (en) Waveform processor
JP6790362B2 (en) Electronic acoustic device
JP2770767B2 (en) Automatic performance device
JP3752956B2 (en) PERFORMANCE GUIDE DEVICE, PERFORMANCE GUIDE METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING PERFORMANCE GUIDE PROGRAM
JP2674452B2 (en) Music player
JPH09146554A (en) Waveform companding device
JP2756799B2 (en) Automatic rhythm playing device
JPH0728462A (en) Automatic playing device
JP4084858B2 (en) Waveform playback device
JP3709820B2 (en) Music information editing apparatus and music information editing program
JP6665541B2 (en) Electroacoustic device
JP2004219495A (en) Electronic musical instrument

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19970506

LAPS Cancellation because of no payment of annual fees