JP2018141899A - Musical instrument sound recognition apparatus and musical instrument sound recognition program - Google Patents
Musical instrument sound recognition apparatus and musical instrument sound recognition program Download PDFInfo
- Publication number
- JP2018141899A JP2018141899A JP2017036746A JP2017036746A JP2018141899A JP 2018141899 A JP2018141899 A JP 2018141899A JP 2017036746 A JP2017036746 A JP 2017036746A JP 2017036746 A JP2017036746 A JP 2017036746A JP 2018141899 A JP2018141899 A JP 2018141899A
- Authority
- JP
- Japan
- Prior art keywords
- frequency
- pitch
- unit
- instrument sound
- musical instrument
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、楽器音認識装置及び楽器音認識プログラムに関する。 The present invention relates to a musical instrument sound recognition apparatus and a musical instrument sound recognition program.
近年、機械学習の発展により、音楽の分野等における楽音認識技術の発展が目覚ましい。歌声又は演奏音等の音程認識において、単音については、自己相関法等の、基本周波数(F0)抽出を行う技術により容易に認識することができる。一方で、例えば、ピアノ又はギター等の多重音を演奏できる楽器により奏でられる、複数の音程が混ざった演奏音等については、上述したF0推定を行った場合、複数の音程のうち一部の音程しか認識できないこと、又は、誤った音程を認識することが起こり得る。 In recent years, with the development of machine learning, the development of music recognition technology in the field of music and the like has been remarkable. In pitch recognition such as singing voice or performance sound, a single tone can be easily recognized by a technique for extracting a fundamental frequency (F0) such as an autocorrelation method. On the other hand, for example, a performance sound mixed with a plurality of pitches played by an instrument capable of playing multiple sounds such as a piano or a guitar, for example, a part of the plurality of pitches when the F0 estimation described above is performed. It can happen that it can only be recognized, or it can recognize an incorrect pitch.
従来、複数の音程が混ざった演奏音等を認識する手法として、フーリエ変換等の周波数解析が用いられている。例えば、特許文献1には、ピアノからの楽音をピックアップして音響信号(録音データ)に変換し、音響信号に高速フーリエ変換を施すことによって和音を認識する技術が記載されている。
Conventionally, frequency analysis such as Fourier transform has been used as a method for recognizing a performance sound in which a plurality of pitches are mixed. For example,
フーリエ変換による周波数解析では、直交周波数による周波数解析を行うため、ある程度の時間フレーム長を確保し、周波数分解能を高める必要がある。特に低音域においては、微小の周波数の変化で音程が変わるため、隣接する音程の周波数の差よりも細かい周波数分解能でのフーリエ変換が必要になり、時間フレーム長を十分に確保する必要がある。このため、フーリエ変換による周波数解析では、速いメロディを分析して複数の音程を認識することが困難な場合がある。また、例えば和音を構成する各音程については、転回形を考慮する必要があるところ、上述した従来の周波数解析を行うのみによっては、転回形を考慮して各音程を認識することが困難である。すなわち、従来の周波数解析を行うのみによっては、音程の組み合わせが同一で且つ最低音であるベースが異なる、いわゆる転回形を区別して認識することが困難である。このように、従来の手法では、速いメロディの音程を認識することができないこと、及び、転回形を考慮して各音程を認識することができないこと等を理由として、複数の音程を十分に認識することができていない。 In frequency analysis based on Fourier transform, frequency analysis is performed using orthogonal frequencies, so that it is necessary to secure a certain time frame length and increase frequency resolution. In particular, in the low sound range, the pitch changes due to a minute change in frequency, so that a Fourier transform with a frequency resolution finer than the difference in frequency between adjacent pitches is necessary, and it is necessary to ensure a sufficient time frame length. For this reason, in frequency analysis by Fourier transform, it may be difficult to recognize a plurality of pitches by analyzing a fast melody. Further, for example, for each pitch constituting a chord, it is necessary to consider the inversion form. However, it is difficult to recognize each pitch in consideration of the inversion form only by performing the conventional frequency analysis described above. . That is, depending on only the conventional frequency analysis, it is difficult to distinguish and recognize so-called turning forms in which the combination of intervals is the same and the bass that is the lowest tone is different. In this way, the conventional method can fully recognize multiple pitches because it cannot recognize the pitch of a fast melody and cannot recognize each pitch in consideration of the turning form. Not be able to.
本発明は上記実情に鑑みてなされたものであり、複数の音程の認識精度を向上させることを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to improve the recognition accuracy of a plurality of pitches.
本発明の一態様に係る楽器音認識装置は、楽器の音である楽器音を認識する楽器音認識装置であって、楽器音を録音した録音データについて、所定の音階に含まれる各音程の周波数毎に周波数解析を行う解析部と、録音データを、所定の周波数よりも高い周波数成分を低減させる低域通過フィルタによって処理し、該処理後の信号である低減信号の基本周波数である音程を推定する推定部と、解析部による、各音程の周波数毎の周波数解析結果と、推定部による、基本周波数である音程の推定結果とに基づき、録音データに係る複数の音程を識別する識別部と、識別部によって識別された複数の音程を示す識別結果を出力する出力部と、を備える。 A musical instrument sound recognition apparatus according to an aspect of the present invention is a musical instrument sound recognition apparatus that recognizes a musical instrument sound that is a sound of a musical instrument, and for recording data obtained by recording the musical instrument sound, the frequency of each pitch included in a predetermined scale. Analyzing unit that performs frequency analysis every time, and processing the recorded data with a low-pass filter that reduces frequency components higher than a predetermined frequency, and estimating the pitch that is the fundamental frequency of the reduced signal that is the processed signal An identification unit for identifying a plurality of intervals related to the recording data based on a frequency analysis result for each frequency of each pitch by the estimation unit and an estimation result of a pitch that is a fundamental frequency by the estimation unit; An output unit that outputs an identification result indicating a plurality of pitches identified by the identification unit.
本発明の一態様に係る楽器音認識プログラムは、コンピュータを、楽器の音である楽器音を録音した録音データについて、所定の音階に含まれる各音程の周波数毎に周波数解析を行う解析部と、録音データを、所定の周波数よりも高い周波数成分を低減させる低域通過フィルタによって処理し、該処理後の信号である低減信号の基本周波数である音程を推定する推定部と、解析部による、各音程の周波数毎の周波数解析結果と、推定部による、基本周波数である音程の推定結果とに基づき、録音データに係る複数の音程を識別する識別部と、識別部によって識別された複数の音程を示す識別結果を出力する出力部と、として機能させる。 The musical instrument sound recognition program according to one aspect of the present invention includes a computer, an analysis unit that performs frequency analysis for each frequency of each pitch included in a predetermined scale, with respect to recording data obtained by recording a musical instrument sound that is a sound of a musical instrument, The recording data is processed by a low-pass filter that reduces frequency components higher than a predetermined frequency, and the estimation unit that estimates the pitch that is the fundamental frequency of the reduced signal that is the processed signal, and the analysis unit, Based on the frequency analysis result for each frequency of the pitch and the estimation result of the pitch that is the fundamental frequency by the estimation unit, an identification unit that identifies a plurality of intervals related to the recording data, and a plurality of pitches identified by the identification unit And functioning as an output unit that outputs the identification result shown.
本発明に係る楽器音認識装置及び楽器音認識プログラムでは、楽器音を録音した録音データについて、所定の音階に含まれる各音程に応じた周波数毎に周波数解析が行われ、複数の音程が識別される。従来のようにフーリエ変換により周波数解析を行う場合には、周波数分解能を高めるべくある程度の時間フレーム長を確保する必要がある。これに対して、本発明に係る楽器音認識装置は、各音程に応じた周波数毎に周波数解析を行うため、時間フレーム長の制限が無く、任意の時間フレーム長で音程を解析することができる。これにより、例えば速いメロディについては短い時間で解析することが可能になり、速いメロディについても適切に識別することができる。また、本発明に係る楽器音認識装置では、録音データが低域通過フィルタによって処理され、処理後の低減信号の基本周波数となる音程が推定され、当該推定の結果が考慮されて複数の音程が識別される。基本周波数となる音程の推定結果を考慮することにより、録音データに係る複数の音程のうち最も低い音程が定まるため、音程の組み合わせが同一で且つ最低音であるベースが異なる、いわゆる転回形についても区別して、複数の音程を認識することができる。なお、例えば複数の音程が混ざった録音データについて単に基本周波数の推定を行おうとした場合には、複数の音程のうち一部の音程しか認識できない等の不具合が発生し得る。この点、本発明に係る楽器音認識装置では、低域通過フィルタによって所定の周波数よりも高い周波数成分を低減させた後の低減信号について基本周波数となる音程を推定しているので、録音データに含まれる複数の音程のうちベース以外の音程を低減した状態で、すなわち、複数の音程の混在を抑制した状態で、基本周波数となる音程を推定することができ、基本周波数の推定精度を向上させることができる。これにより、転回形についても区別して、複数の音程を適切に認識することができる。以上より、本発明に係る楽器音認識装置によれば、速いメロディの音程を認識することができると共に、転回形を考慮して各音程を認識することができ、複数の音程の認識精度を向上させることができる。 In the musical instrument sound recognition apparatus and the musical instrument sound recognition program according to the present invention, a frequency analysis is performed for each frequency corresponding to each pitch included in a predetermined scale with respect to recording data obtained by recording a musical instrument sound, and a plurality of pitches are identified. The When performing frequency analysis by Fourier transform as in the prior art, it is necessary to ensure a certain time frame length in order to increase the frequency resolution. On the other hand, since the musical instrument sound recognition apparatus according to the present invention performs frequency analysis for each frequency corresponding to each pitch, there is no time frame length limitation and the pitch can be analyzed with an arbitrary time frame length. . Thereby, for example, a fast melody can be analyzed in a short time, and a fast melody can be appropriately identified. Further, in the musical instrument sound recognition apparatus according to the present invention, the recorded data is processed by the low-pass filter, the pitch that becomes the fundamental frequency of the reduced signal after processing is estimated, and the result of the estimation is taken into consideration to generate a plurality of pitches. Identified. Considering the estimation result of the pitch that becomes the fundamental frequency, the lowest pitch among the plurality of pitches related to the recording data is determined, so the so-called inversion type in which the combination of pitches is the same and the bass that is the lowest tone is different A plurality of intervals can be recognized by distinguishing them. For example, when the basic frequency is simply estimated for recording data in which a plurality of pitches are mixed, there may be a problem that only a part of the plurality of pitches can be recognized. In this regard, in the musical instrument sound recognition apparatus according to the present invention, the pitch that becomes the fundamental frequency is estimated for the reduced signal after the frequency component higher than the predetermined frequency is reduced by the low-pass filter. It is possible to estimate the pitch that becomes the fundamental frequency in a state in which the pitch other than the bass among the plurality of pitches included is reduced, that is, in a state in which mixing of a plurality of pitches is suppressed, and to improve the estimation accuracy of the fundamental frequency. be able to. Thereby, a plurality of pitches can be appropriately recognized by distinguishing the inversion form. As described above, according to the musical instrument sound recognition apparatus according to the present invention, it is possible to recognize the pitch of a fast melody and to recognize each pitch in consideration of the turning form, thereby improving the recognition accuracy of a plurality of pitches. Can be made.
本発明によれば、複数の音程の認識精度を向上させることができる。 According to the present invention, it is possible to improve the recognition accuracy of a plurality of intervals.
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。図面の説明において、同一又は同等の要素には同一符号を用い、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same reference numerals are used for the same or equivalent elements, and redundant descriptions are omitted.
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.
図1は、楽器音認識装置の機能構成を示すブロック図である。図1に示される楽器音認識装置10は、楽器によって演奏された音である楽器音を認識する装置である。楽器音認識装置10は、楽器音に含まれる複数の音程を認識する。本実施形態では、楽器音認識装置10が、楽器音に含まれる複数の音程の一例として和音構成を認識するとして説明するが、楽器音に含まれる複数の音程は、和音を構成しない複数の音程の組み合わせであってもよい。楽器音は、例えばギター又はピアノ等の、多重音を演奏できる楽器により奏でられる演奏音である。和音は、音程(周波数)が異なる複数の音が合成された音であり、特定の音程の組み合わせである。和音は、コードとも呼ばれる。
FIG. 1 is a block diagram showing a functional configuration of a musical instrument sound recognition apparatus. The instrument
楽器音認識装置10は、機能的には、録音部11と、録音データ格納部12と、周波数解析部13(解析部)と、F0推定部14(推定部)と、多重音解析部15(識別部)と、出力部16と、を備えている。楽器音認識装置10は、例えば、図2に示されるハードウェアによって構成されている。
The instrument
図2は、楽器音認識装置10のハードウェア構成を示す図である。図2に示されるように、楽器音認識装置10は、物理的には、1又は複数のプロセッサ1001、主記憶装置であるメモリ1002、ハードディスク又は半導体メモリ等のストレージ1003、ネットワークカード等のデータ送受信デバイスである通信装置1004、入力装置1005、及びディスプレイ等の出力装置1006等を含むコンピュータシステムとして構成されている。図1に示される各機能は、図2に示されるメモリ1002等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、プロセッサ1001の制御のもとで入力装置1005、出力装置1006、及び通信装置1004を動作させるとともに、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みを行うことで実現される。
FIG. 2 is a diagram illustrating a hardware configuration of the musical instrument
再び図1を参照して、楽器音認識装置10の各機能の詳細を説明する。
With reference to FIG. 1 again, details of each function of the musical instrument
録音部11は、楽器音を所定の時間単位で録音し、録音データとして取得する。録音部11は、楽器音を所定の時間単位でサンプリングし、サンプリングした楽器音を録音データとして順次録音する。サンプリング周波数は、例えば16000Hz又は44100Hz等である。サンプリングされた楽器音は、サンプル(音響信号)といい、時系列に配列された所定数(n個;nは1以上の整数)のサンプルをまとめて録音データ(フレーム)という。各サンプルは、当該サンプルが取得された時点での楽器音の振幅値(音量)であって、例えば、16ビットで表される。
The
録音部11は、各サンプルを時系列に(サンプリングされた順に)配列し、所定数のサンプルごとに録音データとする。1つの録音データに含まれるサンプルの数nは、例えば、256である。サンプリング周波数が16000Hzである場合、録音データは、0.016秒程度の楽器音に相当する。録音部11は、楽器音を繰り返しサンプリングし続け、録音データを取得し続ける。録音部11は、各録音データを録音データ格納部12に順次出力する。
The
録音データ格納部12は、録音部11から録音データを順次受け取り、録音部11によって取得された録音データを格納する。録音データ格納部12は、例えば、FIFO(First In First Out)バッファで構成される。この場合、録音データ格納部12に格納可能な数の録音データが格納されると、録音データ格納部12は、録音データ格納部12に格納されている録音データのうち最も古い(最初に格納された)録音データを破棄し、新しい録音データを格納する。つまり、録音データ格納部12は、複数の録音データを一時的に格納(バッファリング)する。録音データ格納部12は、格納されている録音データを、周波数解析部13及びF0推定部14に出力する。
The recording
周波数解析部13は、録音データについて、所定の音階に含まれる各音程の周波数毎に周波数解析を行う。所定の音階は、例えば12音階である。本実施形態では、所定の音階が12音階であるとして説明する。所定の音階が12音階である場合、1オクターブに含まれる音程は、例えば低い音から順に、「A」「B♭」「B」「C」「C♯」「D」「E♭」「E」「F」「F♯」「G」「A♭」の12個であり、それぞれ個別の周波数とされている。ある音程の周波数を約1.0592倍した値が、1つ上の音程の周波数となる。例えば、最も低い「A」の周波数が55.00Hzであるとすると、1つ上の音程(「B♭」)の周波数は、55.00×1.0592≒58.25Hzとなる。また、ある音程の周波数を2倍した値が、1オクターブ高い、同じ音程の周波数となる。例えば、あるオクターブの「A」の周波数が55.00Hzであるとすると、1オクターブ高い「A」の周波数は55.00×2=110.00Hzとなる。どの周波数帯(オクターブ)で周波数解析を行うかについては、予め把握された、楽器が奏でる周波数に応じて決定される。
The
周波数解析部13は、12音階に含まれる各音程の周波数に応じた正弦波及び余弦波によって録音データの信号を積分することにより、各音程の周波数毎に振幅強度を導出し、該振幅強度を各音程の特徴量とする。より詳細には、周波数解析部13は、各音程の周波数に応じた正弦波及び余弦波によって録音データの波形を積分し、該積分結果の二乗を足し合わせたものを、各音程の振幅強度とする。具体的には、周波数解析部13は、下記(1)式に基づいて、各音程の周波数毎に振幅強度を導出する。
上記(1)式において、fは周波数(12音階に含まれるいずれかの音程の周波数)、nは録音データに含まれるサンプリング数、x(k)はk番目のサンプルの振幅値、Sampling Rateはサンプリング周波数、Power(f)は周波数がfである音程(12音階に含まれるいずれかの音程)の振幅強度を示している。
The
In the above equation (1), f is the frequency (frequency of any pitch included in the 12th scale), n is the number of samplings included in the recording data, x (k) is the amplitude value of the kth sample, and Sampling Rate is The sampling frequency, Power (f), indicates the amplitude intensity of a pitch (any pitch included in the 12th scale) whose frequency is f.
周波数解析部13は、上記(1)式に基づいて、例えば最も低い「A」の周波数である55Hzから順に、1.0592倍の周波数毎に振幅強度を導出する。すなわち、図3に示されるように、周波数解析部13は、最も低い「A」の周波数である55Hzから55×1.0592mHzまで、m+1個の周波数分だけ、振幅強度を導出する。なお、m+1は少なくとも12音階を構成する音程の個数(12)よりも大きい。すなわち、mは11以上の整数である。周波数解析部13は、例えば、3オクターブ分(12×3=36個)の音程の周波数について、振幅強度を導出する。
Based on the above equation (1), the
周波数解析部13は、オクターブが異なる同じ音程の振幅強度については、足し合わせる処理を行い、最終的に互いに異なる12個の音程の振幅強度を、各音程の特徴量である音階ベクトル(クロマベクトル)として導出する。図4に示される例では、55Hz〜104Hzのオクターブ、110Hz〜208Hzのオクターブ、及び220Hz〜416Hzのオクターブ、の3つのオクターブの同じ音程の振幅強度が合算されて、各音程の特徴量である音階ベクトル(クロマベクトル)が導出されている。周波数解析部13は、各音程の特徴量である音階ベクトルの値を0〜1の値に正規化した値(各音程の特徴量に基づく第1の特徴量)を、多重音解析部15に出力する。各音程の正規化は、例えば、各音程の音階ベクトルを、最も音階ベクトルが大きい音程の音階ベクトルで除算することにより導出される。
The
F0推定部14は、録音データに係る基本周波数(F0)である音程を推定する。基本周波数とは、信号に含まれる最も低い周波数成分の周波数である。F0推定部14は、録音データを、所定の周波数よりも高い周波数成分を低減させる低域通過フィルタによって処理し、該処理後の信号である低減信号の基本周波数である音程を推定する。例えば、もっとも低いオクターブの周波数帯(55Hz〜110Hz)までの音はF0推定部で音程を解析する等が考えられる。この場合、110Hz以下の音だけを通過させる低域通過フィルタを用いる。
The
F0推定部14による処理を行う目的について説明する。上述したように、周波数解析部13は、12種類の音程毎に振幅強度を導出している。後述する多重音解析部15は、振幅強度の大きい音程の組み合わせに基づいて、和音(コード)を推定する(詳細は後述)。ここで、和音は、音程の組み合わせから一意に特定することができない場合がある。すなわち、音程の組み合わせが同じであったとしても、例えばC(ルートを最低音であるベースとする)と、その第1転回形であるC/E(3度を最低音であるベースとする)と、その第2転回形であるC/G(5度を最低音であるベースとする)とが存在するため、単に音程毎の振幅強度を導出しただけでは、和音を正確に推定できない場合がある。これに対して、最も低いオクターブの周波数帯だけF0抽出部で最も強い音階を抽出することで、ベース音を判定しやすくなる。ベース音は最も低いオクターブの周波数帯では単一の音になっている場合が多く、自己相関法でも判定しやすいという特徴がある。低域通過フィルタによって所定の周波数よりも高い周波数成分を低減させて、和音に含まれるベース以外の音程の周波数成分を低減させた低減信号を用いることにより、最低音であるベースの周波数(基本周波数)を推定し易くなり、転回形を考慮した場合であっても、後述する多重音解析部15による和音の推定が可能となる。
The purpose of performing the processing by the
F0推定部14は、上述した低域通過フィルタによって処理された後の信号である低減信号について、例えば自己相関法を用いて、12音階に含まれる各音程が基本周波数である尤もらしさを示す第1尤度を、各音程毎に導出する。自己相関法は、基本周波数を導出するに際して一般的に行われる手法であり、複数のサンプルが含まれた2つの同じデータを準備し、kサンプルずらした状態でのデータ間の相関値(自己相関値)を導出し、該自己相関値から基本周波数を導出する手法である。自己相関値は、サンプルをずらした状態において、2つのデータ間の対応するサンプル同士を掛け合わせた値を、全サンプル分足し合わせることにより導出される。当該足し合わせた値に応じてデータ間の相関(自己相関値)が判断される。例えば、kサンプルずらした場合の自己相関値は、「サンプリング周波数」/「k」(Hz)が基本周波数である尤度とされる。本実施形態では、12音階を構成する音程毎に周波数が決まっているため、「サンプリング周波数」/「12音階を構成する各音程の周波数」(サンプル)ずらした自己相関値が導出されることにより、12音階に含まれる各音程が基本周波数である尤もらしさを示す第1尤度が導出される。F0推定部14は、自己相関値が高い音程ほど、第1尤度を高くする。このように、F0推定部14は、各音程の第1尤度を導出することによって基本周波数である音程を推定する。F0推定部14は、各音程の第1尤度を0〜1の値に正規化した値(各音程の第1尤度に基づく第2の特徴量)を、多重音解析部15に出力する。各音程の正規化は、例えば、各音程の第一尤度を、最も第1尤度が大きい音程の第1尤度で除算することにより導出される。
The
多重音解析部15は、周波数解析部13による、各音程の周波数毎の周波数解析結果と、F0推定部14による、基本周波数である音程の推定結果とに基づき、録音データに係る和音を識別する。多重音解析部15には、上述したとおり、各音程の周波数毎の周波数解析結果として、各音程の特徴量である音階ベクトル(クロマベクトル)を正規化した値である第1の特徴量が入力されると共に、基本周波数である音程の推定結果として、各音程が基本周波数である尤もらしさを示す第1尤度を正規化した値である第2の特徴量が入力される。
The multiple
多重音解析部15は、図5に示されるニューラルネットワークN1を有している。多重音解析部15は、ニューラルネットワークN1を用いて、録音データに係る和音の識別及び学習を行う。ニューラルネットワークN1は、各音程の特徴量である音階ベクトル(クロマベクトル)に基づく第1の特徴量、及び、各音程が基本周波数である尤もらしさを示す第1尤度に基づく第2の特徴量を入力として、録音データに係る和音の尤もらしさを示す第2尤度を出力する。第2尤度は、例えばシグモイド関数値であり、0〜1の値をとりうる。第2尤度が大きいほど、録音データに係る(含まれる)和音である可能性が高いことを意味する。多重音解析部15は、例えば、第2尤度が最も大きい和音を、録音データに係る和音であると識別し、該和音を特定する情報を出力部16に出力する。
The
ニューラルネットワークN1は、各音程の第1の特徴量に対応した複数の入力ノード311を含む入力層31と、各音程の第2の特徴量に対応した複数の入力ノード321を含む入力層32と、複数の中間ノード331を含む中間層33と、出力ノード341を含む出力層34と、を備えている。入力ノード311は、周波数解析部13から受け取った12個の各音程の第1の特徴量それぞれに対応して設けられており、12個の入力ノード311それぞれには、いずれかの音程の第1の特徴量が入力される。入力ノード321は、F0推定部14から受け取った12個の各音程の第2の特徴量それぞれに対応して設けられており、12個の入力ノード321それぞれには、いずれかの音程の第2の特徴量が入力される。中間ノード331は、1以上の入力ノード311に入力された第1の特徴量と、1以上の入力ノード321に入力された第2の特徴量とを用いて所定の計算を行い、計算結果を出力ノード341に出力する。出力ノード341は、推定対象の和音の数だけ設けられており、各出力ノード341は、いずれかの和音の第2尤度を出力する。出力ノード341は、中間ノード331から受け取った計算結果を用いて、和音の第2尤度を計算し、該第2尤度を出力する。
The neural network N1 includes an
出力部16は、多重音解析部15によって識別された和音を示す識別結果を出力する。出力部16は、多重音解析部15から入力された和音を特定する情報を識別結果として、楽器音認識装置10の外部に出力する。
The
次に、図6を参照して、楽器音認識装置10における楽器音認識方法の一連の処理を説明する。図6は、楽器音認識装置10が行う楽器音認識方法の一連の処理を示すフローチャートである。
Next, a series of processes of the instrument sound recognition method in the instrument
まず、録音部11が、楽器音を所定の時間単位でサンプリングし、サンプリングした楽器音を録音データとして順次取得する(ステップS1)。そして、録音部11は、各サンプルを時系列に配列して、所定数のサンプル毎に録音データとして録音データ格納部12に順次出力する。
First, the
続いて、録音データ格納部12は、録音部11から録音データを順次受け取り、録音部11によって取得された録音データを格納する(ステップS2)。録音データ格納部12は、格納されている録音データを、周波数解析部13及びF0推定部14に出力する。
Subsequently, the recording
続いて、周波数解析部13は、録音データについて、12音階に含まれる各音程の周波数毎に周波数解析を行う(ステップS3)。周波数解析部13は、12音階に含まれる各音程の周波数に応じた正弦波及び余弦波によって録音データの信号を積分することにより、各音程の周波数毎に振幅強度を導出し、該振幅強度を各音程の特徴量とする。周波数解析部13は、各音程の特徴量である音階ベクトルの値を0〜1の値に正規化した値(各音程の特徴量に基づく第1の特徴量)を、多重音解析部15に出力する。
Subsequently, the
続いて、F0推定部14は、録音データに係る基本周波数(F0)である音程を推定する(ステップS4)。F0推定部14は、録音データを、所定の周波数よりも高い周波数成分を低減させる低域通過フィルタによって処理し、該処理後の信号である低減信号の基本周波数である音程を推定する。F0推定部14は、上述した低域通過フィルタによって処理された後の信号である低減信号について、例えば自己相関法を用いて、12音階に含まれる各音程が基本周波数である尤もらしさを示す第1尤度を、各音程毎に導出する。F0推定部14は、各音程の第1尤度を0〜1の値に正規化した値(各音程の第1尤度に基づく第2の特徴量)を、多重音解析部15に出力する。
Subsequently, the
続いて、多重音解析部15は、周波数解析部13による、各音程の周波数毎の周波数解析結果と、F0推定部14による、基本周波数である音程の推定結果とに基づき、録音データに係る和音を識別する(ステップS5)。多重音解析部15は、ニューラルネットワークN1を用いて、録音データに係る和音を識別する。ニューラルネットワークN1は、各音程の特徴量である音階ベクトル(クロマベクトル)に基づく第1の特徴量、及び、各音程が基本周波数である尤もらしさを示す第1尤度に基づく第2の特徴量を入力として、録音データに係る和音の尤もらしさを示す第2尤度を出力する。多重音解析部15は、例えば、第2尤度が最も大きい和音を、録音データに係る和音であると識別し、該和音を特定する情報を出力部16に出力する。
Subsequently, the multiple
そして、出力部16は、多重音解析部15によって識別された和音を示す識別結果を、楽器音認識装置10の外部に出力する(ステップS6)。以上が、楽器音認識装置10が行う楽器音認識方法の一連の処理の一例である。
And the
続いて、図8を参照して、コンピュータを楽器音認識装置10として機能させるための楽器音認識プログラムPについて説明する。
Next, an instrument sound recognition program P for causing a computer to function as the instrument
楽器音認識プログラムPは、メインモジュールP10、録音モジュールP11、録音データ格納モジュールP12、周波数解析モジュールP13、F0推定モジュールP14、多重音解析モジュールP15、及び出力モジュールP16を備える。メインモジュールP10は、楽器音認識装置10としての処理を統括的に制御する部分である。録音モジュールP11、録音データ格納モジュールP12、周波数解析モジュールP13、F0推定モジュールP14、多重音解析モジュールP15、及び出力モジュールP16を実行することにより表現される機能は、それぞれ、録音部11、録音データ格納部12、周波数解析部13、F0推定部14、多重音解析部15、及び出力部16の機能と同様である。
The instrument sound recognition program P includes a main module P10, a recording module P11, a recording data storage module P12, a frequency analysis module P13, an F0 estimation module P14, a multiple sound analysis module P15, and an output module P16. The main module P10 is a part that comprehensively controls processing as the musical instrument
楽器音認識プログラムPは、例えば、CD−ROM、DVD若しくはROM等の記録媒体又は半導体メモリによって提供される。また、楽器音認識プログラムPは、搬送波に重畳されたコンピュータデータ信号としてネットワークを介して提供されてもよい。 The musical instrument sound recognition program P is provided by, for example, a recording medium such as a CD-ROM, a DVD, or a ROM, or a semiconductor memory. The musical instrument sound recognition program P may be provided via a network as a computer data signal superimposed on a carrier wave.
次に、本実施形態に係る楽器音認識装置10の作用効果について、従来の楽器音認識技術と対比しながら説明する。
Next, the effect of the musical instrument
従来の楽器音認識技術においては、和音を認識するに際し、フーリエ変換による周波数解析を行うことが一般的である。フーリエ変換による周波数解析では、直交周波数による周波数解析を行っており、図7に示されるように、時間フレーム長をTとすると、基底周波数は1/T、2/T、…n/Tとなり(サンプル数がnの場合)、周波数間隔は1/Tとなる。このため、例えば、低音域のラの音(55Hz)まで解析できるようにするためには、1つ上の音程のシ♭の音(58Hz)との差が3Hzなので、1/Tが3Hzより小さくなるような周波数分解能が必要となる。したがって、時間フレーム長Tは333ミリ秒以上必要となり、333ミリ秒より速い時間で音程が変わるメロディを解析することが困難である(以下、「第1の課題」と記載する場合がある)。 In conventional instrument sound recognition technology, it is common to perform frequency analysis by Fourier transform when recognizing chords. In the frequency analysis by Fourier transform, frequency analysis by orthogonal frequency is performed. As shown in FIG. 7, when the time frame length is T, the base frequency is 1 / T, 2 / T,... N / T ( When the number of samples is n), the frequency interval is 1 / T. For this reason, for example, in order to be able to analyze up to a low-range sound (55 Hz), the difference between the upper pitch and the sound (58 Hz) is 3 Hz, so 1 / T is 3 Hz or higher. A small frequency resolution is required. Therefore, the time frame length T is required to be 333 milliseconds or more, and it is difficult to analyze a melody whose pitch changes in a time faster than 333 milliseconds (hereinafter, sometimes referred to as “first problem”).
また、和音には、音程の組み合わせが同じであったとしても、例えばC(ルートを最低音であるベースとする)と、その第1転回形であるC/E(3度を最低音であるベースとする)と、その第2転回形であるC/G(5度を最低音であるベースとする)とが存在するため、単に音程の組み合わせを認識しただけでは、和音を正確に推定できない場合がある(以下、「第2の課題」と記載する場合がある)。このように、従来の楽器音認識技術には、上述した第1の課題及び第2の課題が存在し、和音の認識精度を十分に担保できているとは言い難かった。 In addition, even if the combination of pitches is the same for a chord, for example, C (the root is the base that is the lowest note) and C / E that is the first turn form (3 degrees is the lowest note) 2) and C / G (the 5th degree is the base that is the lowest note), so the chord cannot be accurately estimated by simply recognizing the combination of pitches. In some cases (hereinafter, referred to as “second problem”). As described above, the conventional musical instrument sound recognition technology has the first and second problems described above, and it is difficult to say that the recognition accuracy of chords is sufficiently secured.
これに対して、本実施形態に係る楽器音認識装置10では、上記第1の課題を解消すべく、楽器音を録音した録音データについて、12音階に含まれる各音程に応じた周波数毎に周波数解析を行い、複数の音程を識別する。すなわち、楽器音認識装置10では、従来の楽器音認識技術における離散フーリエ変換の基底周波数を12音階に含まれる各音程に応じた周波数に変更し、直交周波数を用いずに周波数解析を行っている。このような構成においては、周波数間隔が時間フレーム長と無関係に決まるため、周波数解析において時間フレーム長の制限が無く、任意の時間フレーム長で音程を解析することができる。これにより、例えば速いメロディについては短い時間で解析することが可能になり、速いメロディについても適切に識別することができる。また、遅いメロディについては長い時間で解析することも可能となる。図3に示されるように、12音階の各音程の周波数は、高音域になるほど、周波数の間隔が離れていくため、フーリエ変換のように細かく周波数解析しなくても、音程の認識が可能になる。したがって、安価な装置でも計算量的に実装が可能になるというメリットもある。
On the other hand, in the musical instrument
本実施形態に係る楽器音認識装置10では、上記第2の課題を解決すべく、録音データが低域通過フィルタによって処理され、処理後の低減信号の基本周波数となる音程が推定され、当該推定の結果が考慮されて複数の音程が識別される。基本周波数となる音程の推定結果を考慮することにより、録音データに係る複数の音程のうち最も低い音程が定まるため、音程の組み合わせが同一で且つ最低音であるベースが異なる、いわゆる転回形についても区別して、複雑な分数和音も認識することができる。なお、例えば複数の音程が混ざった録音データについて単に基本周波数の推定を行おうとした場合には、複数の音程のうち一部の音程しか認識できない等の不具合が発生し得る。この点、本実施形態に係る楽器音認識装置10では、低域通過フィルタによって所定の周波数よりも高い周波数成分を低減させた後の低減信号について基本周波数となる音程を推定しているので、録音データに含まれる複数の音程のうちベース以外の音程を低減した状態で、すなわち、複数の音程の混在を抑制した状態で、基本周波数となる音程を推定することができ、基本周波数の推定精度を向上させることができる。これにより、転回形についても区別して、複数の音程を適切に認識することができる。
In the musical instrument
以上より、本実施形態に係る楽器音認識装置10によれば、速いメロディの音程を認識することができると共に、転回形を考慮して各音程を認識することができ、複数の音程の認識精度を向上させることができる。
As described above, according to the musical instrument
周波数解析部13は、12音階に含まれる各音程の周波数に応じた正弦波及び余弦波によって、録音データの信号を積分することにより、各音程の周波数毎に振幅強度を導出し、該振幅強度を各音程の特徴量とし、多重音解析部15は、各音程の特徴量を、各音程の周波数毎の周波数解析結果として、録音データに係る和音を識別する。これにより、12音階に含まれる各音程の周波数毎に周波数解析を適切に行うことができ、12音階に含まれる各音程の認識精度を向上させることができる。
The
F0推定部は、上述した低域信号について、自己相関法を用いて、12音階に含まれる各音程が基本周波数である尤もらしさを示す第1尤度を各音程毎に導出し、各音程の第1尤度に基づき、基本周波数である音程を推定する。これにより、基本周波数である音程を高精度に推定することができる。 The F0 estimation unit derives, for each pitch, a first likelihood indicating the likelihood that each pitch included in the 12th scale is a fundamental frequency using the autocorrelation method for the low frequency signal described above. A pitch that is a fundamental frequency is estimated based on the first likelihood. Thereby, the pitch which is a fundamental frequency can be estimated with high precision.
多重音解析部15は、各音程の特徴量に基づく第1の特徴量、及び、各音程の第1尤度に基づく第2の特徴量を入力として、録音データに係る複数の音程の尤もらしさを示す第2尤度を出力とするニューラルネットワークN1を用いて、録音データに係る和音を識別する。これにより、各音程の周波数毎の周波数解析結果に応じた第1の特徴量、及び、各音程が基本周波数である尤もらしさを示す第1尤度に基づく第2の特徴量の双方を考慮して、和音を適切に推定することができる。
The multiple
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線で)接続し、これら複数の装置により実現されてもよい。 In addition, the block diagram used for description of the said embodiment has shown the block of the functional unit. These functional blocks (components) are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one device physically and / or logically coupled, and two or more devices physically and / or logically separated may be directly and / or indirectly. (For example, wired and / or wirelessly) and may be realized by these plural devices.
例えば、上記実施形態における楽器音認識装置10などは、上記実施形態の楽器音認識装置10の処理を行うコンピュータとして機能してもよい。図2は、本実施形態に係る楽器音認識装置10のハードウェア構成の一例を示す図である。上述の楽器音認識装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、及びバス1007などを含むコンピュータ装置として構成されてもよい。
For example, the instrument
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。楽器音認識装置10のハードウェア構成は、図2に示された各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
In the following description, the term “apparatus” can be read as a circuit, a device, a unit, or the like. The hardware configuration of the musical instrument
楽器音認識装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。
Each function in the musical instrument
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。
For example, the
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、及び/又はデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、楽器音認識装置10の周波数解析部13は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されてもよい。
Further, the
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、上記実施形態に係る楽器音認識方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
The
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバ、その他の適切な媒体であってもよい。
The
通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
The
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
The
また、プロセッサ1001及びメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。
Each device such as the
また、楽器音認識装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。
The musical instrument
以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更された態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。 Although the present invention has been described in detail above, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as a modified and changed mode without departing from the spirit and scope of the present invention defined by the description of the scope of claims. Therefore, the description of the present specification is for illustrative purposes and does not have any limiting meaning to the present invention.
本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 As long as there is no contradiction, the order of the processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in this specification may be changed. For example, the methods described herein present the elements of the various steps in an exemplary order and are not limited to the specific order presented.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理されてもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 Input / output information or the like may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or additionally written. The output information or the like may be deleted. The input information or the like may be transmitted to another device.
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be performed by a value represented by 1 bit (0 or 1), may be performed by a true / false value (Boolean: true or false), or may be compared with a numerical value (for example, a predetermined value) Comparison with the value).
本明細書で説明した各態様/実施形態は単独で用いられてもよいし、組み合わせて用いられてもよいし、実行に伴って切り替えて用いられてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)によって行われてもよい。 Each aspect / embodiment described in the present specification may be used alone, may be used in combination, or may be used by switching according to execution. In addition, notification of predetermined information (for example, notification of “being X”) is not limited to explicitly performed, and may be performed implicitly (for example, notification of the predetermined information is not performed). Good.
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether it is called software, firmware, middleware, microcode, hardware description language, or other names, instructions, instruction sets, codes, code segments, program codes, programs, subprograms, software modules , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, functions, etc. should be interpreted broadly.
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Also, software, instructions, etc. may be transmitted / received via a transmission medium. For example, software may use websites, servers, or other devices using wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission media.
本明細書で説明した情報及び信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 Information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, commands, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these May be represented by a combination of
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 Note that the terms described in this specification and / or terms necessary for understanding this specification may be replaced with terms having the same or similar meaning.
本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 As used herein, the terms “system” and “network” are used interchangeably.
また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 In addition, information, parameters, and the like described in this specification may be represented by absolute values, may be represented by relative values from a predetermined value, or may be represented by other corresponding information. .
上述したパラメータに使用される名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。 The names used for the above parameters are not limiting in any way. Further, mathematical formulas and the like that use these parameters may differ from those explicitly disclosed herein.
「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」又は「結合」されると考えることができる。 The terms “connected”, “coupled”, or any variation thereof, means any direct or indirect connection or coupling between two or more elements and It can include the presence of one or more intermediate elements between two “connected” or “coupled” elements. The coupling or connection between the elements may be physical, logical, or a combination thereof. As used herein, the two elements are radio frequency by using one or more wires, cables and / or printed electrical connections, and as some non-limiting and non-inclusive examples By using electromagnetic energy, such as electromagnetic energy having a wavelength in the region, microwave region, and light (both visible and invisible) region, it can be considered to be “connected” or “coupled” to each other.
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」との両方を意味する。 As used herein, the phrase “based on” does not mean “based only on,” unless expressly specified otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”
本明細書で使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using the designations “first”, “second”, etc. as used herein does not generally limit the amount or order of those elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Thus, a reference to the first and second elements does not mean that only two elements can be employed there, or that in some way the first element must precede the second element.
「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 As long as “including”, “comprising” and variations thereof are used in the specification or claims, these terms are inclusive of the term “comprising”. Intended to be Further, the term “or” as used herein or in the claims is not intended to be an exclusive OR.
本明細書において、文脈又は技術的に明らかに1つのみしか存在しない装置であることが示されていなければ、複数の装置をも含むものとする。 In this specification, a device is intended to include a plurality of devices unless the context or technology clearly indicates that there is only one device.
10…楽器音認識装置、13…周波数解析部(解析部)、14…F0推定部(推定部)、15…多重音解析部(識別部)、16…出力部、N1…ニューラルネットワーク、P…楽器音認識プログラム。
DESCRIPTION OF
Claims (5)
前記楽器音を録音した録音データについて、所定の音階に含まれる各音程の周波数毎に周波数解析を行う解析部と、
前記録音データを、所定の周波数よりも高い周波数成分を低減させる低域通過フィルタによって処理し、該処理後の信号である低減信号の基本周波数である音程を推定する推定部と、
前記解析部による、前記各音程の周波数毎の周波数解析結果と、前記推定部による、前記基本周波数である音程の推定結果とに基づき、前記録音データに係る複数の音程を識別する識別部と、
前記識別部によって識別された前記複数の音程を示す識別結果を出力する出力部と、を備える楽器音認識装置。 An instrument sound recognition device for recognizing an instrument sound that is a sound of an instrument,
For the recording data recording the instrument sound, an analysis unit for performing frequency analysis for each frequency of each pitch included in a predetermined scale,
The recording data is processed by a low-pass filter that reduces a frequency component higher than a predetermined frequency, and an estimation unit that estimates a pitch that is a fundamental frequency of a reduced signal that is a signal after the processing;
An identification unit for identifying a plurality of pitches related to the recording data based on a frequency analysis result for each frequency of each pitch by the analysis unit and a pitch estimation result that is the fundamental frequency by the estimation unit;
An instrument sound recognition apparatus comprising: an output unit that outputs an identification result indicating the plurality of pitches identified by the identification unit.
前記識別部は、前記各音程の前記特徴量を、前記各音程の周波数毎の周波数解析結果として、前記録音データに係る複数の音程を識別する、請求項1記載の楽器音認識装置。 The analysis unit derives an amplitude intensity for each frequency of each pitch by integrating the signal of the recording data with a sine wave and a cosine wave corresponding to the frequency of each pitch included in the 12th scale, The intensity is the characteristic amount of each pitch,
The musical instrument sound recognition apparatus according to claim 1, wherein the identification unit identifies a plurality of pitches related to the recording data by using the characteristic amount of each pitch as a frequency analysis result for each frequency of the pitch.
楽器の音である楽器音を録音した録音データについて、所定の音階に含まれる各音程の周波数毎に周波数解析を行う解析部と、
前記録音データを、所定の周波数よりも高い周波数成分を低減させる低域通過フィルタによって処理し、該処理後の信号である低減信号の基本周波数である音程を推定する推定部と、
前記解析部による、前記各音程の周波数毎の周波数解析結果と、前記推定部による、前記基本周波数である音程の推定結果とに基づき、前記録音データに係る複数の音程を識別する識別部と、
前記識別部によって識別された前記複数の音程を示す識別結果を出力する出力部と、
として機能させる楽器音認識プログラム。 Computer
An analysis unit that performs frequency analysis for each frequency of each pitch included in a predetermined scale with respect to recording data obtained by recording an instrument sound that is a sound of an instrument;
The recording data is processed by a low-pass filter that reduces a frequency component higher than a predetermined frequency, and an estimation unit that estimates a pitch that is a fundamental frequency of a reduced signal that is a signal after the processing;
An identification unit for identifying a plurality of pitches related to the recording data based on a frequency analysis result for each frequency of each pitch by the analysis unit and a pitch estimation result that is the fundamental frequency by the estimation unit;
An output unit for outputting an identification result indicating the plurality of pitches identified by the identification unit;
Musical instrument sound recognition program to function as.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017036746A JP6812273B2 (en) | 2017-02-28 | 2017-02-28 | Musical instrument sound recognition device and musical instrument sound recognition program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017036746A JP6812273B2 (en) | 2017-02-28 | 2017-02-28 | Musical instrument sound recognition device and musical instrument sound recognition program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018141899A true JP2018141899A (en) | 2018-09-13 |
| JP6812273B2 JP6812273B2 (en) | 2021-01-13 |
Family
ID=63528052
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017036746A Expired - Fee Related JP6812273B2 (en) | 2017-02-28 | 2017-02-28 | Musical instrument sound recognition device and musical instrument sound recognition program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6812273B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109817189A (en) * | 2018-12-29 | 2019-05-28 | 深圳市蔚科电子科技开发有限公司 | Adjusting method, audio adjustment equipment and the system of audio signal |
| JP2020112683A (en) * | 2019-01-11 | 2020-07-27 | ヤマハ株式会社 | Acoustic analysis method and acoustic analysis device |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006195384A (en) * | 2005-01-17 | 2006-07-27 | Matsushita Electric Ind Co Ltd | Musical tone calculation device and music selection device |
| JP2010025972A (en) * | 2008-07-15 | 2010-02-04 | Kawai Musical Instr Mfg Co Ltd | Code name-detecting device and code name-detecting program |
-
2017
- 2017-02-28 JP JP2017036746A patent/JP6812273B2/en not_active Expired - Fee Related
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006195384A (en) * | 2005-01-17 | 2006-07-27 | Matsushita Electric Ind Co Ltd | Musical tone calculation device and music selection device |
| JP2010025972A (en) * | 2008-07-15 | 2010-02-04 | Kawai Musical Instr Mfg Co Ltd | Code name-detecting device and code name-detecting program |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109817189A (en) * | 2018-12-29 | 2019-05-28 | 深圳市蔚科电子科技开发有限公司 | Adjusting method, audio adjustment equipment and the system of audio signal |
| CN109817189B (en) * | 2018-12-29 | 2023-09-08 | 珠海市蔚科科技开发有限公司 | Audio signal adjusting method, sound effect adjusting device and system |
| JP2020112683A (en) * | 2019-01-11 | 2020-07-27 | ヤマハ株式会社 | Acoustic analysis method and acoustic analysis device |
| US12014705B2 (en) | 2019-01-11 | 2024-06-18 | Yamaha Corporation | Audio analysis method and audio analysis device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6812273B2 (en) | 2021-01-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6027087B2 (en) | Acoustic signal processing system and method for performing spectral behavior transformations | |
| WO2021213135A1 (en) | Audio processing method and apparatus, electronic device and storage medium | |
| Comunità et al. | Guitar effects recognition and parameter estimation with convolutional neural networks | |
| CN113223487A (en) | Information identification method and device, electronic equipment and storage medium | |
| WO2013187986A1 (en) | Systems, methods, apparatus, and computer-readable media for pitch trajectory analysis | |
| CN109584902B (en) | Music rhythm determining method, device, equipment and storage medium | |
| US10242697B2 (en) | Pitch information generation device, pitch information generation method, and computer-readable recording medium therefor | |
| JP6812273B2 (en) | Musical instrument sound recognition device and musical instrument sound recognition program | |
| Mohamad et al. | Pickup position and plucking point estimation on an electric guitar via autocorrelation | |
| JP2018025613A (en) | Musical instrument sound recognition device | |
| US20180130451A1 (en) | Detecting vibrato bar technique for string instruments | |
| JP2008233725A (en) | Musical piece kind determining device, musical piece kind determining method, and musical piece kind determining program | |
| Stöter et al. | Unison Source Separation. | |
| JP4202111B2 (en) | Tuner | |
| Alcabasa et al. | Automatic guitar music transcription | |
| JP2018025644A (en) | Music key estimation device, and music code progression estimation device | |
| CN115101094A (en) | Audio processing method and device, electronic device, storage medium | |
| CN101194304A (en) | Audio signal processing device and audio signal processing method for determining sound generation period | |
| CN114822456A (en) | Music score audio detection method, device, equipment and computer medium based on music score | |
| Kumar et al. | Musical Beat Recognition using Machine Learning | |
| JP2018005188A (en) | Acoustic analyzer and acoustic analysis method | |
| Lewis et al. | Blind signal separation of similar pitches and instruments in a noisy polyphonic domain | |
| CN116932811A (en) | Music score searching method, device, electronic equipment and computer readable medium | |
| Shiroma et al. | Phase representation based on HSV color model for acoustic classification with convolutional neural networks | |
| OANCEA et al. | Identification of Ambient Sounds Based on Characteristic Parameters and Numerical Processing |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191002 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200622 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200831 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201201 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201216 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6812273 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |