[go: up one dir, main page]

KR920007206B1 - Automatic Receiving Method and Apparatus - Google Patents

Automatic Receiving Method and Apparatus Download PDF

Info

Publication number
KR920007206B1
KR920007206B1 KR1019890015708A KR890015708A KR920007206B1 KR 920007206 B1 KR920007206 B1 KR 920007206B1 KR 1019890015708 A KR1019890015708 A KR 1019890015708A KR 890015708 A KR890015708 A KR 890015708A KR 920007206 B1 KR920007206 B1 KR 920007206B1
Authority
KR
South Korea
Prior art keywords
information
pitch
sound signal
signal
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
KR1019890015708A
Other languages
Korean (ko)
Other versions
KR900006908A (en
Inventor
요시나리 우쓰미
시찌로오 쓰루다
히로미 후지이
마사기 후지모도
마사노리 미즈노
Original Assignee
니혼 덴기 호옴 에렉트로닉스 가부시기가이샤
무라가미 류우이찌
니혼 덴기 가부시기가이샤
세끼모도 라다히로
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 니혼 덴기 호옴 에렉트로닉스 가부시기가이샤, 무라가미 류우이찌, 니혼 덴기 가부시기가이샤, 세끼모도 라다히로 filed Critical 니혼 덴기 호옴 에렉트로닉스 가부시기가이샤
Publication of KR900006908A publication Critical patent/KR900006908A/en
Application granted granted Critical
Publication of KR920007206B1 publication Critical patent/KR920007206B1/en
Expired legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/081Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/086Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for transcription of raw audio or music data to a displayed or printed staff representation or to displayable MIDI-like note-oriented data, e.g. in pianoroll format

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

내용 없음.No content.

Description

자동채보(自動採譜)방법 및 장치Automatic Receiving Method and Apparatus

제1도는 본 발명 실시예의 하나에 의해 처리되는 음향신호의 입력처리순서도.1 is an input processing flowchart of an acoustic signal processed by one of the embodiments of the present invention.

제2도는 본 발명을 적용하는 자동채보방식의 붙록도.2 is a block diagram of the automatic receivable method applying the present invention.

제3도는 자동채보처리의 순서도.3 is a flow chart of automatic receivable processing.

제4도는 자동채보방식에 의해 발생된 소절정보와 파워정보에 기초한 세그멘테이션처리의 순서도.4 is a flowchart of segmentation processing based on measure information and power information generated by the automatic receiving method.

제5도는 소절정보와 파워정보에 기초한 세그멘테이션처리를 보다 상세하게 나타내는 순서도.5 is a flowchart showing in more detail the segmentation process based on the measure information and the power information.

제6도는 세그멘테이션의 1예를 나타내는 특성 곡선도.6 is a characteristic curve diagram showing an example of segmentation.

제7도는 자동채보방식의 다른 실시예의 붙록도7 is a block diagram of another embodiment of the automatic receivable method.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

1 : CPU 2 : 버스1: CPU 2: Bus

3 : 주기억장치 4 : 키이보오드3: main memory 4: key board

5 : 표시장치 6 : 보조기억장치5: display device 6: auxiliary storage device

7 : A/D변환기 8 : 음향신호 입력장치7: A / D converter 8: Sound signal input device

9 : 스피이커 구동부 10 : 스피이커9: speaker drive unit 10: speaker

11 : 증폭회로 12 : 프리필터11 amplification circuit 12 pre-filter

13 : A/D변환기 14 : 신호처리 프로세서13: A / D Converter 14: Signal Processing Processor

본 발명은 일반적으로 자동채보(自動採譜)에 관한 것으로, 특히 음향신호로 부터 악보데이터를 작성하는 자동채보방식(방법 및 장치)에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention generally relates to automatic voting, and more particularly, to an automatic voting method (method and apparatus) for producing sheet music data from sound signals.

이들 음향신호에는 가창음성, 허밍음성 및 악기음등이 포함될 수 있다. 자동채보방식은 가창음성, 허밍음성 및 악기음등과 같은 음향신호를 악보데이터로 변환한다.These sound signals may include singing voices, humming voices, and musical instrument sounds. Automatic collection method converts acoustic signals such as singing voice, humming voice and instrument sound into sheet music data.

그러한 방식은, 예를들어 음장(音長), 음정(音程), 조(調), 박자 및 템포등과 같은 기본적인 정보를 음향신호로 부터 검출할 수 있는 것이 필요하다. 음향신호는 기본 파형이 반복되는 파형을 연속적으로 포함하는 신호일 뿐이므로, 악보데이터를 작성하는데 필요한 기본적인 정보를 그 음향신호로 부터 직접적으로 얻을 수는 없다.Such a method requires that basic information such as, for example, sound field, pitch, tone, beat and tempo can be detected from the sound signal. Since the sound signal is only a signal that contains a waveform in which the basic waveform is repeated continuously, it is not possible to directly obtain the basic information necessary for producing the sheet music data from the sound signal.

종래의 자동채보방법에 있어서는, 다음과 같은 일련의 단계에 의해 각 정보가 얻어졌다.In the conventional automatic receiving method, each piece of information is obtained by the following series of steps.

종래의 자동채보방법에 있어서는, 다음과 같은 일련의 단계에 의해 각 정보가 얻어졌다.In the conventional automatic receiving method, each piece of information is obtained by the following series of steps.

(a) 음향신호의 피치(pitch)를 나타내는 기본파형의 반복에 관한 정보(이하, 피치정보라 한다.) 및 그 신호의 파워정보를 분기주기마다 추출하고, (b) 그후, 그와 같이 추출된 피치정보 및 파워정보에 기초하여 음향신호를 동일한 음정을 형성하는 것으로 간주될 수 있는 구간(세그멘트(segment)로 구분하고(이 처리를 세그멘테이션이라 한다). (c) 다음에, 특정 세그멘트의 피치정보에 기초하여 절대음정축에 대해 각 세그멘트의 음정을 결정하고, 그와 같이 결정된 음정정보에 기초하여 음향신호의 조를 결정하며, (d) 그후에, 세그멘트에 기초하여 음ㅎ향신호의 박자 및 템포를 결정한다.(a) information on repetition of the fundamental waveform representing the pitch of the acoustic signal (hereinafter referred to as pitch information) and power information of the signal are extracted at each branch period, and (b) thereafter, extracted as such. On the basis of the pitch information and the power information, the sound signal is divided into segments (segments) which can be regarded as forming the same pitch (this process is called segmentation) (c) Next, the pitch of a specific segment Determine the pitch of each segment with respect to the absolute pitch axis based on the information, and determine the tune of the acoustic signal based on the pitch information thus determined; (d) thereafter, based on the segment the beat of the sound signal and Determine the tempo.

그런데, 종래의 자동채보방법을 사용하여도 박자와 템포가 결정되므로 결국 이용자는 자기자신이 박자와 템포를 맞추면서, 희망곡을 부르거나 연주한다. 그러나, 연주나 노래하는 것에 익숙하지 않은 이용자에게는 이와 같은 행위가 어렵다.더우기, 메트로놈등으로 템포를 맞추면서 악기를 연주하거나 노래를 부르기 좋아하는 이용자도 존재한다.However, even when using a conventional auto-receiving method, the beat and tempo are determined, so the user eventually sings or plays the desired song while he / she matches the tempo with the beat. However, this behavior is difficult for users who are not accustomed to playing or singing. Moreover, there are users who like to play musical instruments or sing songs while adjusting the tempo with the metronome.

또한, 이용자자신이 템포나 박자를 맞추면서 연주하거나 또는 노래를 불러 입력된 음향신호에는, 특히 가창에 의한 음향신호에는 파워와 피치에 있어서의 변동(fluctuation)이 존재하므로, 파워정보 또는 피치정보를 이용하여도 역시 세그멘테이션을 행하는 것이 어려웠다.In addition, since the fluctuation in power and pitch is present in the sound signal inputted by the user playing the song or singing a song while adjusting the tempo or time signature, the power information or the pitch information is used. Again, it was difficult to perform segmentation.

세그멘테이선은 악보데이터를 작성하는데 중요한 요소로, 세그멘테이션의 정도(精度)가 낮으면, 최종적으로 얻어지는 악보데이터의 정도도 현저히 낮아지게 된다. 그러므로, 세그멘테이션의 정도를 향상시키는 것이 요망된다.The segmentation line is an important element for creating the music score data. When the segmentation degree is low, the degree of the score data finally obtained is also significantly lowered. Therefore, it is desirable to improve the degree of segmentation.

본 발명은 종래의 방식보다 사용하기 용이한 자동채보방식(방법 및 장치)을 제공한다. 또한, 본 발명에 의한 방식은 종래의 방식에서 얻어질 수 있는 것보다 더 정도가 높은 세그멘테이션을 제공한다.The present invention provides an automatic hiring method (method and apparatus) that is easier to use than the conventional method. In addition, the scheme according to the present invention provides a higher degree of segmentation than can be obtained in conventional schemes.

제1의 본 발명에 있어서는 적어도 템포를 포함하는 입력보조리듬정보를 청각적 또는 시각적처리에 의해 통지하면서 음향신호를 포착하여 메모리내에 기억시키는 방식이 제공되며, 이 방식은, 음향신호 입력상치에 의해 음향신호를 포착하여 메모리내에 기억시키고, 그후 메모리내에 기억된 음향신호로 부터 그 음향신호의 파워정보와, 그 파형의 반복주기 및 그 음의 피치를 나타내는 피치정보를 추출하는 처리와, 피치정보 및 파워정보에 기초하여 음향신호를 동일음정으로 간주되는 구간으로 구분하는 세그멘테이션처리와 피치정보에 기초하여 이 구분된 구간의 음정으로서 절대음정축상의 음정으로 동정(同正)하는 음정동정처리를 적어도 포함하는, 음향신호를 악보데이터로 변환하는 자동채보방식에 결합된다.In the first aspect of the present invention, there is provided a method of capturing and storing an audio signal in a memory while notifying the input auxiliary rhythm information including at least a tempo by audio or visual processing. A process of extracting the sound signal and storing it in the memory, and then extracting power information of the sound signal, pitch information representing the repetition period of the waveform and the pitch of the sound from the sound signal stored in the memory, pitch information and Segmentation processing for dividing the acoustic signal into sections considered equal pitch on the basis of power information and pitch identification processing for identifying pitches on the absolute pitch axis as pitches of this divided section based on pitch information It is combined with an automatic recruitment method for converting an acoustic signal into sheet music data.

본 방식은 사용자에게 청각적 또는 시각적처리에 의한 입력보조정보를 주도록 설계되어 있으므로, 사용자가 채보처리를 수행할 목적으로 음향신호를 포착하고 취입(取入)하여 메모리내에 기억시킬때 음향신호를 발생시키기에 간단하고 용이하다.This method is designed to give input auxiliary information by audible or visual processing to the user, so that when the user captures, accepts and stores the sound signal in memory for the purpose of performing the processing, the sound signal is generated. Simple and easy to make.

제2의 본 발명에 있어서는, 전기한 제1의 본 발명과 어느정도 유사한 자동채보방식이 제공되지만, 본 방식은 음향신호을 포착하여 메모리내에 기억시키는 것을 수행할때, 입력보조리듬정보도 동일시간축상에서 기억시킴과 아울러, 세그멘테이션처리를 메모리내에 기억된 입력보조리듬정보에 기초하여 음향신호를 동일음정으로 간주될 수 있는 구간으로 구분하는 제1처리와, 피치정보 및 파워정보에 기초하여 음향신호를 동일음정으로 간주될 수 있는 구간으로 구분하는 제2처리와, 제1처리 및 제2처리에 의해 구분된 구간으로 정리하는 제3처리로 세분되었다.In the second aspect of the present invention, an automatic recruitment scheme similar to that of the first aspect of the present invention is provided. However, in the present scheme, input auxiliary rhythm information is also stored on the same time axis when capturing an acoustic signal and storing it in a memory. In addition, the first process of dividing the segmentation process into sections that can be regarded as the same pitch based on the input auxiliary rhythm information stored in the memory, and the sound signal based on the pitch information and the power information The second process divided into sections which can be regarded as ", and the third process arranged into sections divided by the first process and the second process.

본 방식은 입력보조리듬정보를 사용하도록 되어 있으므로, 세그멘테이션처리의 정도가 개선될 수 있다. 즉, 본 방식은 음향신호를 포착하여 메모리내에 기억시킴과 동시에 입력보조리듬정보도 메모리내에 기억시킨다.Since the present scheme uses input auxiliary rhythm information, the degree of segmentation processing can be improved. In other words, the present method captures and stores the sound signal in the memory and also stores the input auxiliary rhythm information in the memory.

그후, 본 방식은 이 입력보조리듬정보에 기초하여 세그멘테이션처리를 수행하고, 또 파워정보 및 피치정보에 기초하여 세그멘테이션처리를 수행하여, 그 세그멘테이션처리의 결과로 정리한다.Thereafter, the present method performs segmentation processing based on this input auxiliary rhythm information, segmentation processing based on power information and pitch information, and summarizes the result as the segmentation processing.

제3의 본 발명에 있어서는, 적어도 템포정보를 포함하는 입력보조리듬정보가 음향신호가 포착되어 메모리내에 기억될때에 청각적처리 또는 시각적처리에 의해 통지되는 입력보조리듬 통지장치를 포함하는 방식이 제공되며, 이 방식은, 음향신호를 포착해서 취입하는 장치와, 취입된 음향신호를 메모리내에 기억시키는 장치와, 메모리내에 기억된 음향신호의 반복주기와 피치레을 나타내는 피치정보와, 음향신호로 부터 파워정보를 추출하는 피치.파워추출장치와, 피치정보 및 파워정보에 기초하여 음향신호를 동일음정으로 간수될 수 있는 구간으로 구분하는 세그멘테이션장치와, 이 구분된 구간에 대해 음향신호의 절대음정축상의 음정을 결정하는 음정식별장치를 적어도 일부에 구비하여 음향신호를 악보데이터로 변환하는 자동채보방식에 결합된다.According to a third aspect of the present invention, there is provided a method including an input auxiliary rhythm notification device in which input auxiliary rhythm information including at least tempo information is notified by an audio processing or a visual processing when an acoustic signal is captured and stored in a memory. This method comprises a device for capturing and incorporating sound signals, a device for storing the received sound signals in a memory, pitch information indicating the repetition period and pitch of the sound signals stored in the memory, and power from the sound signals. A pitch extraction unit for extracting information, a segmentation apparatus for dividing the sound signal into sections that can be kept at the same pitch based on the pitch information and power information, and an absolute pitch on the absolute signal axis of the divided section At least a part of the pitch identification device for determining the pitch is included in the automatic recruitment method to convert the sound signal into the score data The.

이 방식은, 입력보조리듬 통지장치가 음향신호가 포착되어 메모리내에 기억될때에, 청각적처리 또는 시각적처리에 의하여 입력보조리듬정보를 통지하도록 설계되어있다. 이러한 결과로서, 사용자가 입력보조리듬정보에 기초하여 입력보작을 수행할 수 있어 신호의 입력이 보다 쉽게 되었다.This method is designed so that the input auxiliary rhythm notifying device notifies the input auxiliary rhythm information by an audio process or a visual process when an acoustic signal is captured and stored in the memory. As a result of this, the user can perform an input operation based on the input auxiliary rhythm information, thereby making it easier to input a signal.

제4의 본 발명에 있어서는, 음향신호가 포착되어 메모리내에 기억되도록 처리될때에, 동일시간축상에서 메모리내에 입력보조리듬정도도 기억시키도록 설계된 기억장치를 보유하며 또한 메모리내에 기억된 입력보조리듬정보에 기초하여 음향신호를 동일음정으로 간주될 수 있는 구간으로 구분하는 제1구분부와, 피치정보와 파워정보에 기초하여 음향신호를 동일음정으로 간주될 수 있는 구간으로 구분하는 제2구분부와, 제1 및 제2구분부에 의해 구분된 구간을 정리하는 제3구분부으로 구성된 세그멘테이션장치가 설치된 방식이 제공된다.In the fourth aspect of the present invention, when an acoustic signal is captured and processed to be stored in the memory, a storage device designed to store the degree of input auxiliary rhythm in the memory on the same time axis is also included in the input auxiliary rhythm information stored in the memory. A first division part for dividing the sound signal into sections that can be regarded as the same pitch based on a second part, a second division part for dividing the sound signal into sections that can be regarded as the same pitch based on pitch information and power information; There is provided a manner in which a segmentation device composed of a third division part for arranging sections divided by the first and second division parts is installed.

음향신호를 메모리내에 기억시키는 기억장치는 포착된 음향신호가 메모리내에 기억될때에 입력보조리듬 통지장치로 부터 통지된 입력보조리듬정보도 동일시간축상에서 메모리내에 기억시키며, 본 방식은 세그멘테이션장치의 제1구분부가 이 입력통지리듬정보에 기초하여 세그멘테이션처리를 수행하고, 제3구분부가 이 세그멘데이션처리의 결과와 제2구분부가 수행한 피치정보 및 파워정보에 기초하여 세그멘테이션결과를 정리하도록 설계되었다.The storage device for storing the sound signal in the memory stores the input auxiliary rhythm information notified from the input auxiliary rhythm notifying device in the memory on the same time axis when the captured sound signal is stored in the memory. The division unit is designed to perform segmentation processing based on the input notification rhythm information, and the third division unit organizes the segmentation results based on the result of the segmentation processing, the pitch information and the power information performed by the second division unit.

이 결과, 세그멘테이션의 정도를 향상시킬 수 있다.As a result, the degree of segmentation can be improved.

이하, 본 발명의 바람직한 실시예를 도면을 참조하여 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

[자동 채보방식][Automatic Rewarding Method]

제2도는 본 발명을 적용하는 자동채보방식의 붙록도이다.2 is a block diagram of an automatic receiving method to which the present invention is applied.

중앙처리장치(CPU)(1)는 전체장치의 총제어를 수행한다. CPU(1)는 제1도의 흐름도에 표시된 음향신호 입력프로그램과 제3도의 흐름도에 표시된 채보 처리프로그램을 실행한다. 음향신호 입력프로그램과 채보처리프로그램은 버스(3)를 개재하여 CPU(1)에 접속되어 있는 주기억장치(3)내에 격납되어 있다. 또한 버스(2)에는 입력장치로서의 키이보오드(4), 출력장치로서의 표시장치(5), 작업메모리로서 사용되는 보조기억장치(6), 및 아날로그/디지탈(A/D)변환기(7)과 접속되어 있다. A/D변환기(7)에는 마이크로폰등으로 구성되는 음향신호 입력장치(8)가 접속되어 있다.The central processing unit (CPU) 1 performs total control of the entire apparatus. The CPU 1 executes the sound signal input program shown in the flowchart of FIG. 1 and the chaebo processing program shown in the flowchart of FIG. The sound signal input program and the pay signal processing program are stored in the main memory device 3 connected to the CPU 1 via the bus 3. In addition, the bus 2 includes a key board 4 as an input device, a display device 5 as an output device, an auxiliary storage device 6 used as a working memory, and an analog / digital (A / D) converter 7; Connected. The A / D converter 7 is connected to an acoustic signal input device 8 composed of a microphone or the like.

음향신호 입력장치(8)는 가창음성, 허밍음성, 또 악기에 의해 발생된 악기음등의 음향신호를 포착하여 전기신호로 변환한 후에, 그 전기신호를 A/D변환기(7)에 출력한다. 또, 버스(2)에는 스피이커(10)를 구동하는 스피이커 구동부(9)가 접속되어 있다.The acoustic signal input device 8 captures an acoustic signal such as a singing voice, a humming voice, and an instrument sound generated by a musical instrument, converts the acoustic signal into an electrical signal, and then outputs the electrical signal to the A / D converter 7. . In addition, a speaker drive unit 9 for driving the speaker 10 is connected to the bus 2.

스피이커(1O)는 필요시에 CPU(1)의 제어하에 소정의 박자 및 템포를 나타내는 이산적(離散的)인 입력보조리듬음을 발생한다.The speaker 10 generates a discrete input auxiliary rhythm representing a predetermined time and tempo under the control of the CPU 1 when necessary.

CPU(1)는 제1도에 순서도가 표시된 음향신호 입력프로그램에 따라 장치여 음향신호르르 입력하도록 작동하여, 이 신호는 주기억장치(3)에 격납된다. 키이보오드(4)에 의해 특정 박자 및 템포가 지시되어, 음향신호를 입력하도록 하는 명령이 취입될때, 입력음향신호는 보조기억장치(6)내에 순차격납된다. 또한, 입력보조리듬정보가 부조기억장치(6) 내에 일시적으로 격납된다. 음향신호의 입력이 종료되면,CPU(1)는 주기억장치내(3)내에 격납되어 있는 채보 처리프로그램(제3도에 순서도가 표시되어 있음)을 수행하여 입력음향신호를 악보네이터로 변환하고 필요에 따라 표시장치(5)에 그 데이터를 출력한다.The CPU 1 operates to input a sound signal in accordance with the sound signal input program shown in the flowchart in FIG. 1, and this signal is stored in the main memory device 3. As shown in FIG. When a specific beat and tempo are instructed by the key board 4, and a command for inputting an acoustic signal is input, the input sound signal is sequentially stored in the auxiliary memory device 6. In addition, the input auxiliary rhythm information is temporarily stored in the auxiliary memory device 6. When the input of the sound signal is finished, the CPU 1 executes a retrieval processing program (shown in the flowchart in Fig. 3) stored in the main memory device 3 to convert the input sound signal into a music player and then needs it. The data is output to the display device 5 accordingly.

[음향신호의 입력][Input of sound signal]

제1도는 음향신호를 입력하는 처리의 순서도이다.1 is a flowchart of a process for inputting an acoustic signal.

CPU(1)가 키이보오드(4)를 개재하여 입력모우드를 지시하는 명령을 취입하면, CPU(1)는 제1도에 순서도가 표시된 프로그램에 수행을 개시한다. 우선, 박자정보를 입력하기 위해 사용자하는 프롬프트(prompt)를 표시장치(5)에 표시하고, 그 프롬프트에 사용자가 키이보오드(4)를 개재하여 입력한 박자정보를 취입한다.When the CPU 1 accepts an instruction for instructing the input mode via the key board 4, the CPU 1 starts execution to the program shown in the flowchart in FIG. First, a prompt prompting the user to input the beat information is displayed on the display device 5, and the beat information input by the user via the key board 4 is taken in the prompt.

그후, 표시장치(5)는 사용자가 템포정보를 입력하도록 프롬포트를 표시하고, 그 프롬포트에 따라 사용자로부터 템포정보가 취입된다(스텝 SP1, SP2), 그후에, CPU(1)는 박자정보와 템포정보에 기초하여 입력보조리듬정보의 주기와 강도(intensity)를 결정하기 위하여 연산을 수행하고, 키이보오드(4)로 부터의 입력개시명령의 입력을 대기한다(스텝 SP3, SP4).Thereafter, the display device 5 displays a prompt port for the user to input tempo information, and the tempo information is taken in from the user according to the prompt port (steps SP1 and SP2), after which the CPU 1 transmits time signature information. The operation is performed to determine the period and intensity of the input auxiliary rhythm information based on the tempo information, and awaits the input of the input start command from the key board 4 (steps SP3 and SP4).

입력개시명령이 사용자에 의해 주어지면, CPU(1)는 입력보조리듬음을 스피이커(10)로 부터 발생시키고, 그후, 발생된 입력보조리듣뜸이 어느 소절(小節)의 개시를 지시하는 것인지를 아닌지를 판단한다 그 리듬음이 소절의 개시를 지지하는 경우에, CPU(1)는 그 음을 보조기억장치(6)내에 격납시킨후에, 음향신호 입력장치(8) 및 A/D변환기(7)를 통해 처리된 디지틸신호로 이루어진 음향신호를 취입한다. 그러나, 그 리듬음이 소절의 개시를 지시하는 것이 아닌 경우에, CPU(1)는 즉시 음향신호틀 입력한다(스텝1 SP5-SP8). 그후에, CPU(1)는 입력한 음향신호를 보조기억장치(6)에 격납한다(스텝 SP9).When an input start command is given by the user, the CPU 1 generates an input auxiliary rhythm from the speaker 10, and thereafter, which measure indicates the start of the input auxiliary rhythm. If the rhythm sound supports the start of the measure, the CPU 1 stores the sound in the auxiliary memory device 6, and then the sound signal input device 8 and the A / D converter ( A sound signal consisting of the digital signal processed through 7) is taken in. However, when the rhythm sound does not instruct the start of the measure, the CPU 1 immediately inputs an acoustic signal frame (steps 1 SP5-SP8). Thereafter, the CPU 1 stores the input sound signal in the auxiliary memory device 6 (step SP9).

음향신호의 데이터집합이 보조기억장치(6)내에 격납되면, CPU(1)는 입력종료명령이 키이보오드(4)를 개재하여 부여되었지의 여부를 판단하여, 종료명령 부여된 경우에, CPU(1)는 일련의 작동을 정지한다. 그러나, 종료명령이 부여되지 않은 경우에, CPU(1)는 입력보조리듬음의 발생타이밍timing)으로 되어있는지의 여부를 더 판단한다(스텝 SP10, SP11). 리듬음의 발생타이밍이 아니면, CPU(1)는 스텝(SP8)으로 복귀하여, 음향신호를 취입하는 스텝으로 진행한다.When the data set of the sound signals is stored in the auxiliary memory device 6, the CPU 1 judges whether or not the input end command is given via the key board 4, and when the end command is given, the CPU ( 1) stops a series of operations. However, when no end instruction is given, the CPU 1 further determines whether or not the timing of generation of the input auxiliary rhythm sound is set (steps SP10 and SP11). If the rhythm sound is not generated timing, the CPU 1 returns to step SP8 and proceeds to a step of taking in an acoustic signal.

한편, 입력보조리듬음을 발생하는 타이밍이면, CPU(1)는 스텝(SP5)으로 복귀하여, 다음의 입력보조리듬음 발생스텝으로 이동한다.On the other hand, if it is a timing which generate | occur | produces an input auxiliary rhythm sound, CPU1 will return to step SP5 and will move to the next input auxiliary rhythm sound generation step.

이와 같이하여, 입력보조리듬을 발생하면서, 사용자에 의해 발생된 음향신호를 순차적으로 취입하는 소절개시를 나타내는 표시와 함께 보조기억장치(6)내에 격납시킨다. 입력보조리듬음이 발생되므로, 사용자가 음향신호를 입력하기가 용이하게 된다.In this way, while generating the auxiliary auxiliary rhythm, the auxiliary storage device 6 is stored in the auxiliary storage device 6 together with an indication indicating the start of the slicing of the sound signal generated by the user. Since the input auxiliary rhythm sound is generated, it is easy for the user to input the sound signal.

[채보처리][Collective processing]

제3도는 자동채보처리의 순서도로, 이 처리는 음향신호의 입력후까지는 실행되지 않는다. 우선, CPU(1)는 음향신호의 자기상관분석(autocorrelation analysis)을 이용하여 분석주기마다 음향신호의 피치정보를 추출하고, 또 제곱합(square sum)을 구하기 위해 음향신호를 처리하여 분석주기마다의 파워정보를 추출한다.3 is a flow chart of automatic recruitment processing, which is not executed until after the sound signal is input. First, the CPU 1 extracts the pitch information of the sound signal at each analysis period by using autocorrelation analysis of the sound signal, and processes the sound signal to obtain a square sum, thereby processing the sound signal at each analysis period. Extract power information.

그후, CPU(1)는 여러가지 전처리, 예를들어 노이즈제거나 평활화처리 등의 전처리를 실행한다(스텝 SP21, SP22). 그후, CPU(1)는 보조기억장치(6)내에 격납되어 있는 각각의 소절개시 표시에 기초하여 입력음향신호를 소정의 구간으로 구분하고, 파워의 변화에 기초하여 그 구간을 검토하여 동일음을 나타내는것으로 간주될 수 있는 세그멘트를 작성하기 위하여 그 구간을 분리한다(스텝 SP23, SP24). 다음에, CPU(1)는 피치정보의 분포상황을 기초하여 절대음정축에 대하여 음향신호가 보유하는 음정축의 편차량을 계산하여, 얻어진 피치정보를 그 편차량에 따라서 시프트(shift)시켜, 투우닝(tuning)처리를 실행한다(스텝 SP25).Thereafter, the CPU 1 executes various preprocessing, for example, preprocessing such as noise reduction or smoothing processing (steps SP21 and SP22). Thereafter, the CPU 1 divides the input sound signal into predetermined sections based on the indications of each cut-off time stored in the auxiliary storage device 6, and examines the sections based on the change in power. The sections are separated in order to create segments that can be regarded as representing (steps SP23, SP24). Next, the CPU 1 calculates the deviation amount of the pitch axis held by the acoustic signal with respect to the absolute pitch axis based on the distribution state of the pitch information, shifts the obtained pitch information according to the deviation amount, and bullfights. The tuning process is executed (step SP25).

즉, CPU(1)는 음향신호를 발생한 가창자 또는 악기의 음정축과 절대음정축사이의 차가 작게되도록 피치정보를 수정한다.That is, the CPU 1 corrects the pitch information so that the difference between the pitch axis and the absolute pitch axis of the singer or musical instrument that generated the sound signal is small.

이와 같이하여, CPU(1)는 상기한 세그멘테이션처리에 의해 얻어진 피치정보에 기초하여, 가장 음정이 가깝다라고 판단되는 절대음정축상의 음정으로 그 세그멘트의 음정을 동정(同定)하고, 동정된 연속하는 세그멘트의 음정이 동일한지 아닌지의 여부에 기초하여 재차 세그멘테이션처리를 실행한다(스텝 SP26, SP27).In this way, the CPU 1 identifies the pitch of the segment based on the pitch information obtained by the above-described segmentation process, and the pitch of the segment is determined by the pitch on the absolute pitch axis determined to be closest. The segmentation process is executed again based on whether or not the pitch of the segments is the same (steps SP26 and SP27).

그후, CPU(1)는 튜우닝후의 피치정보를 집계하여 얻은 음정의 출현빈도와, 조에 따라 결정된 소정의 무게계수(weighting coefficient)와의 곱의 합(product sum)을 구하고, 이 곱의 합의 최대치정보에 기초하여, 예를들어 다장조 또는 가단조등과 같이 입력음향신호의 악곡의 조를 결정하고, 결정된 조에 있어서 음계상의 소정음정에 관하여 그 음정을 피치정보에 대해 보다 상세하게 검통하여 음정을 확인, 수정한다(스텝 SP28, SP29).Thereafter, the CPU 1 calculates the product sum of the frequency of appearance of the pitch obtained by counting the pitch information after tuning and the predetermined weighting coefficient determined according to the pair, and the maximum value information of the sum of the product On the basis of the above, for example, a set of tunes of the input sound signal is determined, for example, in a major or a malleable note, and the pitch is checked in detail with respect to the pitch information in relation to the predetermined pitch on the scale in the determined set to check and correct the pitch. (Step SP28, SP29).

다음에, CPU(1)는 최종적으로 결정된 음정이 연속해서 동일한 세그멘트를 포함하는지 아닌지, 또는 연속하는 세그멘트에 있어서 파워의 변화가 있는지 없는지의 여부에 기초하여 세그멘테이션 결과를 검토하여 최종 세그멘테이션을 수행한다(스텝 SP30).Next, the CPU 1 performs the final segmentation by reviewing the segmentation result based on whether or not the finally determined pitch contains the same segment continuously or whether there is a change in power in the successive segment ( Step SP30).

이와 같은 방법으로 음정과 세그멘트(즉, 음의 길이)가 결정된 후에, CPU(1)는 음향신호의 입력이 개시될때에 입력된 박자정보 및 템포정보를 포함하여 정보를 정리하여 최종적으로 악보데이터를 작성한다.After the pitch and the segment (i.e., the length of the sound) are determined in this manner, the CPU 1 finally organizes the information including the beat information and tempo information input when the sound signal is input, and finally obtains the sheet music data. Write.

소절정보 및 파워정보에 기초한 세그멘테이션 제4도는 본 방식에 의해 발생된 소절정보 및 파워정보에기초한 세그멘테이션처리의 순서도이고, 제5도는 소절정보와 파워정보에 기초한 세그멘테이션처리를 보다상세하게 나타내는 순서도이라.Segmentation Based on Measure Information and Power Information FIG. 4 is a flowchart showing segmentation processing based on the measure information and power information generated by the present method, and FIG. 5 is a flowchart showing the segmentation processing based on the measure information and power information in more detail.

이하, 음향신호의 소정정보 및 파워정보에 기초한 세그멘테이션처리에 제3도의 스텝 SP23, SP24에 대하여, 제4도 및 제4도의 순서도를 이용하여 상세하게 설명한다.Hereinafter, steps SP23 and SP24 in FIG. 3 will be described in detail with reference to the flowcharts of FIGS. 4 and 4 in the segmentation processing based on the predetermined information and power information of the acoustic signal.

여기서, 제4도는 기능레벨에서 그러한 처리를 설명하는 순서도이고, 제5도는 제4도에 표시된 것을 보다 상세하게 설명하는 순서도이다. 음향신호는 분석주기내의 각 샘플링점(sampling point)에 대하여 자승되고, 이들 자승치의 총합은 분석주기내에서 음향신호의 파워정보로 사용된다.Here, FIG. 4 is a flowchart illustrating such processing at the functional level, and FIG. 5 is a flowchart illustrating in more detail what is shown in FIG. The acoustic signal is squared for each sampling point in the analysis period, and the sum of these squared values is used as power information of the acoustic signal in the analysis period.

우선, 이 세그멘테이션의 개략을 제4도를 참조하여 설명한다. 설명을 위해, 신호의 소절로서 4박자가 선택되었다고 가정한다. 물론, 본 발명은 이러한 가정에 한정되는 것은 아니다. 이 가정은 본 발명의 설명을 용이하게 하기 위한 것일 뿐이다.First, the outline of this segmentation is demonstrated with reference to FIG. For explanation, assume that four beats are selected as the measure of the signal. Of course, the present invention is not limited to this assumption. This assumption is only for facilitating the explanation of the present invention.

CPU(1)는 보조기억장치(6)내에 격납된 소절개시표시를 취출하여, 각 소절을 4등분하고, 각 등분구간의 선두에 박자개시표시를 붙인다(스텝 SP40). 4박자가 아니고 3박자가 선택된 경우에는, 소절을 3등분한다. 다음에, CPU(1)는 얻어진 각 박자구간을 또 4등분하여, 등분한 각 구간의 선두에 10분음표의 개시표시를 붙인다(스텝 SP41).The CPU 1 extracts the measure start indications stored in the auxiliary memory device 6, divides each measure into four quarters, and attaches a beat start indication to the beginning of each equal division (step SP40). If three beats are selected rather than four beats, measure is divided into three. Next, the CPU 1 divides each obtained beat section into four equal parts and attaches a start indication of a tenth note to the head of each divided section (step SP41).

이와 같이 하여, 소절정보에 기초하여 음향신호가 1소절당 16분할된다. 4박자가 아니고 3박자가 선택된 경우에는, 1소절단 12분할 된다. 그후 CPU(1)는 파워정보가 기초하여 이들 구분을 검토한다. 또한, 사용자가 피치를 변화시키는 경우, 즉 다음의 음으로 이행할때에 파워도 크게되도록 변화시키므로 파워정보를 세그멘테이션처리에 반영시키도록 되어 있다.In this way, the acoustic signal is divided into 16 per measure based on the measure information. If three beats are selected instead of four beats, one subcution is divided into 12. The CPU 1 then examines these divisions based on the power information. In addition, when the user changes the pitch, that is, changes the power so as to shift to the next sound, the power information is reflected in the segmentation process.

상기한 처리에 계속하여 CPU(1)는 파워정보의 입상점(rising point)을 추출하여, 입상점을 나타내는 표시를 적당한 위치에 붙인 후에, 각 입상점에 가장 가까운 16분음표 개시의 표시를 취하여, 그 입상점에 16분음표 개시표시를 붙인다(스텝 SP42, SP43).Subsequent to the above process, the CPU 1 extracts a rising point of the power information, attaches a mark indicating the winning point to an appropriate position, and takes the indication of the start of the sixteenth note closest to each winning point. 16th note start marks are attached to the winning points (steps SP42 and SP43).

이와 같이 하는 이유는, 입력보조리듬을 발생시켜 음향신호를 입력시켜도, 사용자가 그 타이밍에 완전하게 일치하여 음을 변화시키는 것은 실제상 곤란하기 때문이고, 음향신호의 변화에 음의 구분을 맞추어 다음의 구간이 휴지(rest)구간인지 아닌지 여부의 판단을 정확하게 실행시키기 때문이다.The reason for this is that even if an input auxiliary rhythm is generated and an acoustic signal is input, it is practically difficult for the user to completely change the sound in accordance with the timing. This is because the judgment of whether or not the interval of is a rest period is executed correctly.

다음에, CPU(1)는 각 16분음표 구간의 피치정보의 갯수를 계수하여, 그 갯수가 한계치(threshold value)미만인 구간의 선두에 휴지개시를 나타내는 표시를 붙인다.(스텝 SP44)Next, the CPU 1 counts the number of pitch information in each sixteenth note section, and attaches a mark indicating the start of rest to the beginning of the section whose number is less than the threshold value. (Step SP44)

최종적으로 CPU(1)는 소절개시, 입상점, 휴지개시등의 표시가 있는 점에 세그멘트개시를 나타내는 표시를 붙인다(스텝 SP45). 소절개시점에도 세그멘트개시의 표시를 붙이도록 한 것은, 1개의 음이 2개의 소절에 걸치는 것이 있어, 이 경우, 악보상은 각각의 소절에 대해 음표를 붙이는 것이 행하여지기 때문이다.Finally, the CPU 1 attaches a mark indicating the start of the segment to a point at which there are indications such as the start of cutting, the starting point, the stop of starting, and the like (step SP45). The indication of the start of the segment is also attached at the beginning of the measure because one note spans two measures, and in this case, the music compensation is performed by adding a note to each measure.

이와 같이 하여, 소절정보 및 파워정보에 기초하여 구분된 복수의 세그멘트가 얻어진다.In this way, a plurality of segments divided based on the measure information and the power information are obtained.

이 세그멘테이션처리에 의해 얻어진 세그멘트가 부적절한 것이 있다고 하여도, 다음의 스텝에서 실행되는 상술한 세그멘테이션(제3도의 스텝 SP27, SP30)에 의해 적절한 것으로 된다.Even if the segment obtained by this segmentation process is inadequate, it becomes appropriate by the above-mentioned segmentation (step SP27, SP30 of FIG. 3) performed in the next step.

다음에, 이 처리를 제5도의 순서도를 참고하여 보다 상세하게 설명한다. CPU(1)는 각 분석주기(이하에서는, 분석주기가 매우 짧으므로 분석점이라 한다)를 지시하는 파라미터(i)를 O으로 클리어(clear)한후, 처리될 분석점 데이터(피치정보 및 파워정보를 포함)가 종료하지 않는 것을 확인하여, 그 분석점에 소절개시 표시가 붙여있는지 아닌지의 여부를 판단한다(스텝 SP50-SP52). 표시가 붙어있지 않는 경우에, CPU(1)는 분석점 파라미터(i)를 증가시키고, 상기한 스텝(SP51)으로 복귀하지만, 표시가 붙어있는 경우에는, CPU(1)는 스텝(SP54)과 그 다음 스텝의 처리를 실행하도록 진행한다(스텝 SP53).Next, this processing will be described in more detail with reference to the flowchart of FIG. The CPU 1 clears the parameter i, which indicates each analysis cycle (hereinafter referred to as an analysis point because the analysis cycle is very short) to 0, and then analyzes the analysis point data (pitch information and power information to be processed). ), And it is judged whether or not a mark at the time of cutting is attached to the analysis point (steps SP50-SP52). In the case where there is no display, the CPU 1 increases the analysis point parameter i and returns to the above-described step SP51. However, in the case where there is a display, the CPU 1 is connected to the step SP54. The process proceeds to the next step (step SP53).

이와 같이 하여, CPU(1)는 최초의 소절개시표시를 찾아낸다. 소절개시표시를 검출하면, CPU(1)는 파라미터(j)에 i+1을 세트하고, 처리될 분석점 데이터가 종료하지 않은 것을 확인하여, 그 분석점에 소절개시표시가 붙어있는지 아닌지의 여부를 판단한다(스텝 SP54-SP56). 표시가 붙어있지 않은 경우에, CPU(1)는 파라미터(j)를 증가시키고 상기한 스텝(SP55)으로 복귀하지만, 표시가 붙어있는 경우에는 CPU(1)는 스텝(SP58) 이하의 처리로 진행한다.(스텝 SP57)In this way, the CPU 1 finds the first cut-off start indication. Upon detecting the cut-off indication, the CPU 1 sets i + 1 to the parameter j, confirms that the analysis point data to be processed is not finished, and whether or not the break-in indication is attached to the analysis point. (Step SP54-SP56). In the case where there is no display, the CPU 1 increments the parameter j and returns to the above-described step SP55, but in the case where there is an indication, the CPU 1 proceeds to the process of step SP58 or less. (Step SP57)

여기서, 스텝(SP56)에서 긍정결과가 얻어진 타이밍에서는, 파라미터(i)는 2개의 연속하는 소절개시표시중 앞쪽 분석점을 지시하고, 파라미터(j)는 2개의 연속하는 소절개시표중 뒷쪽 분석점을 지시하고 있다.Here, at the timing at which the affirmative result is obtained in step SP56, the parameter (i) indicates the front analysis point in the two consecutive small incision start indications, and the parameter (j) is the rear analysis point in the two consecutive small incision timetables. Is instructed.

따라서, CPU(1)는 분석점(i)부터 분석점(i-j)까지의 구간을 4등분(또는 3박자인 경우에는 3등분)하여 박자개시표시를 붙인후에 소절개시표시의 앞쪽 분석점을 지시하는 파라미터(i)에 j를 세트하고, 상기한 스텝(SP54)으로 복귀하여 소절개시표시가 붙여진 뒷쪽 분석점의 검색으로 진행한다(스텝 SP58, SP59).Therefore, the CPU 1 divides the interval from the analysis point i to the analysis point ij into four quarters (or three quarters in the case of three beats), adds a time signature, and then indicates the analysis point in front of the small opening indication. J is set in the parameter i to be set, and the process returns to the above-described step SP54, and the search proceeds to the back analysis point to which the cut-off start indication is attached (steps SP58 and SP59).

이와 같은 스텝(SP54)-스텝(SP59)으로 이루어진 루우프처리의, 반복실행에 의해, 스텝(SP55)에서 긍정 결과를 얻기 위해 최종 분석점에 대한 데이타가 취출될때까지 각 소절구간에 박자개시표시가 순차적으로 하나씩 붙여진다. 이때에는, 그때의 파라미터(i)의 분석점에 박자개시표시를 붙여서 박자개시표시를 붙이는 일련의 처리를 종료한 후에, 각 16분음표 개시표시를 붙이는 스텝(SP61) 이후의 처리로 진행한다(스텝 SP60).By repeated execution of the looping process made up of steps SP54-SP59, the time signature is displayed in each measure section until the data for the final analysis point is taken out in order to obtain a positive result in step SP55. Are attached one by one. At this time, after completion of the series of processing for attaching the time signature to the analysis point of the parameter (i) at that time, the time signature for displaying the time signature starts, and then proceeds to the process after the step SP61 for attaching each sixteenth note ( Step SP60).

CPU(1)가 최초의 소절개시표시를 찾아내기 전에 최후의 데이터로 되어 스텝(SP51)에서 긍정결과를 얻는 경우에, CPU(1)는 그 구간에 표시를 붙이지 않고, 16분음표 개시표시를 붙이는 처리로 진행한다.When the CPU 1 obtains the affirmative result at the step SP51 before finding the first measure-opening indication, the CPU 1 does not add a mark to the section and displays the sixteenth note start indication. Proceed to the pasting process.

스텝(SP50)-스텝(SP60)을 포함하는 처리부는 제4도의 스텝(40)에 대응한다.The processing unit including step SP50 to step SP60 corresponds to step 40 in FIG.

서로 전후하여 박자개시를 나타내는 2개의 표시를 찾아내어, 그것을 4등분하여 16분음표 개시표기를 붙이는 것이 수행되는 제4도의 스텝(SP41)에 대응하는 처리의 상세한 것은 스텝(SP50)-스텝(60)의 처리와 거의 동일하다.Steps SP50 to 60 show details of the processing corresponding to step SP41 in FIG. 4, in which two marks indicating the time signature start and before and after each other are divided into quarters and a 16th note start notation is performed. Is almost the same as

각각의 전후 구간의 개시표시를 찾아내어 그 구간을 4등분하여 박자개시표시를 붙이므로, 그 처리의 상세한 설명은 생략한다(스텝 SP61--SP71).Since the start indications of the front and rear sections are found, the sections are divided into quarters, and the time signature is displayed. Therefore, detailed description of the processing is omitted (steps SP61 to SP71).

16분음표 개시표시를 붙이는 처리를 종료하면, CPU(1)는 분석점의 파라미터(i)를 0으로 클리어한 후에, 처리될 분석점 데이터가 종료하지 않은 것을 확인하여 그 분석점에 대한 파워정보의 입상추출함수 d(i)를 결정하기 위해 연산한다(스텝 SP72--SP74).When the processing for attaching the sixteenth note start mark is finished, the CPU 1 clears the parameter (i) of the analysis point to 0, confirms that the analysis point data to be processed is not finished, and then powers the information on the analysis point. Compute to determine the granular extraction function d (i) of (steps SP72-SP74).

분석점(i)에 대한 파워정보, power(i)의 입상추출함수 d(i)는 아래식에 의한 연산에 의해 결정된다.The power information for the analysis point i and the granular extraction function d (i) of power (i) are determined by the following equation.

d(i)=={power(i+t)-powrer(1)}/{power(i+t)+power(i)}………………(1)d (i) == {power (i + t) −powrer (1)} / {power (i + t) + power (i)}... … … … … … (One)

여기에서, t는 파워정보의 입상변화를 포착하기에 적당한 시간을 나타내는 자연수이다.Here, t is a natural number representing a time suitable for capturing the granular change of the power information.

그후, CPU(1)는 이와 같이 하여 입상추출함수 d(i)의 값이 한계치(θd)보다 작은지 아닌지의 여부를 판단하여, 작은 경우에는 분석점의 파라미터(i)를 증가시키고 스텝(SP73)으로 복귀한다(스텝 SP75, SP76).Then, the CPU 1 judges whether or not the value of the granular extraction function d (i) is smaller than the threshold value θd in this way, and if it is small, increases the parameter i of the analysis point and performs step SP73. ) Are returned (steps SP75, SP76).

한편, 입상추출함수 d(i)가 한계치(θd) 이상으로 경우에, CPU(1)는 그 분석점에 입상점개시표시를 붙인다(스텝 SP77) 그후 CPU(1)는 모든 분석점 데이터에 대하여 처리가 종료하지 않은 것를 확인한 후, 입상추출함수 d(i)를 연산하여 입상추줄함수 d(i)가 한계치(θd)보다 작은지 아딘지를 판단한다(스텝 SP78-SP80). 입상추출함수 d(i)가 한계치보다 작은 경우에, CPU(1)는 파라미터(i)를 증가시키고 상기한 스텝(SP78)으로 복귀한다.On the other hand, when the granular extraction function d (i) is equal to or larger than the threshold value? D, the CPU 1 attaches a starting point start indication to the analysis point (step SP77). Then, the CPU 1 applies all the analysis point data. After confirming that the process has not ended, the granular extraction function d (i) is calculated to determine whether the granular extraction function d (i) is smaller than the threshold value? D (steps SP78-SP80). If the granular extraction function d (i) is smaller than the threshold value, the CPU 1 increases the parameter i and returns to the above-described step SP78.

스텝(SP78)-스텝(SP81)의 처리는 단일 한계치(θd) 이상으로 된 입상추출함수 d(i)가 한계치(θd)보다 작게하는 분석점을 찾아내는 처리이다.The process of step SP78 to step SP81 is a process of finding an analysis point at which the granular extraction function d (i) which is greater than or equal to the single threshold value? D is smaller than the threshold value? D.

이와 같이 하여 얻어진 분석점 이후에 다시 입상추출함수가 입상하는 분석점이 있으므로, 입상추출함수가 한계치보다 작게되는 분석점을 찾아내면, 즉 상기한 스텝(SP80)에서 긍정결과가 얻어지면, CPU(1)는 상기한 스텝(SP73)으로 복귀하여 입상점을 추출하는 처리를 다시 시작한다.Since the analysis point in which the granular extraction function is prized again after the analysis point thus obtained is found, if an analysis point in which the granular extraction function is smaller than the threshold is found, that is, a positive result is obtained in the above-described step SP80, the CPU 1 ) Returns to the above-described step SP73 and resumes the process of extracting the winning point.

상기한 처리를 반복하는 것에 의해, CPU(1)는 곧 스텝(SP 73) 또는 스텝(SP 78)에서 모든 분석점에 대하여 처리가 종료하는 것을 검출하여, 스텝(SP 82) 이후의 인접하는 입상점 사이의 길이에 기초하여 입상점을 검토하는 처리로 진행한다.By repeating the above process, the CPU 1 immediately detects the end of the process for all the analysis points in step SP 73 or step SP 78, and the adjacent winning prize after step SP 82 is detected. The processing proceeds to review the winning points based on the length between the points.

이러한 처리에 있어서, CPU(1)는 분석점의 파라미터(i)를 0으로 클리어한 후에, 분석점데이터가 종료하지 않은것을 확인하여 그 분석점에 입상점개시표시가 붙어있는지 아닌지를 판단한다(스텝 SP 82-SP 84). 그 분석점이 입상점이 아닌 경우에, CPU(1)는 분석점 파라미터(i)를 증가시킨후, 스텝(SP 83)으로 복귀한다(스텝 SP 85). 이 처리를 반복하여 입상점을 검출하면, CPU(1)는 이 입상점으로부터 다음 입상점까지의 길이를 측정하기 위해 길이 파라미터(L)를 초기치 "1"로 세트한다(스텝 SP 86).In this process, after clearing the parameter (i) of the analysis point to 0, the CPU 1 confirms that the analysis point data has not finished and judges whether or not the analysis point has a starting point display indication ( Step SP 82-SP 84). If the analysis point is not a winning point, the CPU 1 returns to step SP 83 after increasing the analysis point parameter i (step SP 85). When this process is repeated and the winning point is detected, the CPU 1 sets the length parameter L to an initial value "1" in order to measure the length from this winning point to the next winning point (step SP 86).

그후, CPU(1)는 분석점 파라미터(i)를 증가시키고, 또 분석점데이터가 종료되지 않은 것을 확인한후, 입상점개시표시가 분석점에 붙어있는지 아닌지를 판단한다(스텝 SP 87-SP 89). 그 결과, 입상점이 아닌 경우에 CPU(1)는 길이 파라미터(L)를 증가시키고 또한 분석점 파라미터(i)도 증가시킨후, 상기한 스텝(SP 88)으로 복귀한다(스텝 SP 90, SP 91). 스텝(SP 88)-스텝(SP 91)의 처리를 반복하는 것에 의해, CPU(1)는 곧 다음의 세그멘트개시표시가 붙어있는 분석점에 도달하여, 스텝(SP 89)에서 공정결과를 얻게된다.이때의 길이 파라미터(L)는, 표시가 붙어있는 처리대상의 분석점과 그 직전의 표시가 붙어있는 분석점 사이의 거리, 즉 서로 전후하는 입상점 사이의 길이에 상당한다.Thereafter, the CPU 1 increases the analysis point parameter i and confirms that the analysis point data is not finished, and then judges whether the winning point start indication is attached to the analysis point (steps SP 87-SP 89). ). As a result, when it is not a winning point, the CPU 1 increases the length parameter L and also increases the analysis point parameter i, and then returns to the above-described step SP 88 (steps SP 90 and SP 91). ). By repeating the processing of step SP 88 to step SP 91, the CPU 1 soon arrives at the analysis point to which the next segment start indication is attached, and the process result is obtained at step SP 89. The length parameter L at this time is equivalent to the distance between the analysis point of the object to be marked and the analysis point to which the indication is immediately preceding, that is, the length between the standing points before and after each other.

CPU(1)는 스텝(SP 89)에서 긍정결과가 얻어지면, 이 길이 파라미터(L)가 한계치(θ L)보다 짧은지 아닌지의 여부를 판단하여, 한계치(θ L) 이상인 경우에는 입상점표시를 제거하지 않고 상기한 스텝(SP 83)으로 복귀하지만, 한계치(θ L)보다 작은 경우에는, 앞쪽의 입상점개시표시를 제거하고 상기한 스텝(SP 83)으로 복귀한다(스텝 SP 92, SP 93), 또한, 스텝(SP 92) 또는 스텝(SP 93)으로부터 스텝(SP 83)으로 복귀한 경우에, 분석점데이터가 종료하지 않으면, 스텝(SP 84)에서 바로 긍정결과가 얻어져 스텝(SP 86) 이후의 처리로 진행하여, 방금 발견한 표시 다음의 다른 표시를 조사하는 동작으로 이행한다.When the positive result is obtained at step SP 89, the CPU 1 judges whether or not the length parameter L is shorter than the threshold value θ L, and displays the winning point when the value is greater than or equal to the threshold value θ L. The process returns to the above-described step SP 83 without removing, but when it is smaller than the threshold value θ L, the previous standing point start indication is removed and the process returns to the above-described step SP 83 (steps SP 92 and SP). 93, and if the analysis point data does not end when returning from step SP 92 or step SP 93 to step SP 83, an affirmative result is immediately obtained at step SP 84, and the step ( The process proceeds to SP 86) and proceeds to the operation of checking the other display following the display just found.

이와같은 일련의 스텝을 반복하는 것에의해, CPU(1)는 모든 입상점에 대하여 입상점 사이의 길이의 검토를 종료하고, 곧 스텝(SP 83) 또는 스텝(SP 88)에서 공정결과가 얻어져, CPU(1)는 일련의 파워정보의 입상점 추출처리를 종료한다. 스텝(SP 72)-스텝(SP 93)의 처리는 제4도에 표시된 스텝(SP 42)의 처리에 상당한다.By repeating such a series of steps, the CPU 1 finishes examining the lengths between the winning points for all the winning points, and immediately obtains the process results at step SP 83 or SP 88. The CPU 1 ends the winning point extraction process of the series of power information. The processing of step SP 72-step SP 93 corresponds to the processing of step SP 42 shown in FIG. 4.

입상점을 입상추출함수 d(i)로 추출한후, 서로 전후하는 입상점 사이의 거리에 의해 입상점을 검토하도록한 것은, 동일한 음을 의도하는 경우이어도 음향신호의 파워가 약간씩 변화하는 것이 있고, 또 음향신호에 외부음등의 노이즈가 포함되는 것이 있어 이와같은 것에 의해 1음의 길이보다 짧은 구간에 복수의 입상점이 발생하는 것을 방지하기 위해서이다.After the winning point was extracted by the winning extraction function d (i), the winning points were examined by the distance between the winning points before and after each other. Even if the same sound is intended, the power of the sound signal changes slightly. In addition, the acoustic signal may contain noise such as an external sound, and this is to prevent a plurality of standing points from occurring in a section shorter than the length of one sound.

이러한 처리를 반복하여 파워정보의 입상점 추출처리를 종료하면 CPU(1)는 분석점파라미터(i)를 0으로 클리어 한 후, 처리될 데이터가 종료하지 않은 것을 확인하여, 분석점에 대해 파워정보의 입상점 표시가 붙어있는지 아닌지를 판단한다(스텝 SP 94-SP 96). 그 표시가 부착되어 있지 않은 경우에, CPU(1)는 파라미터(i)를 증가시키고 상기한 스텝(SP 95)으로 복귀한다(스텝 SP 97) 이와같이 하여 1개의 입상점을 발견해내면, CPU(1)는 그 분석점(i)에 16분음표개시표시가 붙어있는지 아닌지를 판단한다(스텝 SP 98).When this process is repeated and the winning point extraction process of the power information is finished, the CPU 1 clears the analysis point parameter i to 0, then confirms that the data to be processed is not terminated, and determines the power information for the analysis point. It is judged whether or not the standing shop mark is attached (steps SP 94-SP 96). When the indication is not attached, the CPU 1 increases the parameter i and returns to the above-described step SP 95 (step SP 97). In this way, when one winning point is found, the CPU 1 ) Determines whether or not a sixteenth note start indication is attached to the analysis point (i) (step SP 98).

그 분석점에 16분음표개시 표시가 붙어있지 않은 경우에, 그 입상점과 16분음표개시점과의 일치시키는 처리를 행할 필요가 없으므로, CPU(1)는 파라미터(i)를 증가시키고 스텝(SP 95)으로 복귀하여, 다음의 입상점을 조사하는 처리로 진행한다(스텝 SP 99).If the analysis point does not have a 16th note start indication, the CPU 1 does not need to perform the matching process between the winning point and the 16th note start point, so that the CPU 1 increases the parameter (i) and the step ( The process returns to SP 95) and proceeds to the process of investigating the next winning point (step SP 99).

한편, 찾아낸 입상점에 16분음표개시표시가 붙어있지 않은 경우에, CPU(1)는 상기한 스텝(SP 95)으로 복귀하여 이 입상점에 가장 가까운 입상점을 조사하는 처리로 진행한다.On the other hand, in the case where the found winning point is not attached to the sixteenth note start indication, the CPU 1 returns to the above-described step SP 95 and proceeds to the process of investigating the winning point closest to this winning point.

우선, CPU(1)는 입상점에 16분음표개시표시를 붙인후에, 입상점 앞쪽의 16분음표개시표시가 붙여진 분석점을 찾아내기 위하여 파라미터(j)를 초기치 "1"로 세트한다(스텝 SP 1OO, SP 1O1).First, the CPU 1 attaches the 16th note start mark to the winning point, and then sets the parameter j to the initial value "1" in order to find the analysis point with the 16th note start mark in front of the winning point (step). SP 1OO, SP 1O1).

그후, 구간(i-j)이 0 이상인 것을 확인하고, CPU(1)는 그 분석점(i-j)에 16분음표개시표시가 붙어있는지 아닌지를 판단한다. 그러한 표시가 붙어있지않은 경우에, CPU(1)는 파라미터(j)를 증가시킨후에, 스텝(SP 102)으로 복귀한다(스텝 SP 102-SP 104). 이러한 스텝(SP 102)-스텝(SP 104)의 처리를 반복하는것에 의해 CPU(1)는 16분음표개시표시가 붙어있는 입상점 앞쪽의 가장 가까운 곳에 위치한 분석점(i-j)을 찾아내어 스텝(SP 103)에서 긍정결과가 얻어진다.Thereafter, it is confirmed that the section i-j is equal to or greater than zero, and the CPU 1 determines whether or not a sixteenth note start display is attached to the analysis point i-j. If there is no such indication, the CPU 1 returns to step SP 102 after increasing the parameter j (steps SP 102-SP 104). By repeating the processing of steps SP 102 and SP 104, the CPU 1 finds the analysis point ij located closest to the winning point of the winning shop with the sixteenth note start indication, In SP 103, a positive result is obtained.

그 경우에, CPU(1)는 입상점 뒤쪽의 16분음표개시표시가 붙어있는 분석점을 찾아내기 위해 파라미터(k)를 초기치 "1"로 세트한다(스텝 SP 105). 그후 CPU(1)는 분석점(i+k)이 최종분석점보다 큰 값이 아닌것을, 즉 분석점(i+k)이 데이터가 존재하는 분석점인 것을 확인하여 분석점(i+k)에 16분음표개시표시가 붙어있는지 아닌지의 여부를 판단한다.In that case, the CPU 1 sets the parameter k to an initial value " 1 " to find an analysis point with a sixteenth note start indication behind the winning point (step SP 105). After that, the CPU 1 checks that the analysis point i + k is not larger than the final analysis point, that is, the analysis point i + k is an analysis point at which data exists. Determines whether or not a sixteenth note start symbol is attached to the mark.

표시가 붙어있지않은 경우에, CPU(1)는 피라미터(k)를 증가시키고, 스텝(SP 106)으로 복귀한다(스텝SP 106-SP 108). 이러한 스텝(SP 106)-스텝(SP 108)의 처리를 반복하는 것에 의해, CPU(1)는 16분음표개시표시가 붙어있는 입상점보다 뒷쪽의 가장 가까운 분석점(i+k)을 찾아내어, 스텝(SP 107)에서 긍정결과가 얻어진다.If there is no indication, the CPU 1 increments the parameter k and returns to step SP 106 (steps SP 106-SP 108). By repeating the processing of steps SP 106 and SP 108, the CPU 1 finds the closest analysis point i + k behind the winning point with the sixteenth note start indication. In step SP107, an affirmative result is obtained.

이와같이 하여, 입상점에 가까운 16분음표개시표시가 붙어있는 전후의 분석점을 찾아내면, CPU(1)는 2개의 파라미터(i)(k)를 크기 비교하여 어느 분석점이 분석점에 가까운지를 판단하여, 앞쪽의 분석점(i-j)가까운 경우(동일하게 가까운 경우도 포함)에 CPU(1)는 그 분석점(i-j)에 붙어있는 16분음표개시표시를 제거한후, 파라미터(i)를 증가시키고 다음의 입상점을 조사하는 처리로 진행한다.In this way, when the analysis points before and after the sixteenth note start indication close to the winning point are found, the CPU 1 compares the two parameters (i) (k) in size to determine which analysis point is close to the analysis point. When the previous analysis point ij is close (including the same close case), the CPU 1 removes the sixteenth note start indication attached to the analysis point ij, and then increases the parameter i. The process proceeds to investigate the next winning point.

한편 뒷쪽의 분석점(i+k)이 가까운 경우에 CPU(1)는 그 분석점(i+k)에 붙어있는 16분음표개시표시를 제거한후, 파라미터(i)를 증가시키고 다음의 입상점을 조사하는 처리로 진행한다(스텝 SP 109-SP 113). 이러한 처리를 반복하는 것에 의해, CPU(1)는 각 입상점에 16분음표개시표시를 붙이고, 그 입상점에 가장 가까운 점으로부터 16분음표개시표시를 제거한다.On the other hand, when the analysis point (i + k) at the rear is close, the CPU 1 removes the 16th note start indication attached to the analysis point (i + k), increases the parameter (i), and then moves on to the next winning point. The process proceeds to the step of examining the data (steps SP 109-SP 113). By repeating this process, the CPU 1 attaches a sixteenth note start mark to each winning point and removes the sixteenth note start mark from the point closest to the winning point.

그리고, 모든 분석점에 대해 이러한 처리가 종료되면 CPU(1)는 스텝(SP 95)에 의해 일련의 입상점과 16분음표개시점과의 일치처리를 종료한다.Then, when such processing is finished for all analysis points, the CPU 1 finishes the matching process between the series of winning points and the sixteenth note starting point in step SP 95.

또한, 스텝(SP 94)-스텝(SP 113)의 처리는 제4도의 스텝(SP 43)에 대응한다. 이와같이 하여, 파워전보의 입상점 변화처리를 종료하면, CPU(1)는 분석점 파라미터(i)를 0으로 클리어한후, 처리될 분석점 데이터가 종료하지 않은것을 확인하여 그 분석점에 16분음표개시표시가 붙어있는지 아닌지의 여부를 판단한다(스텝 SP 114-SP 116). 표시가 붙어있지 않은 경우에 CPU(1)는 파라미터(i)를 증가시키고, 상기한 스텝(SP 115)으로 복귀한다(스텝 SP 117). 이와같이 하여, 최초의 16분음표개시표시를 찾아내면, CPU(1)는 다음의 16분음표개시표시에 적용된 파라미터(j)를 i-1로 세트한후, 처리될 분석점데이터가 종료하지 않은것을 확인하여 그 분석점(j)에 16분음표개시표시가 붙어있는지 아닌지를 판단한다(스텝 SP 118-SP 120). 그 표시가 붙어있지않은 경우에, CPU(1)는 파라미터(j)를 증가시키고 상기한 스텝(SP 119)으로 복귀한다(스텝 SP 121). 다음의 16분음표개시표시가 찾아지면, CPU(1)는 피치보유세그멘트의 갯수 파라미터(n)를 0으로 클리어한 후, 피치보유세그멘트 처리의 종료파라미터(k)를 i로 세트한다(스텝 SP 122, SP 123).In addition, the process of step SP 94-step SP 113 corresponds to step SP 43 of FIG. In this way, when the winning point change process of the power telegram is finished, the CPU 1 clears the analysis point parameter i to 0, then confirms that the analysis point data to be processed is not finished and 16 minutes to the analysis point. It is judged whether or not a note start indication is attached (steps SP 114-SP 116). If there is no indication, the CPU 1 increments the parameter i and returns to step SP 115 described above (step SP 117). In this way, when the first sixteenth note start display is found, the CPU 1 sets the parameter j applied to the next sixteenth note start display to i-1, and then the analysis point data to be processed is not finished. Then, it is determined whether or not the analysis point j has a sixteenth note start indication (Steps SP 118-SP 120). If the display is not attached, the CPU 1 increases the parameter j and returns to the above-described step SP 119 (step SP 121). When the next sixteenth note start display is found, the CPU 1 clears the number parameter n of the pitch holding segment to 0, and then sets the end parameter k of the pitch holding segment processing to i (step SP). 122, SP 123).

다음에, 파라미터(k)가 파라미터(j)보다 값이 작은 것을 확인한 후, CPU(1)는 분석점(k)이 대해 피치정보가 존재하는지 아닌지, 즉 그 분석점(k)이 유성음인지 아닌지를 판별한다(스텝 SP 124, SP 125). 이 처리로부터 긍정결과가 얻어지면, CPU(1)는 갯수파라미터(n)를 증가시킨후, 파라미터(k)도 증가시키고, 상기한 스텝(SP 124)으로 복귀한다.Next, after confirming that the parameter k is smaller than the parameter j, the CPU 1 checks whether or not the pitch information exists for the analysis point k, that is, whether the analysis point k is a voiced sound or not. Are determined (steps SP 124 and SP 125). If an affirmative result is obtained from this process, the CPU 1 increases the number parameter n, then increases the parameter k, and returns to the above-described step SP 124.

한편, 부정결과가 얻어지면, CPU(1)는 즉시 파라미터(k)를 증가시킨후, 상기한 스텝(SP 124)으로 복귀한다(스텝 SP 125, SP 126). 이 처리를 반복하는 것에 의하여, 곧 스텝(SP 124)에서 긍정결과가 얻어진다.On the other hand, if a negative result is obtained, the CPU 1 immediately increases the parameter k, and then returns to the above-described step SP 124 (steps SP 125 and SP 126). By repeating this process, an affirmative result is immediately obtained at step SP 124.

여기서, 파라미터(k)는 i부터 j-1까지의 범위내에서 변화하므로, 스텝(SP 124)에서 긍정결과가 얻어진때에는, 갯수파라미터(n)는 분석점(i)과 분석점(j-1) 사이에서 피치정보가 존재하는 분석점의 갯수, 즉 서로 전후하는 16분음표개시표시 사이에 피치정보가 존재하는 분석점의 갯수를 나타낸다. CPU(1)는 갯수파라미터(n)의 값이 소정의 한계치(θn)보다 큰지 아닌지를 판단한다.Since the parameter k varies within the range from i to j-1, when the positive result is obtained in step SP 124, the number parameter n is the analysis point i and the analysis point j-1. Indicates the number of analysis points in which the pitch information exists, i.e., the number of analysis points in which the pitch information exists between the sixteenth note starting display. The CPU 1 determines whether or not the value of the number parameter n is larger than the predetermined threshold value? N.

파라미터의 값이 한계치(θn)보다 작은 경우에, CPU(1)는 16분음표개시표시가 붙어있는 분석점 갯수의 계수에 있어 최초 분석점인 분석점(i)에 휴지개시표시를 붙인후, 파라미터(i)를 j로 세트하고, 상기한 스텝(SP 118)으로 복귀한다.When the value of the parameter is smaller than the threshold value θn, the CPU 1 attaches the pause start mark to the analysis point i, which is the first analysis point, in the coefficient of the number of analysis points with the sixteenth note start indication. The parameter i is set to j and the process returns to step SP 118 described above.

한편, 파라미터값이 한계치(θn) 이상이면, CPU(1)는 즉시 파라미터(i)를 j로 세트한 후, 상기한 스텝(SP 118)으로 복귀하여, 16분음표개시표시가 붙어있는 다음의 분석점을 조사하는 처리로 진행한다(스텝 SP 128-SP 130).On the other hand, if the parameter value is greater than or equal to the threshold value? N, the CPU 1 immediately sets the parameter i to j, then returns to the above-described step (SP 118), where the next 16th note start indication is indicated. The process proceeds to the process of examining the analysis point (steps SP 128-SP 130).

이러한 처리를 반복하는 것에 의하여, 피치정보가 존재하는 분석점의 갯수가 적은 서로 전후하는 16분음표개시표시 사이의 최초분석점에 순차적으로 하나씩 휴지개시표시가 붙여져서, 곧 스텝(SP 115) 또는 스텝(SP 119)에서 긍정결과가 얻어져 휴지개시표시를 붙이는 일련의 처리가 종료한다.By repeating this processing, pause start indications are sequentially attached one by one to the first analysis point between the sixteenth note start indications before and after which the number of analysis points in which pitch information is present is small. In step SP 119, an affirmative result is obtained, and the series of processes of attaching the pause start indication is completed.

그리고, 스텝(SP 114)-스텝(SP 130)의 처리는 제4도의 스텝(SP 44)의 처리에 대응한다. 휴지개시표시를 붙이는 일련의 처리가 종료하면, CPU(1)는 분석점 파라미터(i)를 0으로 클리어한 후, 처리될 분석점 데이터가 종료하지 않은 것을 확인하여, 그 분석점에 소절개시표시가 붙어있는지 아닌지를 판단한다(스텝 SP 131-SP 133). 소절개시표시가 붙어있지 않은 경우에, CPU(1)는 파워정보의 입상점표시가 붙어있는지 아닌지를 판단한다(스텝 SP 134). 입상점 표시가 붙어있지 않은 경우에, CPU(1)는 휴지개시표시가 그곳에 붙어있는지 아닌지를 판단한다(스텝 SP 135). 유지개시표시가 붙어있지 않은 경우에, CPU(1)는 파라미터(i)를 증가시키고 상기한 스텝(SP 132)으로 복귀한 후, 다음의 분석점에 표시가 존재하는지를 확인한다(스텝 SP 136).The process of step SP 114 to step SP 130 corresponds to the process of step SP 44 of FIG. 4. When the series of processes of attaching the pause start mark is finished, the CPU 1 clears the analysis point parameter i to 0, confirms that the analysis point data to be processed is not finished, and displays the start of the small cut at the analysis point. Is judged whether or not (step SP 131-SP 133). If no cut-off start indication is attached, the CPU 1 judges whether or not the winning point indication of power information is attached (step SP 134). In the case where the winning shop display is not attached, the CPU 1 judges whether or not the pause start display is attached thereto (step SP 135). In the case where the holding start indication is not attached, the CPU 1 increases the parameter i and returns to the above-described step SP 132, and then checks whether there is a display at the next analysis point (step SP 136). .

한편, 분석점(i)에, 소절개시표시, 입상점표시, 또는 휴지개시표시가 붙어있으면, CPU(1)는 그 분석점(i)에 세그멘트개시표시를 붙인후, 파라미터(i)를 증가시키고 상기한 스텝(SP 132)으로 복귀하여, 다음의 분석점에 대해 소정의 표시가 붙어있는지 아닌지를 확인한다(스텝 SP 137, SP 138).On the other hand, if the analysis point (i) has a cut start indication, a standing point display, or a pause start indication, the CPU 1 adds a segment start indication to the analysis point (i) and then increases the parameter (i). Then, the process returns to the above-described step (SP 132) and confirms whether or not a predetermined display is attached to the next analysis point (steps SP 137 and SP 138).

이와같이 하여, CPU(1)는 소절개시, 입상점 또는 휴지개시의 표시가 붙어있는 분석점에 순차적으로 세그멘트개시표시를 붙여서, 곧 최종데이터로 되어, 스텝(SP 132)에서 긍정결과가 얻어지고, 세그멘트개시표시를 붙이는 일련의 처리가 종료된다. 스텝(SP 131)-스텝(SP 138)의 처리는 제4도의 스텝(SP 45)의 처리에 상당한다.In this way, the CPU 1 sequentially attaches the segment start indications to the analysis points with indications of small cutting start, winning point or stop starting, and finally becomes final data, and a positive result is obtained at step SP 132. A series of processes for attaching the segment start mark are completed. The processing of step SP 131 to step SP 138 corresponds to the processing of step SP 45 of FIG.

이와같이 하여, CPU(1)는 소절정보 및 파워정보에 기초하여 세그멘테이션 처리를 종료한 후, 상기한 튜우닝처리로 진행한다.In this manner, the CPU 1 ends the segmentation process based on the measure information and the power information, and then proceeds to the above-described tuning process.

제6도는 피치정보(PIT), 파워정보(P0W) 및 입상추출함수 d(i)의 변화를 1소절구간에 대해 표시하는 것이다.6 shows the change in pitch information PIT, power information P0W, and the granularity extraction function d (i) for one measure section.

여기서, "◎"는 소절개시표시이고, "☆"는 입상점표시이고, "○"는 박자개시표시이고, "×"는 입상점과의 일치가 실행되기 전의 16분음표개시표시이며, "△"는 휴지개시표시를 나타낸다.Here, "?" Is the start of the measure, "☆" is the start of the shop, "○" is the start of the beat, and "x" is the start of the sixteenth note before matching with the shop is performed. Δ " indicates a pause start indication.

따라서, 이 소절구간에의 경우, 상기한 일련의 세그멘테이션 처리를 실행하는 것에 의해 "●"를 붙이는 바와같이 세그멘트개시표시가 붙여진다.Therefore, in this section, the segment start indication is attached as indicated by "# " by performing the above-described series of segmentation processes.

상기한 실시예에 의하면, 본 방식은 입력보조리듬음을 발생시켜 이용자에게 음향신호를 입력시키도록 한것으로, 이용자에 의해 음향신호의 입력동작이 간단하게 되고, 의도한 음향신호를 리듬적으로 정확하게 입력할 수 있어, 그 결과, 세그멘테이션이 용이하게 되어 작성된 악보데이터의 정도(精度)를 향상시킬 수가 있다.According to the embodiment described above, the present invention generates an input auxiliary rhythm to input a sound signal to the user, thereby simplifying the input operation of the sound signal by the user, and accurately inputting the intended sound signal rhythmically. As a result, segmentation becomes easy, and the precision of the music score data produced can be improved.

또, 본 방식은 입력시에 발생된 입력보조리듬음의 정보를 음향신호와 동일한 시간 축상에 기록하여 세그멘테이션에 이용하도록한 것으로, 이점에서도 정확한 세그멘테이션을 실행할 수 있어 악보데이터의 정도를 향상시킬 수 있다.In addition, the present method records the information of the input auxiliary rhythm sound generated at the time of input on the same time axis as the sound signal, and uses it for segmentation. In this case, accurate segmentation can be executed, thereby improving the accuracy of the score data. .

[다른 실시예]Other Examples

상기한 바람직한 실시예는 파워정보로서 음향신호의 제곱합을 사용하지만, 다른 파라미터도 사용될 수 있다. 예를들어, 제곱합의 제곱근(sguare root)이 사용될 수 있다. 더우기, 입상추출함수를 식(1)과 같이 구하였지만, 다른 파라미터가 사용될 수도 있다.The above preferred embodiment uses the sum of squares of the acoustic signals as the power information, but other parameters may also be used. For example, the square root of the sum of squares can be used. Furthermore, although the granular extraction function was obtained as in Equation (1), other parameters may be used.

즉, 식(1)의 분자만을 이용한 함수를 사용하여 파워정보의 입상을 추출하도록 하여도 좋다. 상기한 실시예에서는, 서로 전후하는 입상점사이의 거리가 짧은 경우에 앞쪽의 입상점 표시를 제거하지만, 뒷쪽의 입상점 표시를 제거하도록 하여도 좋다.That is, the granularity of the power information may be extracted by using a function using only the molecules of the formula (1). In the above embodiment, when the distance between the standing points before and after each other is short, the front standing point display is removed, but the rear standing point display may be removed.

상기한 실시예에서는, 이용자에 의하여 음향신호의 입력이 용이하게 되도록 입력보조리듬음을 발생하지만, 입력보조를 위한 리듬정보를 시각적인 방법에 의해 이용자에게 알리는 것이어도 좋다. 예를들어, 적절한 리듬으로 움직이는 지휘봉의 화상을 표시장치(5)에 표시하여도 좋고, 또한, 이용자에게 리듬을 지시하기 위해 청각적 방법과 시각적 방법을 병용하여도 좋다. 더우기, 메트로놈음 또는 리듬반주음을 입력보조음으로서 적용할 수 있다.In the above embodiment, the input auxiliary rhythm sounds are generated by the user so that the input of the sound signal is easy, but the rhythm information for the input auxiliary may be notified to the user by a visual method. For example, an image of the baton moving in an appropriate rhythm may be displayed on the display device 5, or an audio method and a visual method may be used in combination to instruct the user of the rhythm. Moreover, the metronome sound or the rhythm accompaniment can be applied as the input auxiliary sound.

상기한 실시예에서는, 세그멘테이션 처리를 수행하기 위하여 입력 보조리듬정보중에서 소절개시정보를 사용하지만, 입력보조리듬정보중에서 박자개시정보가 세그멘테이션 처리를 수행하기 위해 사용될 수도 있다.In the above-described embodiment, the measurement start information is used in the input auxiliary rhythm information to perform the segmentation processing, but the time signature start information in the input auxiliary rhythm information may be used to perform the segmentation processing.

상기한 실시예에서는, 악보데이터의 출력장치로서 표시장치(5)를 사용하지만, 그 대신에 문자인쇄장치를 사용하여도 좋다. 상기한 실시예에서는, 모든 처리를 CPU(1)가 주기억장치(3)내에 격납된 프로그램에 따라서 실행하지만, 일부 또는 전부의 처리를 하드웨어 시스템 또는 서브시스템에 의해 실행할 수도 있다.In the above embodiment, the display device 5 is used as the output device of the score data, but a character printing device may be used instead. In the above embodiment, all the processing is executed by the CPU 1 in accordance with the program stored in the main memory 3, but some or all of the processing may be executed by the hardware system or the subsystem.

예를들어, 제2도와의 대응부분에 동일부호를 붙인 제7도에 표시한 바와 같이, 음향신호입력장치(8)로부터 입력된 음향신호를 증폭회로(11)를 통과시켜 증폭한 후, 프리필터(12)를 개재하여 A/D 변화기(13)로 공급되어 디지탈신호로 변환하여, 이 디지탈 신호로 변환된 음향신호를 신호처리프로세서(14)가 자기상관분석해서 피치정보를 추출하거나, 또는 제곱합을 구하기 위해 신호를 처리하여 파워정보를 추출하여, 경우에 따라 피치정보나 파워정보를 소프트웨어 시스템으로 처리하기 위해 CPU(1)에 공급하여도 좋다.For example, as shown in FIG. 7 with the same reference numerals as those in FIG. 2, after amplifying the sound signal input from the sound signal input device 8 through the amplifying circuit 11, the signal is free. Supplied to the A / D changer 13 via the filter 12 to convert into a digital signal, and the signal processing processor 14 autocorrelates the acoustic signal converted into the digital signal to extract pitch information, or In order to obtain the sum of squares, a signal may be processed to extract power information, and in some cases, pitch information or power information may be supplied to the CPU 1 for processing by a software system.

이와같은 하드웨어구성(11)-(14)에 사용될 수 있는 신호처리프로세서(14)로서는, 신호의 실시간(real-time) 처리를 수행할 수 있으며, 호스트컴퓨터와의 인터페이스 신호가 준비되어 있는 프로세서(예를들어, 일본전기주식회사제품 μPD 7720)를 적용할 수 있다.As the signal processing processor 14 that can be used for such hardware configuration 11-14, a processor capable of real-time processing of signals and having an interface signal with a host computer prepared ( For example, Japan Electric Co., Ltd. product (PDPD 7720) can be applied.

상기한 실시예는 입력보조리듬정보 및 파워정보에 기초하여 최초의 세그멘테이션 처리를 수행하지만, 입력보조리듬정보 및 피치정보에 기초하여 수행하도록 하여도 좋고, 또 입력보조리듬정보, 파워정보 및 피치정보에 기초하여 수행하도록 하여도 좋다.Although the above embodiment performs the initial segmentation process based on the input auxiliary rhythm information and the power information, it may be performed based on the input auxiliary rhythm information and the pitch information, and the input auxiliary rhythm information, the power information and the pitch information. It may be performed based on.

본 발명에 의한 방식은, 입력 보조리듬정보를 이용자에게 제공하여 음향신호를 입력시키도록한 것으로,이용자에 의해 음향신호의 입력동작이 간단하게 되고, 의도한 음향신호를 리듬적으로 정확하게 입력할 수 있어, 그 결과, 세그멘테이션 처리가 용이하게 되어 작성된 악보데이터의 정도를 향상시 킬 수 있다.According to the method of the present invention, the input auxiliary rhythm information is provided to the user so as to input the acoustic signal. The operation of the acoustic signal is simplified by the user, and the intended acoustic signal can be input rhythmically and accurately. As a result, the segmentation process becomes easy, and the degree of the musical score data produced can be improved.

더우기, 본 방식은 입력시에 이용자에게 제공된 보조리듬정보를 음향신호와 동일한 시간축상에 기록하여, 세그멘테이션 처리에 이용하도록 한 것이므로, 이점에서도 정확한 세그멘테이션을 실행할 수 있어 악보데이터의 정도를 향상시킬 수 있다.In addition, the present method records auxiliary rhythm information provided to the user at the time of input on the same time axis as the sound signal, and uses it for the segmentation process. Therefore, accurate segmentation can be executed and the score data can be improved. .

본 발명은 현재 가장 실제적이며 바람직한 실시예라고 생각되는 것에 대하여 기술되었지만, 본 발명은 여기에 개시된 실시예에 한하지 않고, 첨부된 청구범위의개념과 범주내에 포함된 여러가지 변경 및 동등한 장치를 망라한다.Although the present invention has been described with respect to what are presently considered to be the most practical and preferred embodiments, the invention is not limited to the embodiments disclosed herein but encompasses various modifications and equivalent arrangements included within the spirit and scope of the appended claims. .

Claims (12)

음향신호를 포착하는 단계와, 음향신호를 기억시키는 단계와, 적어도 템포정보를 포함하는 입력보조리듬정보를 포착단계와 동시에 통지하는 단계와, 기억된 전기한 음향신호로부터 반형의 반복주기 및 음의 피치를 나타내는 피치정보와, 파워정보를 추출하는 단계와, 피치정보 및 파워정보에 기초하여 음향신호를 동일 음정으로 간주되는 구간으로 구분하는 세그멘테이션 단계와, 피치정보에 기초하여 각 구간의 음정을 절대음정축상의 음정으로 동정(同定)하는 단계와, 전술한 단계의 결과를 표시 및 통지하는 단계로 이루어진것을 특징으로 하는 자동채보방법.Acquiring the sound signal, storing the sound signal, and notifying the input auxiliary rhythm information including at least tempo information at the same time as the capturing step; Extracting pitch information representing the pitch, power information, segmenting step of dividing the sound signal into sections considered to be equal pitch based on the pitch information and power information, and pitch of each section based on the pitch information Automatic identification method comprising the steps of identifying by the pitch on the pitch axis, and displaying and notifying the results of the above-described steps. 제1항에 있어서, 전기한 통지하는 단계는 청각신호에 의해 통지하는 것을 특징으로 하는 자동채보방법.The method according to claim 1, wherein the step of notifying the above is made by an audible signal. 제1항에 있어서, 전기한 통지하는 단계는 시간신호에 의해 통지하는 것을 이루어진 것을 특징으로하는 자동채보방법.The automatic receiving method according to claim 1, wherein the above-mentioned notification is performed by a time signal. 제1항에 있어서, 전기한 통지하는 단계는 청각신호 및 시각신호에 의해 통지하는 것을 특징으로 하는 자동채보방법.The method of claim 1, wherein the step of notifying the above-mentioned notification is notified by an audio signal and a visual signal. 제1항에 있어서, 음향신호의 기억시에 보조리듬을 동일시간축상에서 기억시키는 단계로 이루어진 것을 특징으로 하는 자동채보방법.The method of claim 1, wherein the auxiliary rhythm is stored on the same time axis when the sound signal is stored. 제1항에 있어서, 전기한 세그멘테이션 단계는, 기억된 입력보조 리듬정보에 기초하여 음향신호를 동일음정으로 간조되는 구간으로 구분하는 제1단계와, 피치정보 및 파워정보에 기초하여 음향신호를 동일음정으로 간주되는 구간으로 구분하는 제2단계와, 전기한 제1단계 및 제2단계에 의해 세그멘트로 구분된 구간을 정리하는 제3단계로 이루어진 것을 특징으로 하는 자동채보방법.The segmentation step described in claim 1, wherein the segmentation step described above comprises: a first step of dividing the sound signal into sections which are to be tempered by the same pitch based on the stored input auxiliary rhythm information; And a third step of dividing the sections divided into segments by the first and second steps described above. 채보될 음향신호를 취입하는 장치와, 음향신호가 취입될 때 템포정보를 포함하는 보조리듬정보를 제공하는 장치와, 기억장치와, 음향신호 및 리듬정보를 처리하고 기억시키는 장치와, 기억된 음향신호로부터 음향신호파형의 반복주기 및 그 신호의 음정을 나타내는 피치정보와, 파워정보를 추출하는 피치파워 추줄장치와, 피치정보 및 파워정보에 기초하여 음향신호를 동일음정으로 간주되는 구간으로 구분하는 세그멘테이션 장치와, 전기한 음향신호의 음정을 절대음정축에 대하여 동정하는 음정동정장치로 이루어진 것을 특징으로 하는 자동채보장치.A device for taking in a sound signal to be taken, a device for providing auxiliary rhythm information including tempo information when a sound signal is taken in, a storage device, a device for processing and storing sound signals and rhythm information, and a stored sound Pitch information indicating the repetition period of the acoustic signal waveform and the pitch of the signal from the signal, pitch power extracting device for extracting the power information, and segmenting the acoustic signal into sections considered to be equal pitch based on the pitch information and the power information. A segmentation device and a pitch correction device for identifying the pitch of the electric sound signal with respect to the absolute pitch axis. 제7항에 있어서, 청각적형태로 입력보조리듬정보를 통지하는 장치로 이루어진 것을 특징으로 하는 자동채보장치.8. The automatic hiring device according to claim 7, comprising an apparatus for notifying the input auxiliary rhythm information in an auditory form. 제7항에 있어서, 시각적 형태로 입력보조리듬정보를 통지하는 장치로 이루어진 것을 특징으로 하는 자동채보장치.8. The automatic hiring device according to claim 7, comprising a device for notifying the input auxiliary rhythm information in a visual form. 제7항에 있어서, 청각적 형태 및 시각적 형태로 입력보조리듬 정보를 통지하는 장치로 이루어진 것을 특징으로 하는 자동채보장치.8. The automatic retainer of claim 7, comprising an apparatus for notifying the input auxiliary rhythm information in an auditory form and a visual form. 제7항에 있어서, 전기한 처리 및 기억장치는, 전기한 음향신호가 포착되어 기억될 때에 보조리듬정보와 음향신호를 동일시간축상에서 기억시키는 장치로 이루어진 것을 특징으로 하는 자동채보장치.8. The auto-serving apparatus according to claim 7, wherein the processing and storage device described above comprise a device for storing the auxiliary rhythm information and the sound signal on the same time axis when the sound signal is captured and stored. 제7항에 있어서, 세그멘테이션 장치는, 기억된 입력보조리듬 정보에 기초하여 음향신호를 동일음정으로 간주되는 구간으로 구분하는 제1세그멘테이션 부분과, 피치정보 및 파워정보에 기초하여 음향신호를 동일음정으로 간주되는 구간으로 구분하는 제2세그멘테이션부분과, 전기한 제1 및 제2세그멘테이션부분에 의해 세그멘트로 구분된 구간을 정리하는 제3세그멘테이션 부분으로 이루어진 것을 특징으로 하는 자동채보장치.8. The segmentation apparatus according to claim 7, wherein the segmentation device comprises: a first segmentation portion that divides the sound signal into sections considered to be equal pitch based on the stored input auxiliary rhythm information, and the sound signal based on pitch information and power information. And a second segmentation portion for dividing the sections divided into segments by the aforementioned first and second segmentation portions.
KR1019890015708A 1988-10-31 1989-10-31 Automatic Receiving Method and Apparatus Expired KR920007206B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP63-275740 1988-10-31
JP63275740A JP3047068B2 (en) 1988-10-31 1988-10-31 Automatic music transcription method and device

Publications (2)

Publication Number Publication Date
KR900006908A KR900006908A (en) 1990-05-09
KR920007206B1 true KR920007206B1 (en) 1992-08-27

Family

ID=17559732

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019890015708A Expired KR920007206B1 (en) 1988-10-31 1989-10-31 Automatic Receiving Method and Apparatus

Country Status (6)

Country Link
EP (1) EP0367191B1 (en)
JP (1) JP3047068B2 (en)
KR (1) KR920007206B1 (en)
AU (1) AU631573B2 (en)
CA (1) CA2001923A1 (en)
DE (1) DE68911858T2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0645757B1 (en) * 1993-09-23 2000-04-05 Xerox Corporation Semantic co-occurrence filtering for speech recognition and signal transcription applications
US7386357B2 (en) 2002-09-30 2008-06-10 Hewlett-Packard Development Company, L.P. System and method for generating an audio thumbnail of an audio track
GB0229940D0 (en) * 2002-12-20 2003-01-29 Koninkl Philips Electronics Nv Audio signal analysing method and apparatus
US8208643B2 (en) 2007-06-29 2012-06-26 Tong Zhang Generating music thumbnails and identifying related song structure
CN109979483B (en) * 2019-03-29 2020-11-03 广州市百果园信息技术有限公司 Melody detection method, device and electronic device for audio signal

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2279290A1 (en) * 1974-07-15 1976-02-13 Anvar Television display of musical notation - by binary signals on magnetic tape and shift register memory
JPS5924895A (en) * 1982-08-03 1984-02-08 ヤマハ株式会社 Processing of musical tone information for score display unit
US4510840A (en) * 1982-12-30 1985-04-16 Victor Company Of Japan, Limited Musical note display device
JPS6090396A (en) * 1983-10-24 1985-05-21 セイコーインスツルメンツ株式会社 Voice recognition type scale scoring apparatus
JPS6090376A (en) * 1983-10-24 1985-05-21 セイコーインスツルメンツ株式会社 Voice recognition type musical scale learning apparatus
US4771671A (en) * 1987-01-08 1988-09-20 Breakaway Technologies, Inc. Entertainment and creative expression device for easily playing along to background music
DE68907616T2 (en) * 1988-02-29 1994-03-03 Nippon Denki Home Electronics Method and device for music transcription.

Also Published As

Publication number Publication date
JP3047068B2 (en) 2000-05-29
CA2001923A1 (en) 1990-04-30
DE68911858D1 (en) 1994-02-10
AU4389489A (en) 1990-05-03
EP0367191A2 (en) 1990-05-09
JPH02120893A (en) 1990-05-08
EP0367191A3 (en) 1990-07-25
KR900006908A (en) 1990-05-09
EP0367191B1 (en) 1993-12-29
AU631573B2 (en) 1992-12-03
DE68911858T2 (en) 1994-05-26

Similar Documents

Publication Publication Date Title
US6856923B2 (en) Method for analyzing music using sounds instruments
JP3319211B2 (en) Karaoke device with voice conversion function
US7189912B2 (en) Method and apparatus for tracking musical score
JP5605066B2 (en) Data generation apparatus and program for sound synthesis
KR920007206B1 (en) Automatic Receiving Method and Apparatus
US20040196747A1 (en) Method and apparatus for replaying midi with synchronization information
CN112837698A (en) Singing or playing evaluation method and device and computer readable storage medium
JP3261990B2 (en) Karaoke equipment
JP4219652B2 (en) A singing practice support system for a karaoke device that controls the main melody volume at the relevant location based on the pitch error measured immediately before repeat performance
JP3430814B2 (en) Karaoke equipment
JP3074693B2 (en) Music evaluation device
JP4048249B2 (en) Karaoke equipment
JP2604412B2 (en) Automatic music transcription method and device
McNab et al. Evaluation of a melody transcription system
JP2005107332A (en) Karaoke equipment
JP5034642B2 (en) Karaoke equipment
JP2604404B2 (en) Automatic music transcription method and device
TWM575598U (en) Electronic score
JP2008040260A (en) Musical piece practice assisting device, dynamic time warping module, and program
JP2604401B2 (en) Automatic music transcription method and device
JP2604414B2 (en) Automatic music transcription method and device
JP2604403B2 (en) Automatic music transcription method and device
JP2604407B2 (en) Automatic music transcription method and device
JP2604402B2 (en) Automatic music transcription method and device
JP2604413B2 (en) Automatic music transcription method and device

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

G160 Decision to publish patent application
PG1605 Publication of application before grant of patent

St.27 status event code: A-2-2-Q10-Q13-nap-PG1605

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

FPAY Annual fee payment

Payment date: 19950707

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 19960828

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 19960828

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000