[go: up one dir, main page]

DE60315880T2 - Datenerzeugungseinrichtung und verfahren für musikkompositionen - Google Patents

Datenerzeugungseinrichtung und verfahren für musikkompositionen Download PDF

Info

Publication number
DE60315880T2
DE60315880T2 DE60315880T DE60315880T DE60315880T2 DE 60315880 T2 DE60315880 T2 DE 60315880T2 DE 60315880 T DE60315880 T DE 60315880T DE 60315880 T DE60315880 T DE 60315880T DE 60315880 T2 DE60315880 T2 DE 60315880T2
Authority
DE
Germany
Prior art keywords
chord
candidates
candidate
frequency
chord candidates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60315880T
Other languages
English (en)
Other versions
DE60315880D1 (de
Inventor
Shinichi Tsurugashima-shi Gayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of DE60315880D1 publication Critical patent/DE60315880D1/de
Application granted granted Critical
Publication of DE60315880T2 publication Critical patent/DE60315880T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • G10H1/383Chord detection and/or recognition, e.g. for correction, or automatic bass generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G3/00Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
    • G10G3/04Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Vorrichtung und ein Verfahren zum Erzeugen von Daten, die ein Musikstück repräsentieren.
  • Stand der Technik
  • US 5,440,756 analysiert die Progression von Akkorden innerhalb einer musikalischen Passage. Ein Satz maximaler Noten und ihre Lautstärken werden erfasst. Der Satz der Lautstärken der Noten wird dann verglichen mit einer Bibliothek von charakteristischen Sätzen von Lautstärken von Noten, um die letztendliche Umsetzung in Akkorde zu ergeben.
  • In der japanischen Patentveröffentlichung Kokai Nr. Hei 5-289672 wird eine Vorrichtung offenbart, die Akkorde eines Musikstücks erkennt, um Daten zu liefern, die das Musikstück als Variation in den Akkorden darstellt, d.h. als eine Progression der Akkorde.
  • In Übereinstimmung mit Musikinformation, die zuvor notiert worden ist (eine Noteninformation auf einem Notenblatt), bestimmt die in der Veröffentlichung offenbarte Vorrichtung einen Akkord basierend auf Notenkomponenten, die bei einem jeden Taktschlag auftreten, oder solche, die erhalten werden durch Eliminieren von Noten, die einen nicht harmonischen Ton darstellen, aus den Notenkomponenten, wodurch Daten geliefert werden, die repräsentativ sind für die Progression der Akkorde des Musikstücks.
  • Jedoch sind bei der herkömmlichen Vorrichtung zum Erzeugen von Musikdaten Musikstücke mit bekannten Taktschlägen, bei welchen Akkorde analysiert werden können, beschränkt, und Daten, die eine Progression von Akkorden aus Musiktönen mit unbekannten Taktschlägen darstellen, können nicht erzeugt werden.
  • Zusätzlich ist es für die bekannte Vorrichtung nicht möglich, Akkorde eines Musikstücks aus einem Audiosignal zu analysieren, welches den Ton des Musikstücks repräsentiert, um Daten als Progression der Akkorde zu erzeugen.
  • Offenbarung der Erfindung
  • Die durch die vorliegende Erfindung zu lösenden Probleme umfassen das zuvor erläuterte Problem als ein Beispiel. Es ist deshalb ein Ziel der vorliegenden Erfindung, eine Vorrichtung und ein Verfahren bereitzustellen zum Erzeugen von Musikdaten, in welchen eine Progression der Akkorde erfasst wird in Übereinstimmung mit einem Audiosignal, welches den Klang der Musik repräsentiert, um Daten zu erzeugen, die repräsentativ sind für die Progression der Akkorde.
  • Eine Vorrichtung zum Erzeugen von Musikdaten ist in Anspruch 1 dargelegt.
  • Ein Verfahren zum Erzeugen von Musikdaten ist in Anspruch 12 dargestellt.
  • Kurze Figurenbeschreibung
  • 1 ist ein Blockdiagramm der Anordnung eines Musikbearbeitungssystems, auf welches die Erfindung angewandt wird;
  • 2 ist ein Flussdiagramm, welches den Ablauf einer Frequenzfehlererfassung zeigt;
  • 3 ist eine Tabelle von Frequenzverhältnissen von zwölf Tönen und einem Ton A, der eine Oktave höher ist im Verhältnis zu dem niedrigeren Ton A bei 1,0;
  • 4 ist ein Flussdiagramm, welches ein Hauptverfahren beim Durchführen einer Akkordanalyse zeigt;
  • 5 ist ein Graph, der ein Beispiel für die Intensitätspegel der Tonkomponenten in den Daten einer Kapelle zeigt;
  • 6 ist ein Graph, der ein weiteres Beispiel der Intensitätspegel der Tonkomponenten in den Daten einer Kapelle zeigt;
  • 7 zeigt, wie ein Akkord mit vier Tönen in einen Akkord mit drei Tönen transformiert wird;
  • 8 zeigt ein Aufzeichnungsformat in einem temporären Speicher;
  • 9A und 9C zeigen ein Verfahren zum Ausdrücken der fundamentalen Noten von Akkorden, ihren Attributen und einem Kandidaten für einen Akkord;
  • 10 ist ein Flussdiagramm, welches ein Nachbereitungsverfahren bei der Durchführung einer Akkordanalyse zeigt;
  • 11 zeigt chronologische Veränderungen bei den ersten und zweiten Akkordkandidaten vor einem Glättungsverfahren;
  • 12 zeigt chronologische Veränderungen bei ersten und zweiten Akkordkandidaten nach dem Glättungsverfahren;
  • 13 zeigt chronologische Veränderungen bei ersten und zweiten Akkordkandidaten nach einem Austauschverfahren;
  • 14A bis 14D zeigt, wie eine Akkordprogression von Musikdaten erzeugt wird, sowie ihr Format;
  • 15 ist ein Blockdiagramm der Anordnung eines Musikbearbeitungssystems als eine weitere Ausführungsform der Erfindung.
  • Ausführliche Beschreibung der Erfindung
  • Im Folgenden werden Ausführungsformen der vorliegenden Erfindung ausführlich unter Bezugnahme auf die Figuren beschrieben.
  • 1 zeigt ein Musikbearbeitungssystem, auf welches die vorliegende Erfindung angewendet wird. Das Musikbearbeitungssystem umfasst eine Mikrophoneingabevorrichtung 1, eine Leitungseingabevorrichtung 2, eine Musikeingabevorrichtung 3, eine Eingabebetriebseinrichtung 4, einen Eingabewahlschalter 5, einen Analog-Digital-Wandler 6, eine Akkordanalyseeinrichtung 7, Datenspeichereinrichtungen 8 und 9, einen temporären Speicher 10, eine Vergleichseinrichtung für eine Akkordprogression 11, eine Anzeigeeinrichtung 12, eine Musikwiedergabeeinrichtung 13, einen Digital-Analog-Wandler 14 und einen Lautsprecher 15.
  • Die Mikrophoneingabevorrichtung 1 kann Musikklänge mittels eines Mikrophons aufnehmen und gibt ein analoges Audiosignal aus, welches den aufgefangenen Musikklang darstellt. Die Leitungseingabevorrichtung 2 ist z.B. mit einem CD-Player oder einem Kassettenrekorder verbunden, so dass ein analoges Audiosignal, welches einen Musikklang darstellt, eingegeben werden kann. Die Musikeingabeeinrichtung 3 ist z.B. ein CD-Player, der verbunden ist mit der Akkordanalyseeinrichtung 7 und der Datenspeichereinrichtung 8, um ein digitalisiertes Audiosignal (wie z.B. PCM-Daten) wiederzugeben. Die Eingabebetriebseinrichtung 4 ist eine von einem Benutzer zu betreibende Einrichtung zum Eingeben von Daten oder Steuerungsbefehlen an das System. Die Ausgabe der Eingabebetriebseinrichtung 4 ist verbunden mit dem Eingabewahlschalter 5, der Akkordanalyseeinrichtung 7, der Vergleichseinrichtung 11 für die Progression der Akkorde und die Musikwiedergabeeinrichtung 13.
  • Der Eingabewahlschalter 5 wählt wahlweise eines der Ausgabesignale von der Mikrophoneingabevorrichtung 1 und der Leitungseingabevorrichtung 2 für den Analog-Digital-Wandler 6 aus. Der Eingabewahlschalter 5 arbeitet in Antwort auf einen Steuerbefehl von der Eingabebetriebseinrichtung 4.
  • Der Analog-Digital-Wandler 6 ist mit der Akkordanalyseeinrichtung 7 und der Datenspeichereinrichtung 8 verbunden, digitalisiert ein analoges Audiosignal und gibt das digitalisierte Audiosignal auf die Datenspeichereinrichtung 8 als Musikdaten aus. Die Datenspeichereinrichtung 8 speichert die Musikdaten (PCM-Daten), die von dem Analog-Digital-Wandler 6 bereitgestellt werden, und der Musikeingabeeinrichtung 3 als Dateien.
  • Die Akkordanalyseeinrichtung 7 analysiert Akkorde in Übereinstimmung mit den zugeführten Musikdaten durch Ausführen eines Akkordanalysevorgangs, der beschrieben werden wird. Die durch die Akkordanalyseeinrichtung 7 analysierten Akkorde der Musikdaten werden vorübergehend gespeichert als erste und zweite Akkordkandidaten in der temporaren Speichereinrichtung 10. Die Datenspeichereinrichtung 9 speichert Akkordprogressionsmusikdaten (erste Akkordprogressionsmusikdaten), bei denen es sich um das analysierte Ergebnis der Akkordanalyseeinrichtung 7 handelt, als eine Datei für ein jedes Musikstück.
  • Die Akkordprogressionsvergleichseinrichtung 11 vergleicht die Akkordprogressionsmusikdaten (zweite Akkordprogressionsmusikdaten) als Untersuchungsobjekt mit den in der Datenspeichereinrichtung 9 gespeicherten Akkordprogressionsmusikdaten, und Akkordprogressionsmusikdaten mit hohen Ähnlichkeiten zu den Akkordprogressionsmusikdaten des Untersuchungsobjekts werden erfasst. Die Anzeigeeinrichtung 12 zeigt ein Ergebnis des Vergleichs auf der Akkordprogressionsvergleichseinrichtung 11 als eine Liste von Musikstücken an.
  • Die Musikwiedergabeeinrichtung 13 liest die Datei des Musikstückes aus, welches durch die Akkordprogressionsvergleichseinrichtung 11 als jenes erfasst worden ist, welches den höchsten Ähnlichkeitsgrad aufweist, und zwar aus der Datenspeichereinrichtung 8, reproduziert die Daten und gibt sie als digitales Audiosignal aus. Der Digital-Analog-Wandler 14 wandelt das digitale Audiosignal, welches durch die Musikwiedergabeeinrichtung 13 reproduziert worden ist, in ein analoges Audiosignal um.
  • Die Akkordanalyseeinrichtung 7, die Akkordprogressionsvergleichseinrichtung 11 und die Musikwiedergabeeinrichtung 13 arbeiten jeweils in Antwort auf einen Steuerbefehl von der Eingabebetriebseinrichtung 4.
  • Der Betrieb des Musikverarbeitungssystems wird ausführlich weiter unten beschrieben.
  • Hier wird angenommen, dass ein analoges Audiosignal, welches einen Musikton repräsentiert, durch den Eingabewahlschalter 5 von der Leitungseingabeeinrichtung 2 auf den Analog-Digital-Wandler 6 bereitgestellt wird und dann in ein digitales Signal umgewandelt wird, um auf die Akkordanalyseeinrichtung 7 bereitgestellt zu werden, deren Betrieb beschrieben wird.
  • Der Akkordanalysebetrieb umfasst eine Vorbearbeitung, eine Hauptbearbeitung und eine Nachbearbeitung. Die Akkordanalyseeinrichtung 7 führt einen Frequenzfehlererfassungsbetrieb als ein Nachbearbeitungsverfahren durch.
  • Bei dem Frequenzfehlererfassungsbetrieb, wie er in 2 gezeigt ist, werden eine Zeitvariable T und Banddaten F(N) jeweils zu Beginn auf Null gesetzt, und eine Variable N wird z.B. für den Bereich von –3 bis 3 (Schritt S1) initialisiert. Ein Eingabedigitalsignal wird einer Frequenzumwandlung mittels Fourier-Transformation mit Intervallen von 0,2 Sekunden unterworfen, und als Ergebnis der Frequenzumwandlung wird eine Frequenzinformation f(T) erhalten (Schritt S2).
  • Die vorliegende Information f(T), eine vorhergehende Information f(T – 1) und Information f(T – 2), welche zwei Zeitabschnitte zuvor erhalten wurde, werden verwendet, um einen Prozess mit wandernder Mittelwertbildung auszuführen (Schritt S3). Bei dem Prozess mit wandernder Mittelwertbildung wird Frequenzinformation, die in den zwei Betriebsabläufen in der Vergangenheit erhalten worden ist, verwendet, basierend auf der Annahme, dass sich ein Akkord innerhalb von 0,6 Sekunden schwerlich ändert. Der Prozess mit wandernder Mittelwertbildung wird ausgeführt durch den nachfolgenden Ausdruck: f(T) = (f(T) + f(T – 1)/2,0 + f(T – 2)/3,0)/3,0 (1)
  • Nach Schritt S3 wird die Variable N auf –3 gesetzt (Schritt S4), und es wird ermittelt, ob oder ob nicht die Variable N kleiner ist als 4 (Schritt S5). Falls N < 4, werden Frequenzkomponenten f1(T) bis f5(T) aus der Frequenzinformation f(T) gemäß dem Prozess mit wandernder Mittelwertbildung extrahiert (Schritte S6 bis S10). Die Frequenzkomponenten f1(T) bis f5(T) liegen in temperierten Zwölftonnotenleitem für fünf Oktaven vor, basierend auf 110,0 + 2 × N Hz als Fundamentalfrequenz. Die zwölf Töne sind A, A#, B, C, C#, D, D#, E, F, F#, G und G#. 3 zeigt Frequenzverhältnisse der zwölf Töne und den Ton A, der eine Oktave höher ist mit Bezugnahme auf den niedrigeren Ton A, der mit 1,0 angegeben ist. Der Ton A liegt bei 110,0 + 2 × N Hz für f1(T) in Schritt S6, bei 2 × (110,0 + 2 × N) Hz für f2(T) in Schritt 7, bei 4 × (110,0 + 2 × N) Hz für f3(T) in Schritt S8, bei 8 × (110,0 + 2 × N) Hz für f4(T) in Schritt S9 und bei 16 × (110,0 + 2 × N) Hz für f5(T) in Schritt S10.
  • Nach den Schritten S6 bis S10 werden die Frequenzkomponenten f1(T) bis f5(T) umgewandelt in Banddaten F(T) für eine Oktave (Schritt S11). Die Banddaten F(T) werden wie folgt ausgedrückt: F(T) = f1(T) × 5 + f2(T) × 4 + f3(T) × 3 + f4(T) × 2 + f5(T) (2)
  • Genauer gesagt werden die Frequenzkomponenten f1(T) bis f5(T) jeweils gewichtet und dann zueinander addiert. Die Banddaten F(T) für eine Oktave werden zu den Banddaten F(N) hinzugefügt (Schritt S12). Dann wird eins zu der Variablen N hinzuaddiert (Schritt S13), und Schritt S5 wird nochmals ausgeführt.
  • Die Abläufe in den Schritten S6 bis S13 werden so lange wiederholt, wie N < 4 im Schritt S5 steht, d.h. mit anderen Worten so lange, wie N sich im Bereich von –3 bis +3 befindet. Dementsprechend ist die Tonkomponente F(N) eine Frequenzkomponente für eine Oktave, die Tonintervallfehler im Bereich von –3 bis +3 umfasst.
  • Falls N ≥ 4 in Schritt S5, wird ermittelt, ob oder ob nicht die Variable T kleiner ist als ein vorbestimmter Wert M (Schritt S14). Falls T < M, wird eins hinzugefügt zur Variablen T (Schritt S15), und Schritt S2 wird nochmals durchgeführt. Banddaten F(N) für eine jede Variable N für Frequenzinformation f(T) wird durch M Frequenzumwandlungsoperationen erzeugt.
  • Falls in Schritt S14 T ≥ M, werden in den Banddaten F(N) für eine Oktave für eine jede Variable N die F(N) mit den Frequenzkomponenten, deren Gesamtheit maximal ist, erfasst, und N im erfassten F(N) wird als ein Fehlerwert X gesetzt (Schritt S16).
  • Falls im Falle des Vorliegens einer bestimmten Differenz zwischen den Tonintervallen eines gesamten Musikstücks, wie z.B. des Darbietungsklangs durch ein Orchester, die Tonintervalle kompensiert werden können durch Erhalten des Fehlerwerts X durch die Vorbearbeitung, so kann der nachfolgende Hauptprozess zum Analysieren der Akkorde entsprechend durchgeführt werden.
  • Wenn einmal der Betrieb des Erfassens von Frequenzfehlern im Vorbearbeitungsprozess endet, wird der Hauptprozess zum Analysieren von Akkorden durchgeführt. Man beachte, dass, falls der Fehlerwert X vorab verfügbar ist oder der Fehler unbedeutend genug ist, um ignoriert zu werden, der Vorbearbeitungsprozess weggelassen werden kann. Im Hauptprozess wird eine Akkordanalyse vom Beginn bis zum Ende für ein Musikstück durchgeführt, und deshalb wird ein digitales Eingabesignal auf die Akkordanalyseeinrichtung 7 vom Startteil des Musikstücks gegeben.
  • Wie in 4 gezeigt, wird im Hauptverfahren eine Frequenzumwandlung durch Fourier-Transformation ausgeführt an dem Eingabedigitalsignal in Intervallen von 0,2 Sekunden, und eine Frequenzinformation f(T) wird erhalten (Schritt S21). Dieser Schritt S21 entspricht einem Frequenzumwandler. Die vorliegende Information f(T), die vorhergehende Information f(T – 1) und die Information f(T – 2), die zwei Zeitintervalle zuvor erhalten worden sind, werden verwendet, um den Verfahrensschritt der wandernden Mittelwertbildung durchzuführen (Schritt S22). Die Schritte S21 und S22 werden auf dieselbe Weise ausgeführt wie die Schritte S2 und S3, wie sie oben beschrieben wurden.
  • Nach dem Schritt S22 werden Frequenzkomponenten f1(T) bis f5(T) aus der Frequenzinformation f(T) gemäß dem Verfahren mit wandernder Mittelwertbildung (Schritte S23 bis S27) extrahiert. Ähnlich zu den oben beschriebenen Schritten S6 bis S10 sind die Frequenzkomponenten f1(T) bis f5(T) in der temperierten Zwölftonskala für fünf Oktaven, basierend auf 110,0 + 2 × N Hz als die Fundamentalfrequenz. Die zwölf Töne sind A, A#, B, C, C#, D, D#, E, F, F#, G und G#. Ton A liegt bei 110,0 + 2 × N Hz für f1(T) im Schritt S23, bei 2 × (110,0 + 2 × N) Hz für f2(T) im Schritt S24, bei 4 × (110,0 + 2 × N) Hz für f3(T) im Schritt S25, bei 8 × (110,0 + 2 × N) Hz für f4(T) im Schritt S26 und bei 16 × (110,0 + 2 × N) Hz für f5(T) im Schritt 27. Hier idz N gleich X, wie im Schritt S16 eingestellt.
  • Nach den Schritten S23 bis S27 werden die Frequenzkomponenten f1(T) bis f5(T) in Banddaten F(T) für eine Oktave (Schritt S28) umgewandelt. Der Betrieb im Schritt S28 wird durchgeführt unter Verwendung des Ausdrucks (2) auf dieselbe Weise wie im Schritt S11, wie oben beschrieben. Die Banddaten F(T) enthalten Tonkomponenten. Diese Schritte S23 bis S28 entsprechen einem Komponentenextraktor.
  • Nach dem Schritt S28 werden die sechs Töne mit den höchsten Intensitätspegeln unter den Tonkomponenten in den Banddaten F(T) als Kandidaten (Schritt S29) ausgewählt, und zwei Akkorde M1 und M2 der sechs Kandidaten werden erzeugt (Schritt S30). Einer der sechs Kandidatentöne wird als Grundton verwendet, um einen Akkord mit drei Tönen zu erzeugen. Genauer gesagt werden die 6C3 Akkorde betrachtet. Die Pegel der drei Töne, die einen jeden Akkord bilden, werden hinzugefügt. Der Akkord, dessen Additionsergebniswert am größten ist, wird als der erste Akkordkandidat M1 gesetzt, und der Akkord mit dem zweitgrößten Additionsergebnis wird als der zweite Akkordkandidat M2 gesetzt.
  • Wenn die Tonkomponenten der Banddaten F(T) die Intensitätspegel für zwölf Töne zeigen, wie in 5 gezeigt, so werden sechs Töne A, E, C, G, B und D im Schritt S29 ausgewählt. Dreiklänge mit jeweils drei Tönen aus diesen sechs Tönen A, E, C, G, B und D sind der Akkord Am (aus den Tönen A, C und E), der Akkord C (aus den Tönen C, E und G), der Akkord Ein (aus den Tönen E, B und G), der Akkord G (aus den Tönen G, B und D), .... Die gesamten Intensitätspegel aus dem Akkord Am (A, C, E), dem Akkord C (C, E, G), dem Akkord Ein (E, B, G) und dem Akkord G (G, B, D) sind 12, 9, 7 bzw. 4. Folglich ist in Schritt S30 der Akkord Am, dessen Gesamtintensitätspegel der größte ist, d.h. 12, als der erste Akkordkandidat M1 gesetzt. Der Akkord C, dessen Gesamtintensitätspegel der zweitgröße ist, d.h. 7, wird als der zweite Akkordkandidat M2 gesetzt.
  • Wenn die Tonkomponenten in den Banddaten F(T) die Intensitätspegel für die zwölf Töne zeigen, wie in 6 gezeigt, so werden sechs Töne C, G, A, E, B und D im Schritt 29 ausgewählt. Dreiklänge, die aus diesen drei Tönen erzeugt werden, die ausgewählt werden aus diesen sechs Tönen C, G, A, E, B und D sind der Akkord C (aus den Tönen C, E und G), der Akkord Am (aus A, C und E), der Akkord Ein (aus E, B und G), der Akkord G (aus G, B und D), .... Die Gesamtintensitätspegel des Akkords C (C, E, G), des Akkords Am (A, C, E), des Akkords Ein (E, B, G) und des Akkords G (G, B, D) sind 11, 10, 7 bzw. 6. Folglich ist der Akkord C, dessen Gesamtintensitätspegel der größte ist, d.h. 11, im Schritt S30 als der erste Akkordkandidat M1 gesetzt. Der Akkord Am, dessen Gesamtintensitätspegel der zweitgrößte ist, d.h. 10, wird als der zweite Akkordkandidat M2 gesetzt.
  • Die Anzahl von Tönen, die einen Akkord bilden, muss nicht drei sein, und es gibt z.B. einen Akkord mit vier Tönen, wie z.B. eine Septime und eine verminderte Septime. Akkorde mit vier Tönen sind unterteilt in zwei oder mehr Akkorde, von denen ein jeder drei Töne aufweist, wie in 7 gezeigt. Deshalb können, ähnlich wie bei den oben genannten Akkorden aus drei Tönen, die zwei Akkordkandidaten eingestellt werden für diese Akkorde aus vier Tönen in Übereinstimmung mit den Intensitätspegeln der Tonkomponenten in den Banddaten F(T).
  • Nach Schritt S30 wird festgestellt, ob oder ob nicht es Akkorde gibt in Übereinstimmung mit der Anzahl, die in Schritt S30 (Schritt S31) eingestellt worden ist. Falls der Unterschied im Intensitätspegel nicht groß genug ist, um zumindest drei Töne im Schritt S30 auszuwählen, wird kein Akkordkandidat eingestellt. Das ist der Grund, warum Schritt S31 durchgeführt wird. Falls die Anzahl von Akkordkandidaten > 0 ist, wird dann ermittelt, ob die Anzahl von Akkordkandidaten größer ist als 1 (Schritt S32).
  • Falls im Schritt S31 festgestellt wird, dass die Anzahl von Akkordkandidaten = 0, so werden die Akkordkandidaten M1 und M2, die im vorhergehenden Hauptverfahren bei T – 1 (ungefähr 0,2 Sekunden davor) eingestellt worden sind, als die gegenwärtigen Akkordkandidaten M1 und M2 eingestellt (Schritt S33). Falls die Anzahl der Akkordkandidaten = 1 im Schritt S32, bedeutet das, dass nur der erste Kandidat M1 eingestellt worden ist im vorliegenden Schritt S30, und deshalb der zweite Akkord M2 als der erste Akkordkandidat M1 eingestellt wird (Schritt S34). Diese Schritte S29 bis S34 entsprechen einem Akkordkandidatendetektor.
  • Falls festgestellt wird, dass die Anzahl von Akkordkandidaten > 1 ist im Schritt S32, so bedeutet das, dass sowohl der erste als auch der zweite Akkordkandidat M1 und M2 im vorliegenden Schritt S30 eingestellt werden und deshalb die Zeit und der erste und zweite Akkordkandidat M1 und M2 im temporären Speicher 10 gespeichert werden (Schritt S35). Die Zeit und der erste und zweite Akkordkandidat M1 und M2 werden als ein Satz im temporären Speicher 10 gespeichert, wie in 8 gezeigt. Die Zeit ist die Anzahl, wie oft der Hauptprozess ausgeführt wird, und wird dargestellt durch T, vermindert um jeweils 0,2 Sekunden. Die ersten und zweiten Akkordkandidaten M1 und M2 werden in der Reihenfolge von T gespeichert.
  • Genauer gesagt wird eine Kombination aus einem Grundton und seinem Attribut verwendet, um einen jeden Akkordkandidaten auf einer 1-Byte-Basis im temporaren Speicher 10 zu speichern, wie in 8 gezeigt. Der Grundton zeigt einen der temperierten zwölf Töne an und das Attribut bezeichnet eine Art von Akkord wie z.B. Dur {4, 3}, Moll {3, 4}, einen Septimenkandidaten {4, 6} und einen verminderten Septimenkandidaten (dim7) {3, 3}. Die Zahlen in den Klammern {} entsprechen der Differenz zwischen drei Tönen, wenn ein Halbton bei 1 liegt. Ein typischer Kandidat für eine Septime ist {4, 3, 3} und ein typischer Kandidat für eine verminderte Septime (dim7) ist {3, 3, 3}, aber der oben genannte Ausdruck wird verwendet, um sie mit drei Tönen auszudrücken.
  • Wie in 9A gezeigt, werden die zwölf Grundtöne jeweils auf einer 16-Bit-Basis (in hexadezimaler Notation) ausgedrückt. Wie in 9B gezeigt, wird jedes Attribut, welches einen Akkordtyp anzeigt, auf einer 16-Bit-Basis (in hexadezimaler Notation) dargestellt. Die vier Bits der niedrigeren Ordnung eines Grundtons und die vier Bits niedrigerer Ordnung ihres Attributs werden in dieser Reihenfolge kombiniert und als ein Akkordkandidat in der Form von acht Bits (ein Byte) verwendet, wie in 9 gezeigt.
  • Der Schritt S35 wird auch unmittelbar, nachdem der Schritt S33 oder S34 ausgeführt worden ist, ausgeführt.
  • Nachdem der Schritt S35 ausgeführt ist, wird festgestellt, ob die Musik beendet worden ist (Schritt S36). Gibt es z.B. kein weiteres Eingabeanalogaudiosignal oder gibt es einen Eingabebetrieb, welcher das Ende der Musik von der Eingabebetriebseinrichtung 4 anzeigt, wird festgestellt, dass die Musik beendet worden ist. Dementsprechend endet auch der Hauptprozess.
  • Bis das Ende der Musik festgestellt worden ist wird eins zu der Variablen T hinzuaddiert (Schritt S37), und Schritt S21 wird nochmals ausgeführt. Schritt S21 wird in Intervallen von 0,2 Sekunden ausgeführt, d.h. in anderen Worten, der Prozess wird 0,2 Sekunden nach der vorhergehenden Ausführung des Prozesses nochmals ausgeführt.
  • In dem Nachbearbeitungsprozess werden, wie in 10 gezeigt, alle ersten und zweiten Akkordkandidaten M1(0) bis M1(R) und M2(0) bis M2(R) von dem temporären Speicher 10 ausgelesen (Schritt S41). Null repräsentiert den Startpunkt und die ersten und zweiten Akkordkandidaten am Startpunkt sind M1(0) und M2(0). Der Buchstabe R repräsentiert den Endpunkt, und die ersten und zweiten Akkordkandidaten am Endpunkt sind M1(R) und M2(R). Diese ersten Akkordkandidaten M1(0) bis M1(R) und die zweiten Akkordkandidaten M2(0) bis M2(R), die so ausgelesen worden sind, werden einer Glättung unterworfen (Schritt S42). Die Glättung wird ausgeführt, um Fehler zu eliminieren, die verursacht werden durch Rauschen, welches in den Akkordkandidaten enthalten ist, wenn die Kandidaten bei den Intervallen von 0,2 Sekunden erfasst werden, unabhängig von den Übergangspunkten der Akkorde. Als ein spezielles Glättungsverfahren wird festgestellt, ob oder ob nicht ein Zusammenhang, der dargestellt wird durch M1(t – 1) ≠ M1(t) und M1(t) ≠ M1(t + 1) für drei aufeinanderfolgende erste Akkordkandidaten M1(t – 1), M1(t) und M1(t + 1) zutrifft. Falls der Zusammenhang festgestellt wird, wird M1(t) mit M1(t + 1) gleichgesetzt. Der Entscheidungsprozess wird für einen jeden der ersten Akkordkandidaten durchgeführt. Eine Glättung wird für die zweiten Akkordkandidaten auf dieselbe Weise ausgeführt. Man beachte, dass anstelle eines Gleichsetzens von M1(t) zu M1(t + 1), M1(t + 1) mit M1(t) gleichgesetzt werden kann.
  • Nach dem Glätten werden die ersten und zweiten Akkordkandidaten ausgetauscht (Schritt S43). Es gibt nur eine geringe Wahrscheinlichkeit, dass ein Akkord sich in einem Zeitraum, der so kurz ist wie 0,6 Sekunden, ändert. Jedoch kann die Frequenzcharakteristik der Signaleingangsstufe und des Rauschens zum Zeitpunkt des Signaleingangs dafür sorgen, dass die Frequenz einer jeden Tonkomponente in den Banddaten F(T) fluktuiert, so dass die ersten und zweiten Akkordkandidaten innerhalb 0,6 Sekunden ausgetauscht werden können. Schritt S43 wird ausgeführt als eine Abhilfe gegenüber dieser Möglichkeit. Als ein spezielles Verfahren zum Austauschen der ersten und zweiten Akkordkandidaten wird die nachfolgende Festlegung ausgeführt für fünf aufeinanderfolgende erste Akkordkandidaten M1(t – 2), M1(t – 1), M1(t), M1(t + 1) und M1(t + 2) und fünf zweite aufeinanderfolgende Akkordkandidaten M2(t – 2), M2(t – 1), M2(t), M2(t + 1) und M2(t + 2), die den ersten Kandidaten entsprechen. Genauer gesagt wird festgestellt, ob ein Zusammenhang, der dargestellt wird durch M1(t – 2) = M1(t + 2), M2(t – 2) = M2(t + 2), M1(t – 1) = M1(t) = M1(t + 1) = M2(t – 2) und M2(t – 1) = M2(t) = M2(t + 1) = M1(t – 2), vorliegt. Falls dieser Zusammenhang vorliegt, werden M1(t – 1) = M1(t) = M1(t + 1) = M2(t – 2) und M2(t – 1) = M2(t) = M2(t + 1) = M2(t – 2) festgelegt, und die Akkorde werden zwischen M1(t – 2) und M2(t – 2) ausgetauscht. Man beachte, dass Akkorde ausgetauscht werden können zwischen M1(t + 2) und M2(t + 2) anstelle von M1(t – 2) und M2(t – 2). Es wird auch ermittelt, ob oder ob nicht ein Zusammenhang, der dargestellt wird durch M1(t – 2) = M1(t + 1), M2(t – 2) = M2(t + 1), M1(t – 1) = M(t) = M1(t + 1) = M2(t – 2) und M2(t – 1) = M2(t) = M2(t + 1) = M1(t – 2), vorliegt. Falls der Zusammenhang vorliegt, werden M1(t – 1) = M(t) = M1(t – 2) und M2(t – 1) = M2(t) = M2(t – 2) festgelegt, und die Akkorde werden ausgetauscht zwischen M1(t – 2) und M2(t – 2). Die Akkorde können ausgetauscht werden zwischen M1(t + 1) und M2(t + 1) anstelle von M1(t – 2) und M2(t – 2).
  • Die ersten Akkordkandidaten M1(0) bis M1(R) und die zweiten Akkordkandidaten M2(0) bis M2(R), die im Schritt 41 z.B. ausgelesen werden, ändern sich, wie in 11 gezeigt, im Laufe der Zeit, wobei der Mittelbildungsschritt in Schritt S42 ausgeführt wird, um, wie in 12 gezeigt, ein korrigiertes Ergebnis zu erhalten. Zusätzlich korrigiert der Akkordwechsel in Schritt S43 die Variationen der ersten und zweiten Akkordkandidaten, wie in 13 gezeigt. Man beachte, dass die 11 bis 13 Veränderungen in den Akkorden mittels eines Liniengraphen zeigen an Positionen auf der vertikalen Linie, die den verschiedenen Arten von Akkorden entsprechen.
  • Der Kandidat M1(t) an einem Akkordübergangspunkt t der ersten Akkordkandidaten M1(0) bis M1(R) und M2(t) an dem Akkordübergangspunkt t der zweiten Akkordkandidaten M2(0) bis M2(R) nach dem Akkordwechsel im Schritt S43 wird erfasst (Schritt S44), und der Erfassungspunkt t (4 Byte) und der Akkord (4 Byte) werden für jeden der ersten und zweiten Akkordkandidaten in der Datenspeichervorrichtung 9 (Schritt S45) gespeichert. Daten für ein in Schritt S45 gespeichertes Musikstück sind Akkordprogressionsmusikdaten. Diese Schritte S41 bis S45 entsprechen einer Glättungsvorrichtung.
  • Wenn die ersten und zweiten Akkordkandidaten M1(0) bis M1(R) und M2(0) bis M2(R) nach dem Austausch der Akkorde im Schritt S43 im Laufe der Zeit fluktuieren, wie in 14A gezeigt, werden die Zeit und Akkorde an Übergangspunkten als Daten extrahiert. 14B zeigt den Inhalt der Daten an den Übergangspunkten zwischen den ersten Akkordkandidaten F, G, D, Bb (B-Moll) und F, welche ausgedrückt werden als Hexadezimaldaten 0x08, 0x0A, 0x05, 0x01 und 0x08. Die Übergangspunkte t sind T1(0), T1(1), T1(2), T1(3) und T1(4). 14C zeigt den Dateninhalt bei Übergangspunkten zwischen den zweiten Akkordkandidaten C, Bb, F# m, Bb und C, die ausgedrückt sind als Hexadezimaldaten 0x03, 0x01, 0x29, 0x01 und 0x03. Die Übergangspunkte sind T2(0), T2(1), T2(2), T2(3) und T2(4). Der in den 14B und 14C gezeigte Dateninhalt wird zusammen mit der Identifizierungsinformation des Musikstücks in der Datenspeichervorrichtung 9 im Schritt S45 als Datei in der wie in 14D gezeigten Form gespeichert.
  • Der oben beschriebene Akkordanalysevorgang wird für Analogaudiosignale wiederholt, die verschiedene Musikklänge darstellen. Auf diese Weise werden Akkordprogressionsmusikdaten in der Datenspeichereinrichtung 9 als eine Datei für eine jede der vielen Musikstücke gespeichert. Der oben beschriebene Akkordanalysevorgang wird ausgeführt für eine digitales Audiosignal, welches Musiktöne darstellt, die von der Musikeingabeeinrichtung 3 bereitgestellt werden, und Akkordprogressionsmusikdaten werden in der Datenspeichereinrichtung 9 gespeichert. Man beachte, dass Musikdaten der PCM-Signale, die den Akkordprogressionsmusikdaten in der Datenspeichereinrichtung 9 entsprechen, in der Datenspeichereinrichtung 8 gespeichert werden.
  • In Schritt S44 werden ein erster Akkordkandidat an einem Akkordübergangspunkt der ersten Akkordkandidaten und ein zweiter Akkordkandidat an einem Akkordübergangspunkt der zweiten Akkordkandidaten erfasst. Dann bilden die erfassten Kandidaten die letzendlichen Akkordprogressionsmusikdaten, und deshalb kann die Kapazität pro Musikstück selbst im Vergleich zu Kompressionsdaten, wie z.B. MP3 reduziert werden, und Daten für ein jedes Musikstück können mit hoher Geschwindigkeit bearbeitet werden.
  • Die Akkordprogressionsmusikdaten, die in die Datenspeichervorrichtung 9 eingeschrieben werden, sind Akkorddaten, die vorübergehend mit der tatsächlichen Musik synchronisiert sind. Wenn die Akkorde tatsächlich durch die Musikwiedergabeeinrichtung 13 unter Verwendung von nur dem ersten Akkordkandidaten oder der logischen Summenausgabe des ersten und zweiten Akkordkandidaten wiedergegeben werden, kann deshalb die Begleitung mit der Musik gespielt werden.
  • 15 zeigt eine weitere Ausführungsform der Erfindung. In dem in 15 gezeigten Musikverarbeitungssystem werden die Akkordanalyseeinrichtung 7, der temporäre Speicher 10 und die Akkordprogressionsvergleichseinrichtung 11 durch einen Computer 21 gebildet. Der Computer 21 führt die oben genannte Akkordanalyseoperation und Musiksuchoperation aus gemäß den in der Speichervorrichtung 22 gespeicherten Programmen. Die Speichereinrichtung 22 muss nicht ein Festplattenlaufwerk sein und kann ein Laufwerk für ein Speichermedium sein. Mit anderen Worten können Akkordprogressionsmusikdaten in das Speichermedium geschrieben werden.
  • Wie oben beschrieben umfasst die vorliegende Erfindung Frequenzumwandlungsmittel, Komponentenextraktionsmittel, Akkordkandidatenerfassungsmittel und Glättungsmittel. Deshalb kann die Akkordprogression eines Musikstücks in Übereinstimmung mit einem Audiosignal erfasst werden, welches den Ton des Musikstücks wiedergibt, und als Ergebnis dessen können Daten, die durch die Akkordprogression gekennzeichnet sind, auf einfache Weise erhalten werden.

Claims (12)

  1. Einrichtung zur Erzeugung von Musikdaten, welche umfasst: Frequenzumwandlungsmittel (7) zum Umwandeln eines Eingabeaudiosignals, welches ein Musikstück anzeigt, in ein Frequenzsignal, welches die Größenordnungen der Frequenzkomponenten zu vorbestimmten Zeitintervallen anzeigt; Komponentenextraktionsmittel (7) zum Extrahieren von Frequenzkomponenten, die jeweils temperierten Tönen entsprechen bei den vorbestimmten Zeitintervallen aus dem Frequenzsignal, welches erhalten wird aus den Frequenzumwandlungsmitteln; Akkordkandidatenerfassungsmittel (7) zum Erfassen zweier Akkorde, von denen ein jeder gebildet wird aus einem Satz von drei Frequenzkomponenten, die den Tönen entsprechen, die durch die Komponentenextraktionsmittel extrahiert werden als erste und zweite Akkordkandidaten, wobei der erste Akkordkandidat gebildet wird aus dem größten Gesamtintensitätspegel der drei Frequenzkomponenten und der zweite Akkordkandidat gebildet wird aus dem zweitgrößten Gesamtintensitätspegel der drei Frequenzkomponenten; Glättungsmittel (7) zum Glätten von Folgen von ersten und zweiten Akkordkandidaten, die durch die Akkordkandidatenerfassungsmittel wiederholt erfasst werden; Austauschmittel (7) zum Austauschen der ersten und zweiten Akkordkandidaten zu einem selben Zeitpunkt zwischen den ersten und zweiten Akkordkandidatenreihen, die geglättet sind durch die Glättungsmittel, so dass ein und derselbe Akkord aufeinanderfolgend angeordnet wird in einem jeden der ersten und zweiten Akkordkandidatenreihen, um Musikdaten zu erzeugen.
  2. Einrichtung zur Erzeugung von Musikdaten nach Anspruch 1, wobei die Frequenzumwandlungsmittel einen Prozess mit wandernder Mittelwertbildung an dem Frequenzsignal zur Ausgabe durchführen.
  3. Einrichtung zur Erzeugung von Musikdaten nach Anspruch 1, wobei die Komponentenextraktionsmittel umfassen: Filtermittel zum Extrahieren einer jeden Frequenzkomponente, die einem jeden der temperierten Töne aus einer Vielzahl von Oktaven entspricht; und Mittel zum individuellen Gewichten und Zusammenaddieren von Pegeln von Frequenzkomponenten, von denen eine jede einem jeden der temperierten Töne einer jeden Oktavenausgabe aus den Filtermitteln entspricht, zum Ausgeben der Frequenzkomponenten, die den jeweiligen temperierten Tönen einer Oktave entsprechen.
  4. Einrichtung zur Erzeugung von Musikdaten nach Anspruch 1, welche weiterhin Frequenzfehlererfassungsmittel umfasst zum Erfassen eines Frequenzfehlers in einer Frequenzkomponente, die einer jeden der temperierten Töne des Eingabeaudiosignals entspricht, wobei ein jedes Komponentenextraktionsmittel den Frequenzfehler zu einer Frequenz eines jeden der temperierten Töne zur Kompensation hinzuaddiert und eine Frequenzkomponente extrahiert, nachdem sie kompensiert worden ist.
  5. Einrichtung zur Erzeugung von Musikdaten nach Anspruch 4, wobei die Frequenzfehlererfassungsmittel umfassen: zweite Frequenzumwandlungsmittel zum Umwandeln des Eingabeaudiosignals bei vorbestimmten Zeitintervallen in ein Frequenzsignal, welches die Größe der Frequenz komponenten anzeigt; Mittel zum Festlegen eines aus einer Vielzahl von Frequenzfehlern, und zwar jedesmal dann, wenn die zweiten Frequenzumwandlungsmittel die Frequenzumwandlung zu einer vorbestimmten Anzahl von Zeitpunkten durchführen; Filtermittel zum Extrahieren einer jeden Frequenzkomponente, die eine Frequenz aufweist, die einem jeden der temperierten Töne aus einer Vielzahl von Oktaven und dem einen Frequenzfehler entsprechen; Mittel zum individuellen Gewichten und Zusammenaddieren von Pegeln von Frequenzkomponenten, die einem jeden der temperierten Töne einer jeden Oktavenausgabe aus den Filtermitteln entsprechen, um eine Frequenzkomponente auszugeben, die einem jeden der temperierten Töne auf einer Oktave entsprechen; und Addiermittel zum Berechnen einer Summe von Pegeln einer jeden Frequenzkomponente aus der einen Oktave für einen jeden aus der Vielzahl von Frequenzfehlern, wobei ein Frequenzfehler, der einen Maximalpegel aufweist und durch die Addiermittel bereitgestellt wird, als ein erfasster Frequenzfehler verwendet wird.
  6. Einrichtung zur Erzeugung von Musikdaten nach Anspruch 1, wobei die Akkordkandidatenerfassungsmittel einen Akkord definieren, der gebildet wird aus einem Satz von drei Frequenzkomponenten mit einem Maximalwert des Gesamtpegels als ersten Akkordkandidaten und einem Akkord, der gebildet wird aus einem Satz von drei Frequenzkomponenten mit einem zweiten Maximalwert des Gesamtpegels als zweiten Akkordkandidaten.
  7. Einrichtung zur Erzeugung von Musikdaten nach Anspruch 1, wobei die Glättungsmittel den Inhalt des ersten Akkordkandidaten oder des zweiten Akkordkandidaten so ändern, dass eine vorbestimmte Anzahl von aufeinanderfolgenden ersten Akkordkandidaten in der Reihe der ersten Akkordkandidaten gleich sind zueinander und die vorbestimmte Anzahl von aufeinanderfolgenden zweiten Akkordkandidaten in der Reihe der zweiten Akkordkandidaten gleich sind zueinander.
  8. Einrichtung zur Erzeugung von Musikdaten nach Anspruch 1, wobei die Glättungsmittel nur einen Akkordkandidaten zu einem Zeitpunkt des Akkordwechsels in einer jeden Reihe der ersten und zweiten Akkordkandidaten bereitstellen.
  9. Einrichtung zur Erzeugung von Musikdaten nach Anspruch 1, wobei die Glättungsmittel dann, wenn bei drei aufeinanderfolgenden ersten Akkordkandidaten in der Reihe der ersten Akkordkandidaten der zuerst kommende Akkordkandidat nicht gleich ist zum mittleren ersten Akkordkandidaten und der mittlere erste Akkordkandidat nicht gleich ist zum letzten ersten Akkordkandidaten, dafür sorgen, dass der mittlere erste Akkordkandidat gleichgesetzt wird zu dem beginnenden ersten Akkordkandidaten oder dem endenden ersten Akkordkandidaten und dass dann, wenn bei drei aufeinanderfolgenden zweiten Akkordkandidaten in der Reihe der zweiten Akkordkandidaten der beginnende zweite Akkordkandidat nicht gleich ist zu dem mittleren zweiten Akkordkandidaten und der mittlere zweite Akkordkandidat nicht gleich ist zu dem endenden zweiten Akkordkandidaten, dafür sorgen, dass der mittlere zweite Akkordkandidat gleichgesetzt wird zu dem beginnenden zweiten Akkordkandidaten oder dem endenden zweiten Akkordkandidaten.
  10. Einrichtung zur Erzeugung von Musikdaten nach Anspruch 1, wobei die Musikdaten einen Akkord anzeigen sowie einen Zeitpunkt eines Akkordwechsels in einer jeden Reihe der ersten und zweiten Akkordkandidaten.
  11. Einrichtung zur Erzeugung von Musikdaten nach Anspruch 1, wobei die Austauschmittel dann, wenn von fünf aufeinanderfolgenden ersten Akkordkandidaten in der Reihe der ersten Akkordkandidaten und von fünf aufeinanderfolgenden zweiten Akkordkandidaten in der Reihe der zweiten Akkordkandidaten der erste der ersten Akkordkandidaten gleich ist zum fünften der ersten Akkordkandidaten; wenn der erste der zweiten Akkordkandidaten gleich ist zum fünften der zweiten Akkordkandidaten; wenn der zweite, der dritte und der vierte der ersten Akkordkandidaten und der fünfte der zweiten Akkordkandidaten gleich sind zueinander und wenn der zweite, der dritte und der vierte der zweiten Akkordkandidaten und der fünfte der ersten Akkordkandidaten gleich sind zueinander, dafür sorgt, dass der erste der ersten Akkordkandidaten oder der fünfte der ersten Akkordkandidaten gleich ist zu dem zweiten oder dem vierten der ersten Akkordkandidaten und dass der erste der zweiten Akkordkandidaten oder der fünfte der zweiten Akkordkandidaten gleich ist zum zweiten bis vierten der zweiten Akkordkandidaten; und dass, wenn der erste bis vierte der aufeinanderfolgenden ersten Akkordkandidaten in der Reihe der ersten Akkordkandidaten und der erste bis vierte der aufeinanderfolgenden zweiten Akkordkandidaten in der Reihe der zweiten Akkordkandidaten, der erste der ersten Akkordkandidaten gleich ist zum vierten der ersten Akkordkandidaten; der erste der zweiten Akkordkandidaten gleich ist zum vierten der zweiten Akkordkandidaten; der zweite der ersten Akkordkandidaten, der dritte der ersten Akkordkandidaten und der erste der zweiten Akkordkandidaten gleich sind zueinander; und der zweite der zweiten Akkordkandidaten, der dritte der zweiten Akkordkandidaten und der erste der ersten Akkordkandidaten gleich sind zueinander, dafür sorgt, dass der erste der ersten Akkordkandidaten oder der vierte der ersten Akkordkandidaten gleich ist zu den zweiten und den dritten der ersten Akkordkandidaten und dafür Sorge trägt, dass der erste der zweiten Akkordkandidaten oder der vierte der zweiten Akkordkandidaten gleich ist zum zweiten und dritten der zweiten Akkordkandidaten.
  12. Verfahren zum Erzeugen von Musikdaten, welches folgende Schritte umfasst: Umwandeln (S21) eines Eingabeaudiosignals, welches ein Musikstück darstellt, in ein Frequenzsignal, welches Größenordnungen von Frequenzkomponenten zu vorbestimmten Zeitintervallen anzeigt; Extrahieren (S23–S27) von Frequenzkomponenten, die temperierten Tönen zu jeweils vorbestimmten Zeitintervallen aus dem Frequenzsignal entsprechen; Erfassen (S30) von zwei Akkorden, von denen ein jeder ausgebildet wird durch einen Satz von drei Frequenzkomponenten, die den durch die Komponentenextrahierungsmittel extrahierten Tönen entsprechen als erste und zweite Akkordkandidaten, wobei der erste Akkordkandidat gebildet wird durch den größten Gesamtintensitätspegel der drei Frequenzkomponenten und der zweite Akkordkandidat gebildet wird durch den zweitgrößten Gesamtintensitätspegel der drei Frequenzkomponenten; Glätten (S42) von Folgen von den jeweils erfassten ersten und zweiten Akkordkandidaten; und Austausch (S43) des ersten und zweiten Akkordkandidaten zum selben Zeitpunkt zwischen den geglätteten ersten und zweiten Akkordkandidatenreihen, so dass derselbe Akkord aufeinanderfolgend angeordnet wird in einem jeden der geglätteten ersten und zweiten Akkordkandidatenreihen, um Musikdaten zu erzeugen.
DE60315880T 2002-11-29 2003-11-12 Datenerzeugungseinrichtung und verfahren für musikkompositionen Expired - Lifetime DE60315880T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002348313 2002-11-29
JP2002348313A JP4244133B2 (ja) 2002-11-29 2002-11-29 楽曲データ作成装置及び方法
PCT/JP2003/014365 WO2004051622A1 (ja) 2002-11-29 2003-11-12 楽曲データ作成装置及び方法

Publications (2)

Publication Number Publication Date
DE60315880D1 DE60315880D1 (de) 2007-10-04
DE60315880T2 true DE60315880T2 (de) 2008-05-21

Family

ID=32462910

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60315880T Expired - Lifetime DE60315880T2 (de) 2002-11-29 2003-11-12 Datenerzeugungseinrichtung und verfahren für musikkompositionen

Country Status (7)

Country Link
US (1) US7335834B2 (de)
EP (1) EP1569199B1 (de)
JP (1) JP4244133B2 (de)
CN (1) CN1717716B (de)
AU (1) AU2003280741A1 (de)
DE (1) DE60315880T2 (de)
WO (1) WO2004051622A1 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4650270B2 (ja) 2006-01-06 2011-03-16 ソニー株式会社 情報処理装置および方法、並びにプログラム
SE0600243L (sv) * 2006-02-06 2007-02-27 Mats Hillborg Melodigenerator
JP4823804B2 (ja) * 2006-08-09 2011-11-24 株式会社河合楽器製作所 コード名検出装置及びコード名検出用プログラム
JP4214491B2 (ja) * 2006-10-20 2009-01-28 ソニー株式会社 信号処理装置および方法、プログラム、並びに記録媒体
JP4315180B2 (ja) * 2006-10-20 2009-08-19 ソニー株式会社 信号処理装置および方法、プログラム、並びに記録媒体
US7528317B2 (en) * 2007-02-21 2009-05-05 Joseph Patrick Samuel Harmonic analysis
JPWO2009104269A1 (ja) * 2008-02-22 2011-06-16 パイオニア株式会社 楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体
JP5229998B2 (ja) * 2008-07-15 2013-07-03 株式会社河合楽器製作所 コード名検出装置及びコード名検出用プログラム
JP5463655B2 (ja) * 2008-11-21 2014-04-09 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
WO2010119541A1 (ja) * 2009-04-16 2010-10-21 パイオニア株式会社 音発生装置、音発生方法、音発生プログラム、及び記録媒体
JP4930608B2 (ja) * 2010-02-05 2012-05-16 株式会社Jvcケンウッド 音響信号分析装置、音響信号分析方法及び音響信号分析プログラム
TWI417804B (zh) * 2010-03-23 2013-12-01 Univ Nat Chiao Tung 樂曲分類方法及樂曲分類系統
JP5605040B2 (ja) * 2010-07-13 2014-10-15 ヤマハ株式会社 電子楽器
JP5659648B2 (ja) * 2010-09-15 2015-01-28 ヤマハ株式会社 コード検出装置およびコード検出方法を実現するためのプログラム
JP6232916B2 (ja) * 2013-10-18 2017-11-22 カシオ計算機株式会社 コードパワー算出装置、方法及びプログラム、並びにコード決定装置
JP6648586B2 (ja) * 2016-03-23 2020-02-14 ヤマハ株式会社 楽曲編集装置
TR201700645A2 (tr) * 2017-01-16 2018-07-23 Dokuz Eyluel Ueniversitesi Rektoerluegue Herhangi̇ bi̇r müzi̇k di̇zi̇si̇ni̇n perdeleri̇ni̇ adlandirabi̇len algori̇tmi̇k bi̇r yöntem
US20180366096A1 (en) * 2017-06-15 2018-12-20 Mark Glembin System for music transcription
CN109448684B (zh) * 2018-11-12 2023-11-17 合肥科拉斯特网络科技有限公司 一种智能编曲方法和系统
CN109817189B (zh) * 2018-12-29 2023-09-08 珠海市蔚科科技开发有限公司 音频信号的调节方法、音效调节设备及系统
CN111696500B (zh) * 2020-06-17 2023-06-23 不亦乐乎科技(杭州)有限责任公司 一种midi序列和弦进行识别方法和装置
JP7772056B2 (ja) * 2021-03-26 2025-11-18 ヤマハ株式会社 コード推定装置、訓練装置、コード推定方法および訓練方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4019417A (en) * 1974-06-24 1977-04-26 Warwick Electronics Inc. Electrical musical instrument with chord generation
US4197777A (en) * 1975-06-12 1980-04-15 The Wurlitzer Company Automatic chord control circuit for electronic musical instruments
JPS5565996A (en) * 1978-11-13 1980-05-17 Nippon Musical Instruments Mfg Electronic musical instrument
JPS5573097A (en) * 1978-11-27 1980-06-02 Nippon Musical Instruments Mfg Automatic code playing unit in electronic musical instrument
US4292874A (en) * 1979-05-18 1981-10-06 Baldwin Piano & Organ Company Automatic control apparatus for chords and sequences
JPH0236160B2 (ja) 1983-07-22 1990-08-15 Dai Ichi Kogyo Seiyaku Co Ltd Konodosekitannmizusurariiyogennenzai
JPS6026091U (ja) * 1983-07-29 1985-02-22 ヤマハ株式会社 和音表示装置
US4699039A (en) * 1985-08-26 1987-10-13 Nippon Gakki Seizo Kabushiki Kaisha Automatic musical accompaniment playing system
US4951544A (en) * 1988-04-06 1990-08-28 Cadio Computer Co., Ltd. Apparatus for producing a chord progression available for a melody
DE68921262T2 (de) * 1988-07-20 1995-10-26 Yamaha Corp Elektronisches Musikinstrument mit einer automatischen Funktion zur Bestimmung der Tonart.
US5403966A (en) * 1989-01-04 1995-04-04 Yamaha Corporation Electronic musical instrument with tone generation control
JP2590293B2 (ja) * 1990-05-26 1997-03-12 株式会社河合楽器製作所 伴奏内容検出装置
JP2876861B2 (ja) * 1991-12-25 1999-03-31 ブラザー工業株式会社 自動採譜装置
US5440756A (en) * 1992-09-28 1995-08-08 Larson; Bruce E. Apparatus and method for real-time extraction and display of musical chord sequences from an audio signal
US5563361A (en) * 1993-05-31 1996-10-08 Yamaha Corporation Automatic accompaniment apparatus
JP2585956B2 (ja) * 1993-06-25 1997-02-26 株式会社コルグ 鍵盤楽器における左右双方の鍵域決定方法、この方法を利用したコード判定鍵域決定方法及びこれ等の方法を用いた自動伴奏機能付鍵盤楽器
US5641928A (en) * 1993-07-07 1997-06-24 Yamaha Corporation Musical instrument having a chord detecting function
JP3001353B2 (ja) * 1993-07-27 2000-01-24 日本電気株式会社 自動採譜装置
US5440736A (en) * 1993-11-24 1995-08-08 Digital Equipment Corporation Sorter for records having different amounts of data
JP3309687B2 (ja) * 1995-12-07 2002-07-29 ヤマハ株式会社 電子楽器
JP2927229B2 (ja) * 1996-01-23 1999-07-28 ヤマハ株式会社 メドレー演奏装置
JP3567611B2 (ja) * 1996-04-25 2004-09-22 ヤマハ株式会社 演奏支援装置
US5852252A (en) * 1996-06-20 1998-12-22 Kawai Musical Instruments Manufacturing Co., Ltd. Chord progression input/modification device
JPH10319947A (ja) * 1997-05-15 1998-12-04 Kawai Musical Instr Mfg Co Ltd 音域制御装置
JP3541706B2 (ja) * 1998-09-09 2004-07-14 ヤマハ株式会社 自動作曲装置および記憶媒体
FR2785438A1 (fr) * 1998-09-24 2000-05-05 Baron Rene Louis Procede et dispositif de generation musicale
JP3741560B2 (ja) * 1999-03-18 2006-02-01 株式会社リコー メロディ音発生装置
US6057502A (en) * 1999-03-30 2000-05-02 Yamaha Corporation Apparatus and method for recognizing musical chords
US20010045153A1 (en) * 2000-03-09 2001-11-29 Lyrrus Inc. D/B/A Gvox Apparatus for detecting the fundamental frequencies present in polyphonic music
JP2002091433A (ja) * 2000-09-19 2002-03-27 Fujitsu Ltd メロディー情報の抽出方法その装置
AUPR150700A0 (en) * 2000-11-17 2000-12-07 Mack, Allan John Automated music arranger
US6984781B2 (en) * 2002-03-13 2006-01-10 Mazzoni Stephen M Music formulation
JP4313563B2 (ja) * 2002-12-04 2009-08-12 パイオニア株式会社 楽曲検索装置及び方法
JP4203308B2 (ja) * 2002-12-04 2008-12-24 パイオニア株式会社 楽曲構造検出装置及び方法
JP4199097B2 (ja) * 2003-11-21 2008-12-17 パイオニア株式会社 楽曲自動分類装置及び方法

Also Published As

Publication number Publication date
CN1717716B (zh) 2010-11-10
JP2004184510A (ja) 2004-07-02
AU2003280741A1 (en) 2004-06-23
DE60315880D1 (de) 2007-10-04
CN1717716A (zh) 2006-01-04
US20060070510A1 (en) 2006-04-06
EP1569199B1 (de) 2007-08-22
EP1569199A4 (de) 2005-11-30
WO2004051622A1 (ja) 2004-06-17
HK1082586A1 (en) 2006-06-09
EP1569199A1 (de) 2005-08-31
JP4244133B2 (ja) 2009-03-25
US7335834B2 (en) 2008-02-26

Similar Documents

Publication Publication Date Title
DE60315880T2 (de) Datenerzeugungseinrichtung und verfahren für musikkompositionen
DE60303993T2 (de) Musikstrukturerkennungsgerät und -verfahren
DE60302420T2 (de) Musiksuchgerät und -verfahren
DE69124360T2 (de) Vorrichtung zur Anzeige von Gesangseigenschaften
DE602004011305T2 (de) Vorrichtung und Verfahren zur automatischen Klassifikation von musikalischen Kompositionen
DE69608826T2 (de) Vorrichtung zur Verarbeitung von Audiosignalen, wobei eine harmonische Stimme von polyphonischen Stimmen abgeleitet wird
US5210366A (en) Method and device for detecting and separating voices in a complex musical composition
DE3889051T2 (de) Vorrichtung zur Tonsignalerzeugung.
DE3528719C2 (de)
DE69724919T2 (de) Verfahren zur Erzeugung von Musiktönen
EP2099024A1 (de) Verfahren zur klangobjektorientierten Analyse und zur notenobjektorientierten Bearbeitung polyphoner Klangaufnahmen
DE69117319T2 (de) Vorrichtung zur Feststellung der Tonart
WO2002084641A1 (de) Verfahren zum überführen eines musiksignals in eine noten-basierte beschreibung und zum referenzieren eines musiksignals in einer datenbank
DE102004028693B4 (de) Vorrichtung und Verfahren zum Bestimmen eines Akkordtyps, der einem Testsignal zugrunde liegt
DE69018858T2 (de) Vorrichtung zum Erzeugen eines Musiktonsignals.
DE69430078T2 (de) Elektronische Vorrichtung zum Musikvortrag
DE112020002116T5 (de) Informationsverarbeitungsvorrichtung und Verfahren und Programm
DE102021200208A1 (de) Begleitungsklangerzeugungsvorrichtung, elektronisches musikinstrument, begleitungsklangerzeugungsverfahren und begleitungsklangerzeugungsprogramm
EP1787283A1 (de) Extraktion einer einem audiosignal zu grunde liegenden melodie
EP1377924B1 (de) VERFAHREN UND VORRICHTUNG ZUM EXTRAHIEREN EINER SIGNALKENNUNG, VERFAHREN UND VORRICHTUNG ZUM ERZEUGEN EINER DAZUGEHÖRIGEN DATABANK und Verfahren und Vorrichtung zum Referenzieren eines Such-Zeitsignals
DE3036679C2 (de) Sprachsynthesizer
EP1671315B1 (de) Vorrichtung und verfahren zum charakterisieren eines tonsignals
EP1758096A1 (de) Verfahren und Vorrichtung zur Mustererkennung in akustischen Aufnahmen
DE3752185T2 (de) Gerät zum Erzeugen eines Musiktonsignales gemäss eines Eingangswellenform-Signals
DE102015004520B4 (de) Verfahren zur automatischen Erzeugung einer aus Tönen bestehenden Begleitung und Vorrichtung zu seiner Durchführung

Legal Events

Date Code Title Description
8320 Willingness to grant licences declared (paragraph 23)
8328 Change in the person/name/address of the agent

Representative=s name: WIESE KONNERTH FISCHER PATENTANWAELTE PARTNERSCHAF

8328 Change in the person/name/address of the agent

Representative=s name: SCHROETER LEHMANN FISCHER & NEUGEBAUER, 81479 MUEN

8364 No opposition during term of opposition