[go: up one dir, main page]

DE19934845A1 - Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen - Google Patents

Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen

Info

Publication number
DE19934845A1
DE19934845A1 DE19934845A DE19934845A DE19934845A1 DE 19934845 A1 DE19934845 A1 DE 19934845A1 DE 19934845 A DE19934845 A DE 19934845A DE 19934845 A DE19934845 A DE 19934845A DE 19934845 A1 DE19934845 A1 DE 19934845A1
Authority
DE
Germany
Prior art keywords
model
time series
parameters
elements
auxiliary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19934845A
Other languages
English (en)
Inventor
Jan Christopher Stiller
Guenter Radons
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE19934845A priority Critical patent/DE19934845A1/de
Publication of DE19934845A1 publication Critical patent/DE19934845A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Complex Calculations (AREA)

Abstract

Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen. Es wird ein Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen angegeben, bei dem mindestens eine mit mindestens 3 Indizes behafteten Hilfsgröße(n) in Abhängigkeit von dem letzten Ein-Ausgabewertpaar iteriert wird, aus der (bzw. denen) aktuelle Schätzungen der Modellparameter berechnet werden können, so dass beim on-line-Schätzen kein Teil der Zeitreihe gespeichert werden muss, und der Speicherbedarf nicht von der Länge der Zeitreihe abhängt und somit meist wesentlich geringer als bei anderen Verfahren ist. Das Verfahren ist allgemein zum Schätzen von Hidden-Markov-Modellen aus Zeitreihen oder aus Prozessen, die Zeitreihen generieren, geeignet. Die Vorteile dieses Verfahrens wirken sich insbesondere bei langen Zeitreihen oder langandauernden Prozessen oder bei beschränkter Speicherkapazität positiv aus.

Description

Die Erfindung ist ein Verfahren zum Schätzen von Hidden-Markov-Modellen (HMM) mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden- Markov-Modellen aus einer ein- oder mehrdimensionalen zeitdiskreten Reihe von Ein-Ausgabewertpaaren. Auf eine mehrdimensionale Hilfsgröße wird nach de­ ren Initialisierung für jeden Zeitschritt ein Operator angewandt, der vom Ein- Ausgabewertpaar und der aktuellen Schätzung des Automaten abhängt. Beim on- line-Schätzen wird regelmäßig, z. B. zu jedem Zeitschritt, aus der Hilfsgröße eine neue aktuelle Schätzung des Automaten berechnet, beim off-line-Lernen nachdem über alle Elemente der Zeitreihe iteriert wurde.
1. Technisches Gebiet
In der Analyse von Zeitreihen. z. B. in der Sprach- und Schrifterkennung, der Prozeßüberwachung und -kontrolle; werden Hidden-Markov-Modelle erfolgreich angewandt. Die Modelle müssen anhand von Beispielzeitreihen geschätzt werden.
2. Stand der Technik
Zum Schätzen von Hidden-Markov-Modellen aus Zeitreihen werden meist Maximum-Likelihood-Schätzer verwandt. Die Parameter eines Modells werden so gewählt, daß die Wahrscheinlichkeit, daß die Beispielzeitreihen von dem HMM generiert werden, wenn das Modell wahr ist, maximal werden. Bei Zeitreihen fe­ ster Längen wird meist der Baum-Welch-Algorithmus angewandt [Raum 66]. Er benötigt jedoch Speicherplatz, der proportional der Gesamtlängen der Zeitrei­ hen × Anzahl der Zustände des HMMs groß ist. Liegen keine Zeitreihen fester Längen vor, sondern ein Prozeß, der Zeitreihen generiert, so muß die Ausgabe­ zeitreihe des Prozesses künstlich in Zeitreihen endlicher Länge aufgeteilt wer­ den. Mittels on-line-Algorithmen läßt sich dies vermeiden. Einem generischen Algorithmus [Titterington 84] für die on-line-Schätzung stochastischer Modelle folgend wurde ein Algorithmus für Hidden-Markov-Prozesse [Krishnamurthy 84] entwickelt. Auch andere Algorithmen, die nicht die Likelihood des Automaten maximieren [Collins 93], wurden entwickelt. In keiner uns bekannten Veröffentli­ chung ist ein Verfahren angegeben, bei dem die Modellparameter aus einer oder mehreren mit mindestens 3 Indizes behafteten Hilfgröße(n) und evtl. anderer Größen berechnet werden, und die Hilfgrößen iterativ berechnet werden, so daß keine Teile der Zeitreihe gespeichert werden müssen.
3. Zugrundeliegendes Problem
Die Erfindung betrifft ein Verfahren sowie eine Einrichtung zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen und stochastischen Automaten aus zeitdiskreten Zeitreihen von Ausgabesymbolen bzw. Ein-Ausgabesymbolpaaren. Im Folgenden werden beide Modelltypen als Hidden-Markov-Modelle bezeichnet. Ferner benen­ nen wir mit dem Begriff "Symbol" sowohl Symbole im engeren Sinne, als auch Zahlen oder numerische Werte. Bei E ein beliebiger deterministischer oder stocha­ stischer Prozeß, der zu jedem Zeitpunkt t ∈ 0, 1, ... ein Symbol x(t) ∈ U aus einer endlichen Menge U erzeugt, das eine Eingabe für das Hidden-Markov-Modell dar­ stellt. Bei M ein ergodischer Hidden-Markov-Prozeß mit S internen Zuständen. Zu jedem Zeitpunkt geht er von einem internen Zustand i ∈ S zu einem internen Zustand j ∈ S mit der Wahrscheinlichkeit aij (x(t)) über. Dabei wird ein Ausgabe­ symbol y ∈ V ausgegeben, wobei V eine beliebige Menge ist. Die Wahrscheinlich­ keit bzw. Wahrscheinlichkeitsdichte bei nicht endlicher Mächtigkeit von V, beim Übergang von i nach j das Ausgabesymbol y auszugeben, wenn das Eingabesym­ bol x empfangen wurde pij(y|x), ist vom Eingabesymbol x, vom Ausgabesymbol y, von i und j und von endlich vielen internen Parametern v abhängig. Zum Zeit­ punkt 0 ist die Wahrscheinlichkeit, im Zustand i zu sein, π 0|i. Für den Spezialfall endlicher Mengen der Eingabesymbole und Ausgabewerte sind die pij(y|x) selbst die internen Parameter. Ziel ist es, aus einer Reihe von Eingabe-Ausgabe-Paaren fester Länge, oder aus einem Prozeß, der Eingabe-Ausgabe-Paare generiert, das Hidden-Markov-Modell zu schätzen, d. h. die internen Parameter v zu bestimmen.
4. Erfindung
Im Folgenden wird zunächst nur der Fall eines Hidden-Markov-Modells mit end­ lich vielen Eingabe- und Ausgabesymbolen betrachtet. Dieser Fall enthält al­ le wesentlichen Verfahrensschritte. Bei einem Hidden-Markov-Modell, bei dem U und V endliche Mengen sind, ohne Einschränkung der Allgemeinheit ganze Zahlen zwischen 1 und |U| bzw. |V|, wobei |.| die Mächtigkeit der jeweiligen Menge bezeichne, sind die Parameter des Modells die bedingten Übergangswahr­ scheinlichkeiten pi,j(y|x), i,j ∈ S, y ∈ U und x ∈ V und der Startvektor π 0|i.
Die Parameter werden iterativ aus einer Hilfgröße N T|i,j,k(y|x), i,j ∈ S, x ∈ U und y ∈ V, geschätzt, die aus einer Zeitreihe von Eingabe- und Ausgabesym­ bolen (x(t), y(t)), t = 1...T rekursiv berechnet werden, wobei von einer ersten, evtl. zufälligen Schätzung pi,j(y|x) und π 0|i ausgegangen wird.
Eine alternative Berechnungsweise (mit demselben Ergebnis) ist die Iteration der πτ zusätzlich zu den N-Tensoren, so daß πτ statt aus Gleichung 3 berechnet wird als
Die neue Schätzung der Parameter (durch Überstrich gekennzeichnet) ist
Die neue Schätzung des Startvektors ist
Diese Berechnungen nach Gl. (2)-(6) werden solange wiederholt, bis ein Ab­ bruchkriterium erfüllt wird. z. B. maxi,j,y,x(pi,j(y|x) - pi,j(y|x))2 < d mit geeignet gewähltem d < 0.
Dieses Verfahren zum speichereffizienten Schätzen von HMM aus einer Zeitreihe kann modifiziert werden zu einem Verfahren zum on-line-Schätzen von HMM. Dabei wird regelmäßig, z. B. nach jedem Empfang eines Ein-Ausgabewertpaares, die aktuelle Schätzung von p gemäß den Gleichungen 2 und 3 geändert. Dies ergibt im einzelnen folgende Verfahrensschritte:
  • 1. wähle (y|x).
  • 2. wähle stochastischen Vektor π0.
  • 3. setze τ = 0.
  • 4. schätze pi,j(y|x) neu:
  • 5. berechne π τ|i: = ∈(τ) Σi,j∈S Σx∈UΣy∈VN τ|i,j,k (y|x)
  • 6. berechne N τ+1|i,j,k(y|x) gemäß Gleichung 2.
  • 7. τ → τ + 1.
  • 8. gehe zu 4.
Dabei bezeichnet ∈(τ) eine beliebige reellwertige Funktion mit 0 ≦ ∈(τ), die sich als Lernrate interpretieren läßt und von der die Konvergenz der Modellparame­ ter und ihre Fluktuationen abhängen. Ein Beispiel für die Wahl von ∈(τ) ist ∈(τ) = 1/τ. Durch Wahl einer konstanten Lernrate ∈(τ) = ∈∀t läßt sich eine exponentiell abklingende Abhängigkeit der Modellparameter von zeitlich zurück­ liegenden Eingabewert-Ausgabewert-Paaren realisieren.
Um numerische Probleme zu vermeiden, kann man nach Schritt 6 Schritt
  • 6a. multipliziere alle N τ+1|i,j,k(y|x) mit 1/Σi∈Sπ τ|i
einfügen, da Nτ
und πτ
nur bis auf einen gemeinsamen Faktor bestimmt sind. (siehe Gleichung 7).
Alternativ kann Schritt 5 ersetzt werden durch:
  • V. berechne π τ|i: = ∈(τ) Σj∈S ai,j(y(τ)|x(τ))π τ-1|j.
Dann muss statt Schritt 6a. ausgeführt werden:
  • VIa. multipliziere alle N τ+1|i,j,k(y|x) und π τ|i mit 1/Σi∈Sπ τ|i.
Dieses Verfahren kann auch für andere Typen von HMM verwandt werden, z. B. Hidden-Markov-Modelle mit Gauß'scher Ausgabewahrscheinlichkeit und oh­ ne Eingabesymbole. Dies wird im Folgenden gezeigt. Für Hidden-Markov-Modelle mit Gauß'scher Ausgabewahrscheinlichkeit und ohne Eingabesymbole ist die be­ dingte Wahrscheinlichkeit, den Wert y zum Zeitpunkt t auszugeben und zum Zustand j zu gehen, wenn das Modell in dem Zustand i ist
Die Parameter des Modells sind αij, µi und σ 2|i. Sie können aus folgenden Hilfs­ größen berechnet werden: N τ|i,j,k, M τ|i,k(y) und S τ|i,k(y), die wiederum nach der In­ itialisierung iterativ berechnet werden:
Die neuen Schätzungen der Parameter des HMM (durch Überstrich gekennzeich­ net) werden berechnet als
Ansonsten wird analog zu oben beschriebenem Verfahrensablauf vorgegangen.
Dieses Verfahren kann variiert werden, in dem oben beschriebene Rechnungen nur für einige der Parameter, z. B. die Übergangswahrscheinlichkeiten, ausgeführt werden, andere Parameter jedoch mit anderen Verfahren geschätzt werden. Wei­ terhin kann das Verfahren abgewandelt werden, indem alle oder einige Größen nur approximativ berechnet werden.
5. Gewerbliche Anwendbarkeit
Die angegebenen Verfahren können bei allen Verwendungen, in denen Hidden- Marlov-Modelle aus einer Zeitreihe geschätzt werden, eingesetzt werden.
6. Vorteilhafte Auswirkungen
Das Verfahren zum off-line-Schätzen zeichnet sich dadurch aus, daß im Gegen­ satz zur üblichen Forward-Backward-Prozedur der Speicherbedarf unabhängig von der Länge der Zeitreihe, und damit für typische Anwendungen wesentlich geringer ist, während bei der bisher üblichen Forward-Backward-Prozedur der Speicherbedarf proportional zur Länge der Zeitreihe ist. Das on-line-Verfahren zeichnet sich dadurch aus, daß die Elemente der Zeitreihe, auf deren Grundlage das Modell zu schätzen ist, nicht gespeichert werden müssen. Dies ermöglicht die Implementierung des Verfahrens mithilfe integrierter elektronischer Bauteile (IC's), die nur über wenig Speicher verfügen, z. B. mittels nur eines Chips. Mithilfe des on-line-Verfahrens ist die Bestimmung komplexer Größen, der Modellparame­ ter aus einfachen Meßwerten. z. B. zur Prozeßüberwachung, zu jedem Zeitpunkt möglich.
7. Figurenbeschreibung
Figur Nr. 1: Ein beliebiger autonomer deterministischer oder stochastischer Pro­ zeß E generiert Symbolketten x, welche die Eingabe des HMM darstellen. Der Hidden-Markov-Prozeß HMM mit internen Parametern v geht in Abhängigkeit vom jeweils erhaltenen Eingabesymbol x in einen neuen Zustand über und gibt ei­ ne Ausgabewert y aus. Der Beobachter beobachtet das Eingabesymbol x und den Ausgabewert y, nicht jedoch die internen Zustände und die internen Parameter des Automaten.
Figur Nr. 2: Ein Hidden-Markov-Prozeß, hier als Beispiel mit 3 Zuständen und endlicher Menge der Ausgabesymbole V, ist dargestellt. Bei Empfang eines Ein­ gabesymbols geht der Prozeß von seinem aktuellen Zustand i in einen neuen Zustand j über und gibt einen Ausgabewert y ∈ V aus mit Wahrscheinlichkeit pi,j(y|x).
Literatur
[Titterington 84] D. M. Titterington. Recursive parameter estimation using in­ complete data. J. R. Statist. Soc. B 46, 257 (1984).
[Krishnamurthy 84] V. Krishnamurthy, J. B. Moore. On-line estimation of Hid­ den Makov Model parameters based on the Kullback-Leibler information measure. IEEE. Transact. on Signal. Proc 41, 2557 (1993).
[Collins 93] I. B. Collins, V. Krishnamurthy, J. B. Moore. On-line estimation of Hidden Makov Models via recursive prediction error techniques. IEEE. Transacton Signal. Proc 41. 2557 (1993).[Baum 66] L. E. Baum. T. Petrie. Ann. Math. Statist. 30, 1 554 (1966).
[Stiller 98) J. C. Stiller. Hidden-Markov-Modelle: Unüberwachtes Lernen und Klassifikation. Diss., Univ. Kiel (1998).

Claims (13)

1. Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen aus einer Zeitreihe von Eingabe- und Ausgabewerten oder von Ausgabewer­ ten, dadurch gekennzeichnet, daß Parameter v des Modells aus einer oder mehreren mit mindestens 3 Indizes behafteten Hilfsgröße(n) Nl(y|x) und evtl. anderer Größen, nicht jedoch durch Elemente der Zeitreihe di­ rekt, berechnet werden und die Hilfsgrößen nach einer Initialisierung durch wiederholte iterative Anwendung einer Funktion Gl berechnet werden als Nl;t+1(y|x) := Gl(Nl;t(y|x), x(t+1), y(t+1), t, πτ, v), wobei Nl;t die zur Zeit t gehörige l-te Hilfsgröße, x(t) den zur Zeit t gehörige Eingabewert und y(t) den zur Zeit t gehörigen Ausgabewert bezeichnet, πt einen s-dimensionalen reellen Vektor bezeichnet, dessen Elemente entweder als Summe über be­ stimmte Elemente der Hilfsgrößen Nl;t berechnet werden, oder nach einer Initialisierung durch t-fach wiederholte iterative Anwendung einer Funkti­ on B berechnet werden als πt+1 = B(πt, x(t+1), y(t+1),v), wobei s die Anzahl der Zustände des Hidden-Markov-Modells ist.
2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, daß π t+1|j = Σ s|i∈S π t|i pi,j(y(t+1)|x(t+1); v) / C(πt) gilt, wobei C eine reel­ le Funktion ist, π t|j die j-te Koordinate des Vektors π nach t Iterationen, v die aktuelle Schätzung der Parameter des Modells und pi,j(y|x; v) die Wahrscheinlichkeit des Modells in den Zustand j überzugehen und den Ausgabewert y auszugeben, wenn das Modell im Zustand i ist, das Eingabesymbol x ist und die Parameter v sind, bezeichnet.
3. Verfahren gemäß mindestens einem der Ansprüche 1-2, dadurch gekenn­ zeichnet, daß π t+1|j = Σ s|i∈S π t|i pi,j(y(t+1)|x(t+1); v) / (Σi∈S Σ s|j∈S π t|i pi,j(y(t+1)|x(t+1); v) gilt.
4. Verfahren gemäß mindestens einem der Ansprüche 1-3, dadurch ge­ kennzeichnet. daß für πt und mindestens eine der Hilfsgrößen Nl gilt: π τ+1|i := ∈(τ) Σi,j∈S Σx∈UΣy∈VN l,τ|i,j,k(y|x) bei ∈(τ) eine beliebige reell­ wertige Funktion mit ist.
5. Verfahren gemäß Anspruch 4, dadurch gekennzeichnet, daß ∈(τ) = 1/τ ist.
6. Verfahren gemäß Anspruch 4, dadurch gekennzeichnet, daß ∈(t) = ∈ gilt für alle t < tc, wobei ∈ eine beliebige, nicht negative reelle Zahl und tc eine beliebige, nicht negative ganze Zahl ist.
7. Verfahren gemäß mindestens einem der Ansprüche 1-5, dadurch gekenn­ zeichnet, daß der Wertebereich der Eingabesymbole die Mächtigkeit 1 hat.
8. Verfahren gemäß mindestens einem der Ansprüche 1-7, dadurch gekenn­ zeichnet, daß der Wertebereich der Ausgabesymbole eine endliche Menge ist.
9. Verfahren gemäß mindestens einem der Anspüche 1-7, dadurch gekennzeichnet, daß für mindestens eine der Hilfsgrößen Nl gilt: N l;τ+1|i,j,k (y|x) = hi,j,k ( (y|x) (x(τ+1)|y(τ+1)),t) + gi,j,k( π τ|i δy,y(τ+1) δx,x(τ+1) pi,j(x|y) δj,k,t) wobei hi,j,k und gi,j,k für alle i,j,k beliebig reelwertige Funktionen sind.
10. Verfahren gemäß mindestens einem der Ansprüche 1-9, da­ durch gekennzeichnet, daß für mindestens eine der Hilfsgrößen Nl gilt: N l;τ+1|i,j,k (y|x) = ( (y|x) (y(τ+1)|x(τ+1)),t) + ∈(τ) δy,y(τ+1) δx,x(τ+1) p τ|i,j (y|x) δj,k Σl,m∈S Σx∈U Σy∈V N l;τ|l,m,i (y|x), wobei ∈(τ) eine beliebige reelwertige Funktion ist.
11. Verfahren gemäß Anspruch 10, dadurch gekennzeichnet, daß ∈(t) = ∈ gilt für alle t < tc, wobei ∈ eine beliebige, nicht negative reelle Zahl und tc eine beliebige, nicht negative ganze Zahl ist.
12. Verfahren gemäß mindestens einem der Ansprüche 1-11, dadurch ge­ kennzeichnet, daß über Parameter des Hidden-Markov-Prozesses a-priori- Informationen vorliegen, so daß die Berechnungen vereinfacht werden können.
13. Einrichtung, dadurch gekennzeichnet, daß sie mindestens einer der Verfah­ ren gemäß Ansprüchen 1-12 in digitaler oder analoger Weise nutzt.
DE19934845A 1998-07-25 1999-07-24 Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen Withdrawn DE19934845A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19934845A DE19934845A1 (de) 1998-07-25 1999-07-24 Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19833627 1998-07-25
DE19934845A DE19934845A1 (de) 1998-07-25 1999-07-24 Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen

Publications (1)

Publication Number Publication Date
DE19934845A1 true DE19934845A1 (de) 2000-03-16

Family

ID=7875365

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19934845A Withdrawn DE19934845A1 (de) 1998-07-25 1999-07-24 Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen

Country Status (1)

Country Link
DE (1) DE19934845A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002039773A1 (de) * 2000-11-13 2002-05-16 Siemens Aktiengesellschaft Verfahren und vorrichtung zur verkehrslokalisierung in einem zellulären mobilfunknetz
DE10116984A1 (de) * 2001-04-05 2002-10-10 Rainer Martin Verfahren und Vorrichtung zur Übertragung und Speicherung von Sprach- und Audiosignalen
DE10123572C1 (de) * 2001-05-08 2003-01-23 Senslab Gmbh Verfahren und Vorrichtung zur automatischen Online-Analyse von Meßreihen sowie ein entsprechendes Computerprogramm-Erzeugnis und ein entsprechendes computerlesbares Speichermedium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002039773A1 (de) * 2000-11-13 2002-05-16 Siemens Aktiengesellschaft Verfahren und vorrichtung zur verkehrslokalisierung in einem zellulären mobilfunknetz
DE10116984A1 (de) * 2001-04-05 2002-10-10 Rainer Martin Verfahren und Vorrichtung zur Übertragung und Speicherung von Sprach- und Audiosignalen
DE10123572C1 (de) * 2001-05-08 2003-01-23 Senslab Gmbh Verfahren und Vorrichtung zur automatischen Online-Analyse von Meßreihen sowie ein entsprechendes Computerprogramm-Erzeugnis und ein entsprechendes computerlesbares Speichermedium

Similar Documents

Publication Publication Date Title
DE69324052T2 (de) Neuronalnetzwerk-Lernsystem
DE69726526T2 (de) Schema und Modelladaption bei Mustererkennung welche auf Taylorausdehnung basiert
DE102023125635A1 (de) Bild- und objekt-inpainting mit diffusionsmodellen
DE60309142T2 (de) System zur Schätzung von Parametern eines Gauß`schen Mixturmodells (GMM) oder eines GMM-basierten Hidden-Markov-Modells
DE69031866T2 (de) Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation
DE69414752T2 (de) Sprecherunabhängiges Erkennungssystem für isolierte Wörter unter Verwendung eines neuronalen Netzes
DE102023124207A1 (de) Einzelbild-Konzept-Kodierer zur Personalisierung unter Verwendung eines vortrainierten Diffusionsmodells
DE69129015T2 (de) Sprecherunabhängiges Gerät zur Markierungskodierung
DE60000134T2 (de) Unüberwachte Anpassung eines Spracherkenners unter Verwendung zuverlässiger Informationen aus den besten N Rechenhypothesen
DE60204374T2 (de) Spracherkennungsvorrichtung
DE60109999T2 (de) Spracherkennung mittels lexikalischer Bäumen
DE102013213397A1 (de) Verfahren und Vorrichtung zum Bereitstellen von Stützstellendaten für ein datenbasiertes Funktionsmodell
DE212022000260U1 (de) Bewerten von Ausgabesequenzen unter Benutzen eines neuronalen autoregressiven Sprachmodell-Netzwerkes
DE69613293T2 (de) Vorrichtung zur Musteranpassung für Sprach- oder Mustererkennung
EP3736817A1 (de) Überprüfung und/oder verbesserung der konsistenz von datenkennzeichnungen bei der medizinischen bildverarbeitung
DE69330021T2 (de) Verbessertes System zur Mustererkennung für Sonar und andere Anwendungen
CN104657776A (zh) 神经网络系统、基于神经网络系统的图像解析方法和装置
DE112021005925T5 (de) Domänenverallgemeinerter spielraum über metalernen zur tiefen gesichtserkennung
DE102024114452A1 (de) Generative bildfüllung anhand eines referenzbilds
Zhong et al. A new formulation of coupled hidden Markov models
DE112023003762T5 (de) Kompositionale bilderzeugung und bearbeitung
DE69333247T2 (de) Trainingsverfahren und Gerät zur Erzeugung eines neues Neurons
DE69126983T2 (de) Einrichtung zur mustererkennung mit einem kuenstlichen neuronalen netzwerk fuer kontextabhaengige modellierung
Lanchantin et al. Unsupervised non stationary image segmentation using triplet Markov chains
DE69628603T2 (de) System zur Musteranpassung mittels einer Baumstruktur

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee