DE19934845A1 - Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen - Google Patents
Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-ModellenInfo
- Publication number
- DE19934845A1 DE19934845A1 DE19934845A DE19934845A DE19934845A1 DE 19934845 A1 DE19934845 A1 DE 19934845A1 DE 19934845 A DE19934845 A DE 19934845A DE 19934845 A DE19934845 A DE 19934845A DE 19934845 A1 DE19934845 A1 DE 19934845A1
- Authority
- DE
- Germany
- Prior art keywords
- model
- time series
- parameters
- elements
- auxiliary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
- G10L15/144—Training of HMMs
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Complex Calculations (AREA)
Abstract
Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen. Es wird ein Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen angegeben, bei dem mindestens eine mit mindestens 3 Indizes behafteten Hilfsgröße(n) in Abhängigkeit von dem letzten Ein-Ausgabewertpaar iteriert wird, aus der (bzw. denen) aktuelle Schätzungen der Modellparameter berechnet werden können, so dass beim on-line-Schätzen kein Teil der Zeitreihe gespeichert werden muss, und der Speicherbedarf nicht von der Länge der Zeitreihe abhängt und somit meist wesentlich geringer als bei anderen Verfahren ist. Das Verfahren ist allgemein zum Schätzen von Hidden-Markov-Modellen aus Zeitreihen oder aus Prozessen, die Zeitreihen generieren, geeignet. Die Vorteile dieses Verfahrens wirken sich insbesondere bei langen Zeitreihen oder langandauernden Prozessen oder bei beschränkter Speicherkapazität positiv aus.
Description
Die Erfindung ist ein Verfahren zum Schätzen von Hidden-Markov-Modellen
(HMM) mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-
Markov-Modellen aus einer ein- oder mehrdimensionalen zeitdiskreten Reihe von
Ein-Ausgabewertpaaren. Auf eine mehrdimensionale Hilfsgröße wird nach de
ren Initialisierung für jeden Zeitschritt ein Operator angewandt, der vom Ein-
Ausgabewertpaar und der aktuellen Schätzung des Automaten abhängt. Beim on-
line-Schätzen wird regelmäßig, z. B. zu jedem Zeitschritt, aus der Hilfsgröße eine
neue aktuelle Schätzung des Automaten berechnet, beim off-line-Lernen nachdem
über alle Elemente der Zeitreihe iteriert wurde.
In der Analyse von Zeitreihen. z. B. in der Sprach- und Schrifterkennung, der
Prozeßüberwachung und -kontrolle; werden Hidden-Markov-Modelle erfolgreich
angewandt. Die Modelle müssen anhand von Beispielzeitreihen geschätzt werden.
Zum Schätzen von Hidden-Markov-Modellen aus Zeitreihen werden meist
Maximum-Likelihood-Schätzer verwandt. Die Parameter eines Modells werden
so gewählt, daß die Wahrscheinlichkeit, daß die Beispielzeitreihen von dem HMM
generiert werden, wenn das Modell wahr ist, maximal werden. Bei Zeitreihen fe
ster Längen wird meist der Baum-Welch-Algorithmus angewandt [Raum 66]. Er
benötigt jedoch Speicherplatz, der proportional der Gesamtlängen der Zeitrei
hen × Anzahl der Zustände des HMMs groß ist. Liegen keine Zeitreihen fester
Längen vor, sondern ein Prozeß, der Zeitreihen generiert, so muß die Ausgabe
zeitreihe des Prozesses künstlich in Zeitreihen endlicher Länge aufgeteilt wer
den. Mittels on-line-Algorithmen läßt sich dies vermeiden. Einem generischen
Algorithmus [Titterington 84] für die on-line-Schätzung stochastischer Modelle
folgend wurde ein Algorithmus für Hidden-Markov-Prozesse [Krishnamurthy 84]
entwickelt. Auch andere Algorithmen, die nicht die Likelihood des Automaten
maximieren [Collins 93], wurden entwickelt. In keiner uns bekannten Veröffentli
chung ist ein Verfahren angegeben, bei dem die Modellparameter aus einer oder
mehreren mit mindestens 3 Indizes behafteten Hilfgröße(n) und evtl. anderer
Größen berechnet werden, und die Hilfgrößen iterativ berechnet werden, so daß
keine Teile der Zeitreihe gespeichert werden müssen.
Die Erfindung betrifft ein Verfahren sowie eine Einrichtung zum Schätzen von
Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen
von Hidden-Markov-Modellen und stochastischen Automaten aus zeitdiskreten
Zeitreihen von Ausgabesymbolen bzw. Ein-Ausgabesymbolpaaren. Im Folgenden
werden beide Modelltypen als Hidden-Markov-Modelle bezeichnet. Ferner benen
nen wir mit dem Begriff "Symbol" sowohl Symbole im engeren Sinne, als auch
Zahlen oder numerische Werte. Bei E ein beliebiger deterministischer oder stocha
stischer Prozeß, der zu jedem Zeitpunkt t ∈ 0, 1, ... ein Symbol x(t) ∈ U aus einer
endlichen Menge U erzeugt, das eine Eingabe für das Hidden-Markov-Modell dar
stellt. Bei M ein ergodischer Hidden-Markov-Prozeß mit S internen Zuständen.
Zu jedem Zeitpunkt geht er von einem internen Zustand i ∈ S zu einem internen
Zustand j ∈ S mit der Wahrscheinlichkeit aij (x(t)) über. Dabei wird ein Ausgabe
symbol y ∈ V ausgegeben, wobei V eine beliebige Menge ist. Die Wahrscheinlich
keit bzw. Wahrscheinlichkeitsdichte bei nicht endlicher Mächtigkeit von V, beim
Übergang von i nach j das Ausgabesymbol y auszugeben, wenn das Eingabesym
bol x empfangen wurde pij(y|x), ist vom Eingabesymbol x, vom Ausgabesymbol
y, von i und j und von endlich vielen internen Parametern v abhängig. Zum Zeit
punkt 0 ist die Wahrscheinlichkeit, im Zustand i zu sein, π 0|i. Für den Spezialfall
endlicher Mengen der Eingabesymbole und Ausgabewerte sind die pij(y|x) selbst
die internen Parameter. Ziel ist es, aus einer Reihe von Eingabe-Ausgabe-Paaren
fester Länge, oder aus einem Prozeß, der Eingabe-Ausgabe-Paare generiert, das
Hidden-Markov-Modell zu schätzen, d. h. die internen Parameter v zu bestimmen.
Im Folgenden wird zunächst nur der Fall eines Hidden-Markov-Modells mit end
lich vielen Eingabe- und Ausgabesymbolen betrachtet. Dieser Fall enthält al
le wesentlichen Verfahrensschritte. Bei einem Hidden-Markov-Modell, bei dem
U und V endliche Mengen sind, ohne Einschränkung der Allgemeinheit ganze
Zahlen zwischen 1 und |U| bzw. |V|, wobei |.| die Mächtigkeit der jeweiligen
Menge bezeichne, sind die Parameter des Modells die bedingten Übergangswahr
scheinlichkeiten pi,j(y|x), i,j ∈ S, y ∈ U und x ∈ V und der Startvektor π 0|i.
Die Parameter werden iterativ aus einer Hilfgröße N T|i,j,k(y|x), i,j ∈ S, x ∈ U
und y ∈ V, geschätzt, die aus einer Zeitreihe von Eingabe- und Ausgabesym
bolen (x(t), y(t)), t = 1...T rekursiv berechnet werden, wobei von einer ersten,
evtl. zufälligen Schätzung pi,j(y|x) und π 0|i ausgegangen wird.
Eine alternative Berechnungsweise (mit demselben Ergebnis) ist die Iteration der
πτ zusätzlich zu den N-Tensoren, so daß πτ statt aus Gleichung 3 berechnet wird
als
Die neue Schätzung der Parameter (durch Überstrich gekennzeichnet) ist
Die neue Schätzung des Startvektors ist
Diese Berechnungen nach Gl. (2)-(6) werden solange wiederholt, bis ein Ab
bruchkriterium erfüllt wird. z. B. maxi,j,y,x(pi,j(y|x) - pi,j(y|x))2 < d mit geeignet
gewähltem d < 0.
Dieses Verfahren zum speichereffizienten Schätzen von HMM aus einer Zeitreihe
kann modifiziert werden zu einem Verfahren zum on-line-Schätzen von HMM.
Dabei wird regelmäßig, z. B. nach jedem Empfang eines Ein-Ausgabewertpaares,
die aktuelle Schätzung von p gemäß den Gleichungen 2 und 3 geändert. Dies
ergibt im einzelnen folgende Verfahrensschritte:
- 1. wähle (y|x).
- 2. wähle stochastischen Vektor π0.
- 3. setze τ = 0.
- 4. schätze pi,j(y|x) neu:
- 5. berechne π τ|i: = ∈(τ) Σi,j∈S Σx∈UΣy∈VN τ|i,j,k (y|x)
- 6. berechne N τ+1|i,j,k(y|x) gemäß Gleichung 2.
- 7. τ → τ + 1.
- 8. gehe zu 4.
Dabei bezeichnet ∈(τ) eine beliebige reellwertige Funktion mit 0 ≦ ∈(τ), die sich
als Lernrate interpretieren läßt und von der die Konvergenz der Modellparame
ter und ihre Fluktuationen abhängen. Ein Beispiel für die Wahl von ∈(τ) ist
∈(τ) = 1/τ. Durch Wahl einer konstanten Lernrate ∈(τ) = ∈∀t läßt sich eine
exponentiell abklingende Abhängigkeit der Modellparameter von zeitlich zurück
liegenden Eingabewert-Ausgabewert-Paaren realisieren.
Um numerische Probleme zu vermeiden, kann man nach Schritt 6 Schritt
- 6a. multipliziere alle N τ+1|i,j,k(y|x) mit 1/Σi∈Sπ τ|i
einfügen, da Nτ
und πτ
nur bis auf einen gemeinsamen Faktor bestimmt sind.
(siehe Gleichung 7).
Alternativ kann Schritt 5 ersetzt werden durch:
- V. berechne π τ|i: = ∈(τ) Σj∈S ai,j(y(τ)|x(τ))π τ-1|j.
Dann muss statt Schritt 6a. ausgeführt werden:
- VIa. multipliziere alle N τ+1|i,j,k(y|x) und π τ|i mit 1/Σi∈Sπ τ|i.
Dieses Verfahren kann auch für andere Typen von HMM verwandt werden,
z. B. Hidden-Markov-Modelle mit Gauß'scher Ausgabewahrscheinlichkeit und oh
ne Eingabesymbole. Dies wird im Folgenden gezeigt. Für Hidden-Markov-Modelle
mit Gauß'scher Ausgabewahrscheinlichkeit und ohne Eingabesymbole ist die be
dingte Wahrscheinlichkeit, den Wert y zum Zeitpunkt t auszugeben und zum
Zustand j zu gehen, wenn das Modell in dem Zustand i ist
Die Parameter des Modells sind αij, µi und σ 2|i. Sie können aus folgenden Hilfs
größen berechnet werden: N τ|i,j,k, M τ|i,k(y) und S τ|i,k(y), die wiederum nach der In
itialisierung iterativ berechnet werden:
Die neuen Schätzungen der Parameter des HMM (durch Überstrich gekennzeich
net) werden berechnet als
Ansonsten wird analog zu oben beschriebenem Verfahrensablauf vorgegangen.
Dieses Verfahren kann variiert werden, in dem oben beschriebene Rechnungen
nur für einige der Parameter, z. B. die Übergangswahrscheinlichkeiten, ausgeführt
werden, andere Parameter jedoch mit anderen Verfahren geschätzt werden. Wei
terhin kann das Verfahren abgewandelt werden, indem alle oder einige Größen
nur approximativ berechnet werden.
Die angegebenen Verfahren können bei allen Verwendungen, in denen Hidden-
Marlov-Modelle aus einer Zeitreihe geschätzt werden, eingesetzt werden.
Das Verfahren zum off-line-Schätzen zeichnet sich dadurch aus, daß im Gegen
satz zur üblichen Forward-Backward-Prozedur der Speicherbedarf unabhängig
von der Länge der Zeitreihe, und damit für typische Anwendungen wesentlich
geringer ist, während bei der bisher üblichen Forward-Backward-Prozedur der
Speicherbedarf proportional zur Länge der Zeitreihe ist. Das on-line-Verfahren
zeichnet sich dadurch aus, daß die Elemente der Zeitreihe, auf deren Grundlage
das Modell zu schätzen ist, nicht gespeichert werden müssen. Dies ermöglicht
die Implementierung des Verfahrens mithilfe integrierter elektronischer Bauteile
(IC's), die nur über wenig Speicher verfügen, z. B. mittels nur eines Chips. Mithilfe
des on-line-Verfahrens ist die Bestimmung komplexer Größen, der Modellparame
ter aus einfachen Meßwerten. z. B. zur Prozeßüberwachung, zu jedem Zeitpunkt
möglich.
Figur Nr. 1: Ein beliebiger autonomer deterministischer oder stochastischer Pro
zeß E generiert Symbolketten x, welche die Eingabe des HMM darstellen. Der
Hidden-Markov-Prozeß HMM mit internen Parametern v geht in Abhängigkeit
vom jeweils erhaltenen Eingabesymbol x in einen neuen Zustand über und gibt ei
ne Ausgabewert y aus. Der Beobachter beobachtet das Eingabesymbol x und den
Ausgabewert y, nicht jedoch die internen Zustände und die internen Parameter
des Automaten.
Figur Nr. 2: Ein Hidden-Markov-Prozeß, hier als Beispiel mit 3 Zuständen und
endlicher Menge der Ausgabesymbole V, ist dargestellt. Bei Empfang eines Ein
gabesymbols geht der Prozeß von seinem aktuellen Zustand i in einen neuen
Zustand j über und gibt einen Ausgabewert y ∈ V aus mit Wahrscheinlichkeit
pi,j(y|x).
[Titterington 84] D. M. Titterington. Recursive parameter estimation using in
complete data. J. R. Statist. Soc. B 46, 257 (1984).
[Krishnamurthy 84] V. Krishnamurthy, J. B. Moore. On-line estimation of Hid den Makov Model parameters based on the Kullback-Leibler information measure. IEEE. Transact. on Signal. Proc 41, 2557 (1993).
[Collins 93] I. B. Collins, V. Krishnamurthy, J. B. Moore. On-line estimation of Hidden Makov Models via recursive prediction error techniques. IEEE. Transacton Signal. Proc 41. 2557 (1993).[Baum 66] L. E. Baum. T. Petrie. Ann. Math. Statist. 30, 1 554 (1966).
[Stiller 98) J. C. Stiller. Hidden-Markov-Modelle: Unüberwachtes Lernen und Klassifikation. Diss., Univ. Kiel (1998).
[Krishnamurthy 84] V. Krishnamurthy, J. B. Moore. On-line estimation of Hid den Makov Model parameters based on the Kullback-Leibler information measure. IEEE. Transact. on Signal. Proc 41, 2557 (1993).
[Collins 93] I. B. Collins, V. Krishnamurthy, J. B. Moore. On-line estimation of Hidden Makov Models via recursive prediction error techniques. IEEE. Transacton Signal. Proc 41. 2557 (1993).[Baum 66] L. E. Baum. T. Petrie. Ann. Math. Statist. 30, 1 554 (1966).
[Stiller 98) J. C. Stiller. Hidden-Markov-Modelle: Unüberwachtes Lernen und Klassifikation. Diss., Univ. Kiel (1998).
Claims (13)
1. Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem
Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen aus
einer Zeitreihe von Eingabe- und Ausgabewerten oder von Ausgabewer
ten, dadurch gekennzeichnet, daß Parameter v des Modells aus einer
oder mehreren mit mindestens 3 Indizes behafteten Hilfsgröße(n) Nl(y|x)
und evtl. anderer Größen, nicht jedoch durch Elemente der Zeitreihe di
rekt, berechnet werden und die Hilfsgrößen nach einer Initialisierung durch
wiederholte iterative Anwendung einer Funktion Gl berechnet werden als
Nl;t+1(y|x) := Gl(Nl;t(y|x), x(t+1), y(t+1), t, πτ, v), wobei Nl;t die zur Zeit
t gehörige l-te Hilfsgröße, x(t) den zur Zeit t gehörige Eingabewert und y(t)
den zur Zeit t gehörigen Ausgabewert bezeichnet, πt einen s-dimensionalen
reellen Vektor bezeichnet, dessen Elemente entweder als Summe über be
stimmte Elemente der Hilfsgrößen Nl;t berechnet werden, oder nach einer
Initialisierung durch t-fach wiederholte iterative Anwendung einer Funkti
on B berechnet werden als πt+1 = B(πt, x(t+1), y(t+1),v), wobei s die
Anzahl der Zustände des Hidden-Markov-Modells ist.
2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, daß
π t+1|j = Σ s|i∈S π t|i pi,j(y(t+1)|x(t+1); v) / C(πt) gilt, wobei C eine reel
le Funktion ist, π t|j die j-te Koordinate des Vektors π nach t Iterationen,
v die aktuelle Schätzung der Parameter des Modells und pi,j(y|x; v)
die Wahrscheinlichkeit des Modells in den Zustand j überzugehen und
den Ausgabewert y auszugeben, wenn das Modell im Zustand i ist, das
Eingabesymbol x ist und die Parameter v sind, bezeichnet.
3. Verfahren gemäß mindestens einem der Ansprüche 1-2, dadurch gekenn
zeichnet, daß π t+1|j = Σ s|i∈S π t|i pi,j(y(t+1)|x(t+1); v) / (Σi∈S Σ s|j∈S π t|i pi,j(y(t+1)|x(t+1); v)
gilt.
4. Verfahren gemäß mindestens einem der Ansprüche 1-3, dadurch ge
kennzeichnet. daß für πt und mindestens eine der Hilfsgrößen Nl gilt:
π τ+1|i := ∈(τ) Σi,j∈S Σx∈UΣy∈VN l,τ|i,j,k(y|x) bei ∈(τ) eine beliebige reell
wertige Funktion mit ist.
5. Verfahren gemäß Anspruch 4, dadurch gekennzeichnet, daß ∈(τ) = 1/τ ist.
6. Verfahren gemäß Anspruch 4, dadurch gekennzeichnet, daß ∈(t) = ∈ gilt für
alle t < tc, wobei ∈ eine beliebige, nicht negative reelle Zahl und tc eine
beliebige, nicht negative ganze Zahl ist.
7. Verfahren gemäß mindestens einem der Ansprüche 1-5, dadurch gekenn
zeichnet, daß der Wertebereich der Eingabesymbole die Mächtigkeit 1 hat.
8. Verfahren gemäß mindestens einem der Ansprüche 1-7, dadurch gekenn
zeichnet, daß der Wertebereich der Ausgabesymbole eine endliche Menge
ist.
9. Verfahren gemäß mindestens einem der Anspüche 1-7, dadurch
gekennzeichnet, daß für mindestens eine der Hilfsgrößen Nl
gilt: N l;τ+1|i,j,k (y|x) = hi,j,k ( (y|x) (x(τ+1)|y(τ+1)),t) +
gi,j,k( π τ|i δy,y(τ+1) δx,x(τ+1) pi,j(x|y) δj,k,t) wobei hi,j,k und gi,j,k für alle i,j,k
beliebig reelwertige Funktionen sind.
10. Verfahren gemäß mindestens einem der Ansprüche 1-9, da
durch gekennzeichnet, daß für mindestens eine der Hilfsgrößen Nl
gilt: N l;τ+1|i,j,k (y|x) = ( (y|x) (y(τ+1)|x(τ+1)),t) +
∈(τ) δy,y(τ+1) δx,x(τ+1) p τ|i,j (y|x) δj,k Σl,m∈S Σx∈U Σy∈V N l;τ|l,m,i (y|x), wobei ∈(τ)
eine beliebige reelwertige Funktion ist.
11. Verfahren gemäß Anspruch 10, dadurch gekennzeichnet, daß ∈(t) = ∈ gilt
für alle t < tc, wobei ∈ eine beliebige, nicht negative reelle Zahl und tc eine
beliebige, nicht negative ganze Zahl ist.
12. Verfahren gemäß mindestens einem der Ansprüche 1-11, dadurch ge
kennzeichnet, daß über Parameter des Hidden-Markov-Prozesses a-priori-
Informationen vorliegen, so daß die Berechnungen vereinfacht werden
können.
13. Einrichtung, dadurch gekennzeichnet, daß sie mindestens einer der Verfah
ren gemäß Ansprüchen 1-12 in digitaler oder analoger Weise nutzt.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE19934845A DE19934845A1 (de) | 1998-07-25 | 1999-07-24 | Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE19833627 | 1998-07-25 | ||
| DE19934845A DE19934845A1 (de) | 1998-07-25 | 1999-07-24 | Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE19934845A1 true DE19934845A1 (de) | 2000-03-16 |
Family
ID=7875365
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE19934845A Withdrawn DE19934845A1 (de) | 1998-07-25 | 1999-07-24 | Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE19934845A1 (de) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2002039773A1 (de) * | 2000-11-13 | 2002-05-16 | Siemens Aktiengesellschaft | Verfahren und vorrichtung zur verkehrslokalisierung in einem zellulären mobilfunknetz |
| DE10116984A1 (de) * | 2001-04-05 | 2002-10-10 | Rainer Martin | Verfahren und Vorrichtung zur Übertragung und Speicherung von Sprach- und Audiosignalen |
| DE10123572C1 (de) * | 2001-05-08 | 2003-01-23 | Senslab Gmbh | Verfahren und Vorrichtung zur automatischen Online-Analyse von Meßreihen sowie ein entsprechendes Computerprogramm-Erzeugnis und ein entsprechendes computerlesbares Speichermedium |
-
1999
- 1999-07-24 DE DE19934845A patent/DE19934845A1/de not_active Withdrawn
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2002039773A1 (de) * | 2000-11-13 | 2002-05-16 | Siemens Aktiengesellschaft | Verfahren und vorrichtung zur verkehrslokalisierung in einem zellulären mobilfunknetz |
| DE10116984A1 (de) * | 2001-04-05 | 2002-10-10 | Rainer Martin | Verfahren und Vorrichtung zur Übertragung und Speicherung von Sprach- und Audiosignalen |
| DE10123572C1 (de) * | 2001-05-08 | 2003-01-23 | Senslab Gmbh | Verfahren und Vorrichtung zur automatischen Online-Analyse von Meßreihen sowie ein entsprechendes Computerprogramm-Erzeugnis und ein entsprechendes computerlesbares Speichermedium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE69324052T2 (de) | Neuronalnetzwerk-Lernsystem | |
| DE69726526T2 (de) | Schema und Modelladaption bei Mustererkennung welche auf Taylorausdehnung basiert | |
| DE102023125635A1 (de) | Bild- und objekt-inpainting mit diffusionsmodellen | |
| DE60309142T2 (de) | System zur Schätzung von Parametern eines Gauß`schen Mixturmodells (GMM) oder eines GMM-basierten Hidden-Markov-Modells | |
| DE69031866T2 (de) | Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation | |
| DE69414752T2 (de) | Sprecherunabhängiges Erkennungssystem für isolierte Wörter unter Verwendung eines neuronalen Netzes | |
| DE102023124207A1 (de) | Einzelbild-Konzept-Kodierer zur Personalisierung unter Verwendung eines vortrainierten Diffusionsmodells | |
| DE69129015T2 (de) | Sprecherunabhängiges Gerät zur Markierungskodierung | |
| DE60000134T2 (de) | Unüberwachte Anpassung eines Spracherkenners unter Verwendung zuverlässiger Informationen aus den besten N Rechenhypothesen | |
| DE60204374T2 (de) | Spracherkennungsvorrichtung | |
| DE60109999T2 (de) | Spracherkennung mittels lexikalischer Bäumen | |
| DE102013213397A1 (de) | Verfahren und Vorrichtung zum Bereitstellen von Stützstellendaten für ein datenbasiertes Funktionsmodell | |
| DE212022000260U1 (de) | Bewerten von Ausgabesequenzen unter Benutzen eines neuronalen autoregressiven Sprachmodell-Netzwerkes | |
| DE69613293T2 (de) | Vorrichtung zur Musteranpassung für Sprach- oder Mustererkennung | |
| EP3736817A1 (de) | Überprüfung und/oder verbesserung der konsistenz von datenkennzeichnungen bei der medizinischen bildverarbeitung | |
| DE69330021T2 (de) | Verbessertes System zur Mustererkennung für Sonar und andere Anwendungen | |
| CN104657776A (zh) | 神经网络系统、基于神经网络系统的图像解析方法和装置 | |
| DE112021005925T5 (de) | Domänenverallgemeinerter spielraum über metalernen zur tiefen gesichtserkennung | |
| DE102024114452A1 (de) | Generative bildfüllung anhand eines referenzbilds | |
| Zhong et al. | A new formulation of coupled hidden Markov models | |
| DE112023003762T5 (de) | Kompositionale bilderzeugung und bearbeitung | |
| DE69333247T2 (de) | Trainingsverfahren und Gerät zur Erzeugung eines neues Neurons | |
| DE69126983T2 (de) | Einrichtung zur mustererkennung mit einem kuenstlichen neuronalen netzwerk fuer kontextabhaengige modellierung | |
| Lanchantin et al. | Unsupervised non stationary image segmentation using triplet Markov chains | |
| DE69628603T2 (de) | System zur Musteranpassung mittels einer Baumstruktur |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8139 | Disposal/non-payment of the annual fee |