[go: up one dir, main page]

DE19934845A1 - On-line estimating of Hidden-Markov model, calculating parameters of model from auxiliary sizes with at least three indices, and not through elements of time series directly - Google Patents

On-line estimating of Hidden-Markov model, calculating parameters of model from auxiliary sizes with at least three indices, and not through elements of time series directly

Info

Publication number
DE19934845A1
DE19934845A1 DE19934845A DE19934845A DE19934845A1 DE 19934845 A1 DE19934845 A1 DE 19934845A1 DE 19934845 A DE19934845 A DE 19934845A DE 19934845 A DE19934845 A DE 19934845A DE 19934845 A1 DE19934845 A1 DE 19934845A1
Authority
DE
Germany
Prior art keywords
model
time series
parameters
elements
auxiliary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19934845A
Other languages
German (de)
Inventor
Jan Christopher Stiller
Guenter Radons
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE19934845A priority Critical patent/DE19934845A1/en
Publication of DE19934845A1 publication Critical patent/DE19934845A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Complex Calculations (AREA)

Abstract

The Hidden-Markov model is estimated from a time series of input- and/or output values, whereby parameters are determined from one or several auxiliary sizes with at least three indices, not however through elements of the time series directly. The auxiliary sizes are calculated after an initialisation through repeated iterative application of a function involving a multi-dimensional real vector, whose elements are calculated either as a sum of certain elements of the auxiliary sizes, or through an iterative function. The method involves estimating a Hidden-Markov model from a time series of input- and/or output values, whereby parameters of the model are determined from one or several auxiliary sizes with at least three indices, and perhaps other sizes, not however through elements of the time series directly. The auxiliary sizes are calculated after an initialisation through repeated iterative application of a function of time, the input- and/or output values, and an multi-dimensional real vector, whose elements are calculated either as a sum of certain elements of the auxiliary sizes, or according to an initialisation through an iterative function.

Description

Die Erfindung ist ein Verfahren zum Schätzen von Hidden-Markov-Modellen (HMM) mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden- Markov-Modellen aus einer ein- oder mehrdimensionalen zeitdiskreten Reihe von Ein-Ausgabewertpaaren. Auf eine mehrdimensionale Hilfsgröße wird nach de­ ren Initialisierung für jeden Zeitschritt ein Operator angewandt, der vom Ein- Ausgabewertpaar und der aktuellen Schätzung des Automaten abhängt. Beim on- line-Schätzen wird regelmäßig, z. B. zu jedem Zeitschritt, aus der Hilfsgröße eine neue aktuelle Schätzung des Automaten berechnet, beim off-line-Lernen nachdem über alle Elemente der Zeitreihe iteriert wurde.The invention is a method for estimating hidden Markov models (HMM) with low memory requirements and for online estimation of hidden Markov models from a one- or multi-dimensional, time-discrete series of Input-output value pairs. According to de initialization, an operator is used for each time step. Output value pair and the current estimate of the machine depends. With the on- line guessing is done regularly, e.g. B. for each time step, one from the auxiliary variable new current estimate of the machine calculated after learning off-line iterated over all elements of the time series.

1. Technisches Gebiet1. Technical field

In der Analyse von Zeitreihen. z. B. in der Sprach- und Schrifterkennung, der Prozeßüberwachung und -kontrolle; werden Hidden-Markov-Modelle erfolgreich angewandt. Die Modelle müssen anhand von Beispielzeitreihen geschätzt werden.In the analysis of time series. e.g. B. in speech and font recognition, the Process monitoring and control; Hidden Markov models become successful applied. The models must be estimated using sample time series.

2. Stand der Technik2. State of the art

Zum Schätzen von Hidden-Markov-Modellen aus Zeitreihen werden meist Maximum-Likelihood-Schätzer verwandt. Die Parameter eines Modells werden so gewählt, daß die Wahrscheinlichkeit, daß die Beispielzeitreihen von dem HMM generiert werden, wenn das Modell wahr ist, maximal werden. Bei Zeitreihen fe­ ster Längen wird meist der Baum-Welch-Algorithmus angewandt [Raum 66]. Er benötigt jedoch Speicherplatz, der proportional der Gesamtlängen der Zeitrei­ hen × Anzahl der Zustände des HMMs groß ist. Liegen keine Zeitreihen fester Längen vor, sondern ein Prozeß, der Zeitreihen generiert, so muß die Ausgabe­ zeitreihe des Prozesses künstlich in Zeitreihen endlicher Länge aufgeteilt wer­ den. Mittels on-line-Algorithmen läßt sich dies vermeiden. Einem generischen Algorithmus [Titterington 84] für die on-line-Schätzung stochastischer Modelle folgend wurde ein Algorithmus für Hidden-Markov-Prozesse [Krishnamurthy 84] entwickelt. Auch andere Algorithmen, die nicht die Likelihood des Automaten maximieren [Collins 93], wurden entwickelt. In keiner uns bekannten Veröffentli­ chung ist ein Verfahren angegeben, bei dem die Modellparameter aus einer oder mehreren mit mindestens 3 Indizes behafteten Hilfgröße(n) und evtl. anderer Größen berechnet werden, und die Hilfgrößen iterativ berechnet werden, so daß keine Teile der Zeitreihe gespeichert werden müssen.To estimate hidden Markov models from time series are mostly Maximum likelihood estimator related. The parameters of a model are chosen so that the probability that the sample time series from the HMM be generated if the model is true, maximum. For time series fe The Baum-Welch algorithm is usually used for the longest lengths [room 66]. He however requires storage space that is proportional to the total length of the time series hen × number of states of the HMM is large. No time series are fixed Lengths ahead, but a process that generates time series, so the output must time series of the process artificially divided into time series of finite length the. This can be avoided using online algorithms. A generic one Algorithm [Titterington 84] for the online estimation of stochastic models subsequently an algorithm for hidden Markov processes [Krishnamurthy 84]  developed. Other algorithms that are not the likelihood of the machine maximize [Collins 93] were developed. In none of the publications known to us A method is specified in which the model parameters are derived from one or several auxiliary size (s) with at least 3 indices and possibly others Quantities are calculated, and the auxiliary quantities are calculated iteratively so that no parts of the time series need to be saved.

3. Zugrundeliegendes Problem3. Underlying problem

Die Erfindung betrifft ein Verfahren sowie eine Einrichtung zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen und stochastischen Automaten aus zeitdiskreten Zeitreihen von Ausgabesymbolen bzw. Ein-Ausgabesymbolpaaren. Im Folgenden werden beide Modelltypen als Hidden-Markov-Modelle bezeichnet. Ferner benen­ nen wir mit dem Begriff "Symbol" sowohl Symbole im engeren Sinne, als auch Zahlen oder numerische Werte. Bei E ein beliebiger deterministischer oder stocha­ stischer Prozeß, der zu jedem Zeitpunkt t ∈ 0, 1, ... ein Symbol x(t) ∈ U aus einer endlichen Menge U erzeugt, das eine Eingabe für das Hidden-Markov-Modell dar­ stellt. Bei M ein ergodischer Hidden-Markov-Prozeß mit S internen Zuständen. Zu jedem Zeitpunkt geht er von einem internen Zustand i ∈ S zu einem internen Zustand j ∈ S mit der Wahrscheinlichkeit aij (x(t)) über. Dabei wird ein Ausgabe­ symbol y ∈ V ausgegeben, wobei V eine beliebige Menge ist. Die Wahrscheinlich­ keit bzw. Wahrscheinlichkeitsdichte bei nicht endlicher Mächtigkeit von V, beim Übergang von i nach j das Ausgabesymbol y auszugeben, wenn das Eingabesym­ bol x empfangen wurde pij(y|x), ist vom Eingabesymbol x, vom Ausgabesymbol y, von i und j und von endlich vielen internen Parametern v abhängig. Zum Zeit­ punkt 0 ist die Wahrscheinlichkeit, im Zustand i zu sein, π 0|i. Für den Spezialfall endlicher Mengen der Eingabesymbole und Ausgabewerte sind die pij(y|x) selbst die internen Parameter. Ziel ist es, aus einer Reihe von Eingabe-Ausgabe-Paaren fester Länge, oder aus einem Prozeß, der Eingabe-Ausgabe-Paare generiert, das Hidden-Markov-Modell zu schätzen, d. h. die internen Parameter v zu bestimmen.The invention relates to a method and a device for estimating hidden Markov models with a low memory requirement and for on-line estimating of hidden Markov models and stochastic automatons from time-discrete time series of output symbols or input-output symbol pairs. In the following, both model types are referred to as hidden Markov models. We also use the term "symbol" to refer to symbols in the narrower sense, as well as numbers or numerical values. At E any deterministic or stochastic process, which at any time t ∈ 0, 1, ... generates a symbol x (t) ∈ U from a finite set U, which is an input for the hidden Markov model . At M an ergodic hidden Markov process with S internal states. At any point in time, it changes from an internal state i ∈ S to an internal state j ∈ S with the probability a ij (x (t)). An output symbol y ∈ V is output, where V is any quantity. The probability or density of probability with non-finite thickness of V to output the output symbol y at the transition from i to j, if the input symbol bol x was received p ij (y | x), is from the input symbol x, from the output symbol y, from i and j and dependent on a finite number of internal parameters v. At time 0, the probability of being in state i is π 0 | i. For the special case of finite sets of input symbols and output values, the p ij (y | x) are themselves the internal parameters. The aim is to estimate the hidden Markov model from a series of input-output pairs of fixed length, or from a process that generates input-output pairs, ie to determine the internal parameters v.

4. Erfindung4. Invention

Im Folgenden wird zunächst nur der Fall eines Hidden-Markov-Modells mit end­ lich vielen Eingabe- und Ausgabesymbolen betrachtet. Dieser Fall enthält al­ le wesentlichen Verfahrensschritte. Bei einem Hidden-Markov-Modell, bei dem U und V endliche Mengen sind, ohne Einschränkung der Allgemeinheit ganze Zahlen zwischen 1 und |U| bzw. |V|, wobei |.| die Mächtigkeit der jeweiligen Menge bezeichne, sind die Parameter des Modells die bedingten Übergangswahr­ scheinlichkeiten pi,j(y|x), i,j ∈ S, y ∈ U und x ∈ V und der Startvektor π 0|i. In the following, only the case of a hidden Markov model with a finite number of input and output symbols is considered. This case contains all the essential procedural steps. In a hidden Markov model, in which U and V are finite sets, integers between 1 and | U | without restriction of generality or | V |, where |. | denote the thickness of the respective set, the parameters of the model are the conditional transition probabilities p i, j (y | x), i, j ∈ S, y ∈ U and x ∈ V and the start vector π 0 | i.

Die Parameter werden iterativ aus einer Hilfgröße N T|i,j,k(y|x), i,j ∈ S, x ∈ U und y ∈ V, geschätzt, die aus einer Zeitreihe von Eingabe- und Ausgabesym­ bolen (x(t), y(t)), t = 1...T rekursiv berechnet werden, wobei von einer ersten, evtl. zufälligen Schätzung pi,j(y|x) und π 0|i ausgegangen wird.The parameters are iteratively estimated from an auxiliary variable NT | i, j, k (y | x), i, j ∈ S, x ∈ U and y ∈ V, which are derived from a time series of input and output symbols (x (t ), y (t)), t = 1 ... T are calculated recursively, starting from a first, possibly random estimate p i, j (y | x) and π 0 | i.

Eine alternative Berechnungsweise (mit demselben Ergebnis) ist die Iteration der πτ zusätzlich zu den N-Tensoren, so daß πτ statt aus Gleichung 3 berechnet wird als
An alternative calculation method (with the same result) is the iteration of the π τ in addition to the N-tensors, so that π τ is calculated as instead of from equation 3

Die neue Schätzung der Parameter (durch Überstrich gekennzeichnet) ist
The new estimate of the parameters (marked with an overline) is

Die neue Schätzung des Startvektors istThe new estimate of the starting vector is

Diese Berechnungen nach Gl. (2)-(6) werden solange wiederholt, bis ein Ab­ bruchkriterium erfüllt wird. z. B. maxi,j,y,x(pi,j(y|x) - pi,j(y|x))2 < d mit geeignet gewähltem d < 0.These calculations according to Eq. (2) - (6) are repeated until an abort criterion is met. e.g. B. max i, j, y, x (p i, j (y | x) - p i, j (y | x)) 2 <d with suitably chosen d <0.

Dieses Verfahren zum speichereffizienten Schätzen von HMM aus einer Zeitreihe kann modifiziert werden zu einem Verfahren zum on-line-Schätzen von HMM. Dabei wird regelmäßig, z. B. nach jedem Empfang eines Ein-Ausgabewertpaares, die aktuelle Schätzung von p gemäß den Gleichungen 2 und 3 geändert. Dies ergibt im einzelnen folgende Verfahrensschritte:
This method for memory-efficient estimation of HMM from a time series can be modified to a method for on-line estimation of HMM. It is regularly, for. B. after each receipt of an input-output value pair, the current estimate of p is changed according to equations 2 and 3. This results in the following procedural steps:

  • 1. wähle (y|x). 1. select (y | x).  
  • 2. wähle stochastischen Vektor π0.2. choose stochastic vector π 0 .
  • 3. setze τ = 0.3. set τ = 0.
  • 4. schätze pi,j(y|x) neu:
    4. new guess p i, j (y | x):
  • 5. berechne π τ|i: = ∈(τ) Σi,j∈S Σx∈UΣy∈VN τ|i,j,k (y|x)5. compute π τ | i: = ∈ (τ) Σ i, j∈S Σ x∈U Σ y∈V N τ | i, j, k (y | x)
  • 6. berechne N τ+1|i,j,k(y|x) gemäß Gleichung 2.6. compute N τ + 1 | i, j, k (y | x) according to equation 2.
  • 7. τ → τ + 1.7. τ → τ + 1.
  • 8. gehe zu 4.8. go to 4.

Dabei bezeichnet ∈(τ) eine beliebige reellwertige Funktion mit 0 ≦ ∈(τ), die sich als Lernrate interpretieren läßt und von der die Konvergenz der Modellparame­ ter und ihre Fluktuationen abhängen. Ein Beispiel für die Wahl von ∈(τ) ist ∈(τ) = 1/τ. Durch Wahl einer konstanten Lernrate ∈(τ) = ∈∀t läßt sich eine exponentiell abklingende Abhängigkeit der Modellparameter von zeitlich zurück­ liegenden Eingabewert-Ausgabewert-Paaren realisieren.Here ∈ (τ) denotes any real-valued function with 0 ≦ ∈ (τ), which can be interpreted as a learning rate and on which the convergence of the model parameters and their fluctuations depend. An example of choosing ∈ (τ) is ∈ (τ) = 1 / τ. By choosing a constant learning rate ∈ (τ) = ∈∀ t , an exponentially decaying dependency of the model parameters on past input-output value pairs can be realized.

Um numerische Probleme zu vermeiden, kann man nach Schritt 6 Schritt
To avoid numerical problems, one can step after step 6

  • 6a. multipliziere alle N τ+1|i,j,k(y|x) mit 1/Σi∈Sπ τ|i6a. multiply all N τ + 1 | i, j, k (y | x) by 1 / Σ i∈S π τ | i

einfügen, da Nτ insert because N τ

und πτ and π τ

nur bis auf einen gemeinsamen Faktor bestimmt sind. (siehe Gleichung 7).are determined only down to a common factor. (see equation 7).

Alternativ kann Schritt 5 ersetzt werden durch:
Alternatively, step 5 can be replaced by:

  • V. berechne π τ|i: = ∈(τ) Σj∈S ai,j(y(τ)|x(τ))π τ-1|j.V. calculate π τ | i: = ∈ (τ) Σ j∈S a i, j (y (τ) | x (τ)) π τ-1 | j.

Dann muss statt Schritt 6a. ausgeführt werden:
Then instead of step 6a. be carried out:

  • VIa. multipliziere alle N τ+1|i,j,k(y|x) und π τ|i mit 1/Σi∈Sπ τ|i.Via. multiply all N τ + 1 | i, j, k (y | x) and π τ | i by 1 / Σ i∈S π τ | i.

Dieses Verfahren kann auch für andere Typen von HMM verwandt werden, z. B. Hidden-Markov-Modelle mit Gauß'scher Ausgabewahrscheinlichkeit und oh­ ne Eingabesymbole. Dies wird im Folgenden gezeigt. Für Hidden-Markov-Modelle mit Gauß'scher Ausgabewahrscheinlichkeit und ohne Eingabesymbole ist die be­ dingte Wahrscheinlichkeit, den Wert y zum Zeitpunkt t auszugeben und zum Zustand j zu gehen, wenn das Modell in dem Zustand i ist
This method can also be used for other types of HMM, e.g. B. Hidden Markov models with Gaussian output probability and without ne input symbols. This is shown below. For hidden Markov models with Gaussian output probability and without input symbols, the conditional probability is to output the value y at time t and to go to state j if the model is in state i

Die Parameter des Modells sind αij, µi und σ 2|i. Sie können aus folgenden Hilfs­ größen berechnet werden: N τ|i,j,k, M τ|i,k(y) und S τ|i,k(y), die wiederum nach der In­ itialisierung iterativ berechnet werden:
The parameters of the model are α ij , µ i and σ 2 | i. They can be calculated from the following auxiliary variables: N τ | i, j, k, M τ | i, k (y) and S τ | i, k (y), which in turn are calculated iteratively after initialization:

Die neuen Schätzungen der Parameter des HMM (durch Überstrich gekennzeich­ net) werden berechnet als
The new estimates of the parameters of the HMM (marked by an overline) are calculated as

Ansonsten wird analog zu oben beschriebenem Verfahrensablauf vorgegangen.Otherwise, the procedure is analogous to that described above.

Dieses Verfahren kann variiert werden, in dem oben beschriebene Rechnungen nur für einige der Parameter, z. B. die Übergangswahrscheinlichkeiten, ausgeführt werden, andere Parameter jedoch mit anderen Verfahren geschätzt werden. Wei­ terhin kann das Verfahren abgewandelt werden, indem alle oder einige Größen nur approximativ berechnet werden. This procedure can be varied in the calculations described above only for some of the parameters, e.g. B. the transition probabilities other parameters are estimated using other methods. Wei Furthermore, the procedure can be modified by adding all or some sizes can only be calculated approximately.  

5. Gewerbliche Anwendbarkeit5. Industrial applicability

Die angegebenen Verfahren können bei allen Verwendungen, in denen Hidden- Marlov-Modelle aus einer Zeitreihe geschätzt werden, eingesetzt werden.The specified methods can be used for all uses in which hidden Marlov models from a time series are estimated to be used.

6. Vorteilhafte Auswirkungen6. Beneficial effects

Das Verfahren zum off-line-Schätzen zeichnet sich dadurch aus, daß im Gegen­ satz zur üblichen Forward-Backward-Prozedur der Speicherbedarf unabhängig von der Länge der Zeitreihe, und damit für typische Anwendungen wesentlich geringer ist, während bei der bisher üblichen Forward-Backward-Prozedur der Speicherbedarf proportional zur Länge der Zeitreihe ist. Das on-line-Verfahren zeichnet sich dadurch aus, daß die Elemente der Zeitreihe, auf deren Grundlage das Modell zu schätzen ist, nicht gespeichert werden müssen. Dies ermöglicht die Implementierung des Verfahrens mithilfe integrierter elektronischer Bauteile (IC's), die nur über wenig Speicher verfügen, z. B. mittels nur eines Chips. Mithilfe des on-line-Verfahrens ist die Bestimmung komplexer Größen, der Modellparame­ ter aus einfachen Meßwerten. z. B. zur Prozeßüberwachung, zu jedem Zeitpunkt möglich.The method for off-line estimation is characterized in that in the opposite independent of the usual forward-backward procedure on the length of the time series, and therefore essential for typical applications is lower, whereas in the forward-backward procedure which has been customary to date, Memory requirement is proportional to the length of the time series. The online procedure is characterized in that the elements of the time series, based on them the model is to be estimated, does not need to be saved. this makes possible the implementation of the process using integrated electronic components (IC's) that have little memory, e.g. B. using only one chip. Help The on-line method is the determination of complex sizes, the model parameter ter from simple measured values. e.g. B. for process monitoring at any time possible.

7. Figurenbeschreibung7. Description of the figures

Figur Nr. 1: Ein beliebiger autonomer deterministischer oder stochastischer Pro­ zeß E generiert Symbolketten x, welche die Eingabe des HMM darstellen. Der Hidden-Markov-Prozeß HMM mit internen Parametern v geht in Abhängigkeit vom jeweils erhaltenen Eingabesymbol x in einen neuen Zustand über und gibt ei­ ne Ausgabewert y aus. Der Beobachter beobachtet das Eingabesymbol x und den Ausgabewert y, nicht jedoch die internen Zustände und die internen Parameter des Automaten.Figure No. 1: Any autonomous deterministic or stochastic pro zeß E generates symbol chains x, which represent the input of the HMM. The Hidden Markov process HMM with internal parameters v is dependent from the input symbol x received to a new state and gives egg ne output value y. The observer observes the input symbol x and the Output value y, but not the internal states and the internal parameters of the machine.

Figur Nr. 2: Ein Hidden-Markov-Prozeß, hier als Beispiel mit 3 Zuständen und endlicher Menge der Ausgabesymbole V, ist dargestellt. Bei Empfang eines Ein­ gabesymbols geht der Prozeß von seinem aktuellen Zustand i in einen neuen Zustand j über und gibt einen Ausgabewert y ∈ V aus mit Wahrscheinlichkeit pi,j(y|x). Figure No. 2: A hidden Markov process, here as an example with 3 states and a finite set of output symbols V, is shown. Upon receipt of an input symbol, the process changes from its current state i to a new state j and outputs an output value y ∈ V with probability p i, j (y | x).

Literaturliterature

[Titterington 84] D. M. Titterington. Recursive parameter estimation using in­ complete data. J. R. Statist. Soc. B 46, 257 (1984).
[Krishnamurthy 84] V. Krishnamurthy, J. B. Moore. On-line estimation of Hid­ den Makov Model parameters based on the Kullback-Leibler information measure. IEEE. Transact. on Signal. Proc 41, 2557 (1993).
[Collins 93] I. B. Collins, V. Krishnamurthy, J. B. Moore. On-line estimation of Hidden Makov Models via recursive prediction error techniques. IEEE. Transacton Signal. Proc 41. 2557 (1993).[Baum 66] L. E. Baum. T. Petrie. Ann. Math. Statist. 30, 1 554 (1966).
[Stiller 98) J. C. Stiller. Hidden-Markov-Modelle: Unüberwachtes Lernen und Klassifikation. Diss., Univ. Kiel (1998).
[Titterington 84] DM Titterington. Recursive parameter estimation using in complete data. JR Statist. Soc. B 46, 257 (1984).
[Krishnamurthy 84] V. Krishnamurthy, JB Moore. On-line estimation of Hid den Makov Model parameters based on the Kullback-Leibler information measure. IEEE. Transact. on signal. Proc 41, 2557 (1993).
[Collins 93] IB Collins, V. Krishnamurthy, JB Moore. On-line estimation of hidden Makov models via recursive prediction error techniques. IEEE. Transacton signal. Proc 41, 2557 (1993). [Tree 66] LE Tree. T. Petrie. Ann. Math. Statist. 30, 1 554 (1966).
[Stiller 98) JC Stiller. Hidden Markov Models: Unsupervised Learning and Classification. Diss., Univ. Kiel (1998).

Claims (13)

1. Verfahren zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen aus einer Zeitreihe von Eingabe- und Ausgabewerten oder von Ausgabewer­ ten, dadurch gekennzeichnet, daß Parameter v des Modells aus einer oder mehreren mit mindestens 3 Indizes behafteten Hilfsgröße(n) Nl(y|x) und evtl. anderer Größen, nicht jedoch durch Elemente der Zeitreihe di­ rekt, berechnet werden und die Hilfsgrößen nach einer Initialisierung durch wiederholte iterative Anwendung einer Funktion Gl berechnet werden als Nl;t+1(y|x) := Gl(Nl;t(y|x), x(t+1), y(t+1), t, πτ, v), wobei Nl;t die zur Zeit t gehörige l-te Hilfsgröße, x(t) den zur Zeit t gehörige Eingabewert und y(t) den zur Zeit t gehörigen Ausgabewert bezeichnet, πt einen s-dimensionalen reellen Vektor bezeichnet, dessen Elemente entweder als Summe über be­ stimmte Elemente der Hilfsgrößen Nl;t berechnet werden, oder nach einer Initialisierung durch t-fach wiederholte iterative Anwendung einer Funkti­ on B berechnet werden als πt+1 = B(πt, x(t+1), y(t+1),v), wobei s die Anzahl der Zustände des Hidden-Markov-Modells ist.1. A method for estimating hidden Markov models with low memory requirements and for on-line estimating hidden Markov models from a time series of input and output values or from output values, characterized in that parameters v of the model from a or more auxiliary variables (n) N l (y | x) and possibly other variables with at least 3 indices, but not directly from elements of the time series, and the auxiliary variables are calculated after an initialization by repeated iterative application of a function G l are expressed as N l; t + 1 (y | x): = G l (N l; t (y | x), x (t + 1), y (t + 1), t, π τ , v), where N l; t denotes the lth auxiliary variable belonging to time t, x (t) the input value belonging to time t and y (t) the output value belonging to time t, π t denotes an s-dimensional real vector, the elements of which either calculated as a sum over certain elements of the auxiliary variables N l; t , or after an initialization by iterative repeated t times Application of a function B are calculated as π t + 1 = B (π t , x (t + 1), y (t + 1), v), where s is the number of states of the hidden Markov model. 2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, daß π t+1|j = Σ s|i∈S π t|i pi,j(y(t+1)|x(t+1); v) / C(πt) gilt, wobei C eine reel­ le Funktion ist, π t|j die j-te Koordinate des Vektors π nach t Iterationen, v die aktuelle Schätzung der Parameter des Modells und pi,j(y|x; v) die Wahrscheinlichkeit des Modells in den Zustand j überzugehen und den Ausgabewert y auszugeben, wenn das Modell im Zustand i ist, das Eingabesymbol x ist und die Parameter v sind, bezeichnet.2. The method according to claim 1, characterized in that π t + 1 | j = Σ s | i∈S π t | ip i, j (y (t + 1) | x (t + 1); v) / C (π t ) applies, where C is a real function, π t | j the jth coordinate of the vector π after t iterations, v the current estimate of the parameters of the model and p i, j (y | x; v) the probability of the model transitioning to state j and outputting the output value y when the model is in state i, the input symbol is x and the parameters are v. 3. Verfahren gemäß mindestens einem der Ansprüche 1-2, dadurch gekenn­ zeichnet, daß π t+1|j = Σ s|i∈S π t|i pi,j(y(t+1)|x(t+1); v) / (Σi∈S Σ s|j∈S π t|i pi,j(y(t+1)|x(t+1); v) gilt.3. The method according to at least one of claims 1-2, characterized in that π t + 1 | j = Σ s | i∈S π t | ip i, j (y (t + 1) | x (t + 1 ); v) / (Σ i∈S Σ s | j∈S π t | ip i, j (y (t + 1) | x (t + 1); v) applies. 4. Verfahren gemäß mindestens einem der Ansprüche 1-3, dadurch ge­ kennzeichnet. daß für πt und mindestens eine der Hilfsgrößen Nl gilt: π τ+1|i := ∈(τ) Σi,j∈S Σx∈UΣy∈VN l,τ|i,j,k(y|x) bei ∈(τ) eine beliebige reell­ wertige Funktion mit ist.4. The method according to at least one of claims 1-3, characterized in. that for π t and at least one of the auxiliary quantities N l : π τ + 1 | i: = ∈ (τ) Σ i, j∈S Σ x∈U Σ y∈V N l, τ | i, j, k ( y | x) at ∈ (τ) is any real-valued function with. 5. Verfahren gemäß Anspruch 4, dadurch gekennzeichnet, daß ∈(τ) = 1/τ ist.5. The method according to claim 4, characterized in that ∈ (τ) = 1 / τ. 6. Verfahren gemäß Anspruch 4, dadurch gekennzeichnet, daß ∈(t) = ∈ gilt für alle t < tc, wobei ∈ eine beliebige, nicht negative reelle Zahl und tc eine beliebige, nicht negative ganze Zahl ist.6. The method according to claim 4, characterized in that ∈ (t) = ∈ applies to all t <t c , where ∈ is an arbitrary, non-negative real number and t c is an arbitrary, non-negative integer. 7. Verfahren gemäß mindestens einem der Ansprüche 1-5, dadurch gekenn­ zeichnet, daß der Wertebereich der Eingabesymbole die Mächtigkeit 1 hat. 7. The method according to at least one of claims 1-5, characterized indicates that the value range of the input symbols has the thickness 1.   8. Verfahren gemäß mindestens einem der Ansprüche 1-7, dadurch gekenn­ zeichnet, daß der Wertebereich der Ausgabesymbole eine endliche Menge ist.8. The method according to at least one of claims 1-7, characterized indicates that the range of values of the output symbols is a finite set is. 9. Verfahren gemäß mindestens einem der Anspüche 1-7, dadurch gekennzeichnet, daß für mindestens eine der Hilfsgrößen Nl gilt: N l;τ+1|i,j,k (y|x) = hi,j,k ( (y|x) (x(τ+1)|y(τ+1)),t) + gi,j,k( π τ|i δy,y(τ+1) δx,x(τ+1) pi,j(x|y) δj,k,t) wobei hi,j,k und gi,j,k für alle i,j,k beliebig reelwertige Funktionen sind.9. The method according to at least one of claims 1-7, characterized in that for at least one of the auxiliary variables N l : N l; τ + 1 | i, j, k (y | x) = h i, j, k ( (y | x) (x (τ + 1) | y (τ + 1)), t) + g i, j, k (π τ | i δ y, y (τ + 1) δ x, x (τ +1) p i, j (x | y) δ j, k, t) where h i, j, k and g i, j, k for all i, j, k arbitrarily reelwertige functions. 10. Verfahren gemäß mindestens einem der Ansprüche 1-9, da­ durch gekennzeichnet, daß für mindestens eine der Hilfsgrößen Nl gilt: N l;τ+1|i,j,k (y|x) = ( (y|x) (y(τ+1)|x(τ+1)),t) + ∈(τ) δy,y(τ+1) δx,x(τ+1) p τ|i,j (y|x) δj,k Σl,m∈S Σx∈U Σy∈V N l;τ|l,m,i (y|x), wobei ∈(τ) eine beliebige reelwertige Funktion ist.10. The method according to at least one of claims 1-9, characterized in that the following applies to at least one of the auxiliary variables N l : N l; τ + 1 | i, j, k (y | x) = ((y | x) (y (τ + 1) | x (τ + 1)), t) + ∈ (τ) δ y, y (τ + 1) δ x, x (τ + 1) p τ | i, j (y | x) δ j, k Σ l, m∈S Σ x∈U Σ y∈V N l; τ | l, m, i (y | x), where ∈ (τ) is an arbitrary real function. 11. Verfahren gemäß Anspruch 10, dadurch gekennzeichnet, daß ∈(t) = ∈ gilt für alle t < tc, wobei ∈ eine beliebige, nicht negative reelle Zahl und tc eine beliebige, nicht negative ganze Zahl ist.11. The method according to claim 10, characterized in that ∈ (t) = ∈ applies to all t <t c , where ∈ is an arbitrary, non-negative real number and t c is an arbitrary, non-negative integer. 12. Verfahren gemäß mindestens einem der Ansprüche 1-11, dadurch ge­ kennzeichnet, daß über Parameter des Hidden-Markov-Prozesses a-priori- Informationen vorliegen, so daß die Berechnungen vereinfacht werden können.12. The method according to at least one of claims 1-11, characterized ge indicates that parameters of the hidden Markov process a priori Information is available so that the calculations are simplified can. 13. Einrichtung, dadurch gekennzeichnet, daß sie mindestens einer der Verfah­ ren gemäß Ansprüchen 1-12 in digitaler oder analoger Weise nutzt.13. Device, characterized in that it has at least one of the procedural uses ren according to claims 1-12 in a digital or analog manner.
DE19934845A 1998-07-25 1999-07-24 On-line estimating of Hidden-Markov model, calculating parameters of model from auxiliary sizes with at least three indices, and not through elements of time series directly Withdrawn DE19934845A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19934845A DE19934845A1 (en) 1998-07-25 1999-07-24 On-line estimating of Hidden-Markov model, calculating parameters of model from auxiliary sizes with at least three indices, and not through elements of time series directly

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19833627 1998-07-25
DE19934845A DE19934845A1 (en) 1998-07-25 1999-07-24 On-line estimating of Hidden-Markov model, calculating parameters of model from auxiliary sizes with at least three indices, and not through elements of time series directly

Publications (1)

Publication Number Publication Date
DE19934845A1 true DE19934845A1 (en) 2000-03-16

Family

ID=7875365

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19934845A Withdrawn DE19934845A1 (en) 1998-07-25 1999-07-24 On-line estimating of Hidden-Markov model, calculating parameters of model from auxiliary sizes with at least three indices, and not through elements of time series directly

Country Status (1)

Country Link
DE (1) DE19934845A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002039773A1 (en) * 2000-11-13 2002-05-16 Siemens Aktiengesellschaft Method and device for traffic localisation in a cellular mobile radio network
DE10116984A1 (en) * 2001-04-05 2002-10-10 Rainer Martin Voice, audio signal transmission involves dividing parameters into several packets so packet to be transmitted can also contain parameters of current and preceding or subsequent frames
DE10123572C1 (en) * 2001-05-08 2003-01-23 Senslab Gmbh Automated online analysis of series of measurements involves evaluating sampling values relevant to analysis depending on association with model curve determined by mathematical model

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002039773A1 (en) * 2000-11-13 2002-05-16 Siemens Aktiengesellschaft Method and device for traffic localisation in a cellular mobile radio network
DE10116984A1 (en) * 2001-04-05 2002-10-10 Rainer Martin Voice, audio signal transmission involves dividing parameters into several packets so packet to be transmitted can also contain parameters of current and preceding or subsequent frames
DE10123572C1 (en) * 2001-05-08 2003-01-23 Senslab Gmbh Automated online analysis of series of measurements involves evaluating sampling values relevant to analysis depending on association with model curve determined by mathematical model

Similar Documents

Publication Publication Date Title
DE69324052T2 (en) Neural network learning system
DE69726526T2 (en) Scheme and model adaptation for pattern recognition based on Taylor expansion
DE102023125635A1 (en) IMAGE AND OBJECT INPAINTING WITH DIFFUSION MODELS
DE60309142T2 (en) System for estimating parameters of a Gaussian mixture model (GMM) or a GMM-based hidden Markov model
DE69031866T2 (en) Method and arrangement for signal processing by the eigenvector transformation
DE69414752T2 (en) Speaker independent recognition system for isolated words using a neural network
DE102023124207A1 (en) Single-image concept encoder for personalization using a pre-trained diffusion model
DE69129015T2 (en) Speaker-independent device for marking coding
DE60000134T2 (en) Unsupervised adaptation of a speech recognizer using reliable information from the best N computational hypotheses
DE60204374T2 (en) Voice recognition device
DE60109999T2 (en) Speech recognition using lexical trees
DE102013213397A1 (en) Method and apparatus for providing support point data for a data-based function model
DE212022000260U1 (en) Evaluating output sequences using a neural autoregressive language model network
DE69613293T2 (en) Pattern matching device for speech or pattern recognition
EP3736817A1 (en) Checking and / or improvement in the consistency of data codes in medical image processing
DE69330021T2 (en) Improved pattern recognition system for sonar and other applications
CN104657776A (en) Neural network system, as well as image analysis method and device based on neural network system
DE112021005925T5 (en) DOMAIN GENERALIZED SCOPE OVER METALLER TO DEEP FACE RECOGNITION
DE102024114452A1 (en) GENERATIVE IMAGE FILLING USING A REFERENCE IMAGE
Zhong et al. A new formulation of coupled hidden Markov models
DE112023003762T5 (en) COMPOSITIONAL IMAGE CREATION AND EDITING
DE69333247T2 (en) Training method and device for generating a new neuron
DE69126983T2 (en) DEVICE FOR PATTERN RECOGNITION WITH AN ARTIFICIAL NEURAL NETWORK FOR CONTEXT-RELATED MODELING
Lanchantin et al. Unsupervised non stationary image segmentation using triplet Markov chains
DE69628603T2 (en) System for pattern matching using a tree structure

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee