DE19934845A1 - On-line estimating of Hidden-Markov model, calculating parameters of model from auxiliary sizes with at least three indices, and not through elements of time series directly - Google Patents
On-line estimating of Hidden-Markov model, calculating parameters of model from auxiliary sizes with at least three indices, and not through elements of time series directlyInfo
- Publication number
- DE19934845A1 DE19934845A1 DE19934845A DE19934845A DE19934845A1 DE 19934845 A1 DE19934845 A1 DE 19934845A1 DE 19934845 A DE19934845 A DE 19934845A DE 19934845 A DE19934845 A DE 19934845A DE 19934845 A1 DE19934845 A1 DE 19934845A1
- Authority
- DE
- Germany
- Prior art keywords
- model
- time series
- parameters
- elements
- auxiliary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
- G10L15/144—Training of HMMs
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Complex Calculations (AREA)
Abstract
Description
Die Erfindung ist ein Verfahren zum Schätzen von Hidden-Markov-Modellen (HMM) mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden- Markov-Modellen aus einer ein- oder mehrdimensionalen zeitdiskreten Reihe von Ein-Ausgabewertpaaren. Auf eine mehrdimensionale Hilfsgröße wird nach de ren Initialisierung für jeden Zeitschritt ein Operator angewandt, der vom Ein- Ausgabewertpaar und der aktuellen Schätzung des Automaten abhängt. Beim on- line-Schätzen wird regelmäßig, z. B. zu jedem Zeitschritt, aus der Hilfsgröße eine neue aktuelle Schätzung des Automaten berechnet, beim off-line-Lernen nachdem über alle Elemente der Zeitreihe iteriert wurde.The invention is a method for estimating hidden Markov models (HMM) with low memory requirements and for online estimation of hidden Markov models from a one- or multi-dimensional, time-discrete series of Input-output value pairs. According to de initialization, an operator is used for each time step. Output value pair and the current estimate of the machine depends. With the on- line guessing is done regularly, e.g. B. for each time step, one from the auxiliary variable new current estimate of the machine calculated after learning off-line iterated over all elements of the time series.
In der Analyse von Zeitreihen. z. B. in der Sprach- und Schrifterkennung, der Prozeßüberwachung und -kontrolle; werden Hidden-Markov-Modelle erfolgreich angewandt. Die Modelle müssen anhand von Beispielzeitreihen geschätzt werden.In the analysis of time series. e.g. B. in speech and font recognition, the Process monitoring and control; Hidden Markov models become successful applied. The models must be estimated using sample time series.
Zum Schätzen von Hidden-Markov-Modellen aus Zeitreihen werden meist Maximum-Likelihood-Schätzer verwandt. Die Parameter eines Modells werden so gewählt, daß die Wahrscheinlichkeit, daß die Beispielzeitreihen von dem HMM generiert werden, wenn das Modell wahr ist, maximal werden. Bei Zeitreihen fe ster Längen wird meist der Baum-Welch-Algorithmus angewandt [Raum 66]. Er benötigt jedoch Speicherplatz, der proportional der Gesamtlängen der Zeitrei hen × Anzahl der Zustände des HMMs groß ist. Liegen keine Zeitreihen fester Längen vor, sondern ein Prozeß, der Zeitreihen generiert, so muß die Ausgabe zeitreihe des Prozesses künstlich in Zeitreihen endlicher Länge aufgeteilt wer den. Mittels on-line-Algorithmen läßt sich dies vermeiden. Einem generischen Algorithmus [Titterington 84] für die on-line-Schätzung stochastischer Modelle folgend wurde ein Algorithmus für Hidden-Markov-Prozesse [Krishnamurthy 84] entwickelt. Auch andere Algorithmen, die nicht die Likelihood des Automaten maximieren [Collins 93], wurden entwickelt. In keiner uns bekannten Veröffentli chung ist ein Verfahren angegeben, bei dem die Modellparameter aus einer oder mehreren mit mindestens 3 Indizes behafteten Hilfgröße(n) und evtl. anderer Größen berechnet werden, und die Hilfgrößen iterativ berechnet werden, so daß keine Teile der Zeitreihe gespeichert werden müssen.To estimate hidden Markov models from time series are mostly Maximum likelihood estimator related. The parameters of a model are chosen so that the probability that the sample time series from the HMM be generated if the model is true, maximum. For time series fe The Baum-Welch algorithm is usually used for the longest lengths [room 66]. He however requires storage space that is proportional to the total length of the time series hen × number of states of the HMM is large. No time series are fixed Lengths ahead, but a process that generates time series, so the output must time series of the process artificially divided into time series of finite length the. This can be avoided using online algorithms. A generic one Algorithm [Titterington 84] for the online estimation of stochastic models subsequently an algorithm for hidden Markov processes [Krishnamurthy 84] developed. Other algorithms that are not the likelihood of the machine maximize [Collins 93] were developed. In none of the publications known to us A method is specified in which the model parameters are derived from one or several auxiliary size (s) with at least 3 indices and possibly others Quantities are calculated, and the auxiliary quantities are calculated iteratively so that no parts of the time series need to be saved.
Die Erfindung betrifft ein Verfahren sowie eine Einrichtung zum Schätzen von Hidden-Markov-Modellen mit geringem Speicherbedarf und zum on-line-Schätzen von Hidden-Markov-Modellen und stochastischen Automaten aus zeitdiskreten Zeitreihen von Ausgabesymbolen bzw. Ein-Ausgabesymbolpaaren. Im Folgenden werden beide Modelltypen als Hidden-Markov-Modelle bezeichnet. Ferner benen nen wir mit dem Begriff "Symbol" sowohl Symbole im engeren Sinne, als auch Zahlen oder numerische Werte. Bei E ein beliebiger deterministischer oder stocha stischer Prozeß, der zu jedem Zeitpunkt t ∈ 0, 1, ... ein Symbol x(t) ∈ U aus einer endlichen Menge U erzeugt, das eine Eingabe für das Hidden-Markov-Modell dar stellt. Bei M ein ergodischer Hidden-Markov-Prozeß mit S internen Zuständen. Zu jedem Zeitpunkt geht er von einem internen Zustand i ∈ S zu einem internen Zustand j ∈ S mit der Wahrscheinlichkeit aij (x(t)) über. Dabei wird ein Ausgabe symbol y ∈ V ausgegeben, wobei V eine beliebige Menge ist. Die Wahrscheinlich keit bzw. Wahrscheinlichkeitsdichte bei nicht endlicher Mächtigkeit von V, beim Übergang von i nach j das Ausgabesymbol y auszugeben, wenn das Eingabesym bol x empfangen wurde pij(y|x), ist vom Eingabesymbol x, vom Ausgabesymbol y, von i und j und von endlich vielen internen Parametern v abhängig. Zum Zeit punkt 0 ist die Wahrscheinlichkeit, im Zustand i zu sein, π 0|i. Für den Spezialfall endlicher Mengen der Eingabesymbole und Ausgabewerte sind die pij(y|x) selbst die internen Parameter. Ziel ist es, aus einer Reihe von Eingabe-Ausgabe-Paaren fester Länge, oder aus einem Prozeß, der Eingabe-Ausgabe-Paare generiert, das Hidden-Markov-Modell zu schätzen, d. h. die internen Parameter v zu bestimmen.The invention relates to a method and a device for estimating hidden Markov models with a low memory requirement and for on-line estimating of hidden Markov models and stochastic automatons from time-discrete time series of output symbols or input-output symbol pairs. In the following, both model types are referred to as hidden Markov models. We also use the term "symbol" to refer to symbols in the narrower sense, as well as numbers or numerical values. At E any deterministic or stochastic process, which at any time t ∈ 0, 1, ... generates a symbol x (t) ∈ U from a finite set U, which is an input for the hidden Markov model . At M an ergodic hidden Markov process with S internal states. At any point in time, it changes from an internal state i ∈ S to an internal state j ∈ S with the probability a ij (x (t)). An output symbol y ∈ V is output, where V is any quantity. The probability or density of probability with non-finite thickness of V to output the output symbol y at the transition from i to j, if the input symbol bol x was received p ij (y | x), is from the input symbol x, from the output symbol y, from i and j and dependent on a finite number of internal parameters v. At time 0, the probability of being in state i is π 0 | i. For the special case of finite sets of input symbols and output values, the p ij (y | x) are themselves the internal parameters. The aim is to estimate the hidden Markov model from a series of input-output pairs of fixed length, or from a process that generates input-output pairs, ie to determine the internal parameters v.
Im Folgenden wird zunächst nur der Fall eines Hidden-Markov-Modells mit end lich vielen Eingabe- und Ausgabesymbolen betrachtet. Dieser Fall enthält al le wesentlichen Verfahrensschritte. Bei einem Hidden-Markov-Modell, bei dem U und V endliche Mengen sind, ohne Einschränkung der Allgemeinheit ganze Zahlen zwischen 1 und |U| bzw. |V|, wobei |.| die Mächtigkeit der jeweiligen Menge bezeichne, sind die Parameter des Modells die bedingten Übergangswahr scheinlichkeiten pi,j(y|x), i,j ∈ S, y ∈ U und x ∈ V und der Startvektor π 0|i. In the following, only the case of a hidden Markov model with a finite number of input and output symbols is considered. This case contains all the essential procedural steps. In a hidden Markov model, in which U and V are finite sets, integers between 1 and | U | without restriction of generality or | V |, where |. | denote the thickness of the respective set, the parameters of the model are the conditional transition probabilities p i, j (y | x), i, j ∈ S, y ∈ U and x ∈ V and the start vector π 0 | i.
Die Parameter werden iterativ aus einer Hilfgröße N T|i,j,k(y|x), i,j ∈ S, x ∈ U und y ∈ V, geschätzt, die aus einer Zeitreihe von Eingabe- und Ausgabesym bolen (x(t), y(t)), t = 1...T rekursiv berechnet werden, wobei von einer ersten, evtl. zufälligen Schätzung pi,j(y|x) und π 0|i ausgegangen wird.The parameters are iteratively estimated from an auxiliary variable NT | i, j, k (y | x), i, j ∈ S, x ∈ U and y ∈ V, which are derived from a time series of input and output symbols (x (t ), y (t)), t = 1 ... T are calculated recursively, starting from a first, possibly random estimate p i, j (y | x) and π 0 | i.
Eine alternative Berechnungsweise (mit demselben Ergebnis) ist die Iteration der
πτ zusätzlich zu den N-Tensoren, so daß πτ statt aus Gleichung 3 berechnet wird
als
An alternative calculation method (with the same result) is the iteration of the π τ in addition to the N-tensors, so that π τ is calculated as instead of from equation 3
Die neue Schätzung der Parameter (durch Überstrich gekennzeichnet) ist
The new estimate of the parameters (marked with an overline) is
Die neue Schätzung des Startvektors istThe new estimate of the starting vector is
Diese Berechnungen nach Gl. (2)-(6) werden solange wiederholt, bis ein Ab bruchkriterium erfüllt wird. z. B. maxi,j,y,x(pi,j(y|x) - pi,j(y|x))2 < d mit geeignet gewähltem d < 0.These calculations according to Eq. (2) - (6) are repeated until an abort criterion is met. e.g. B. max i, j, y, x (p i, j (y | x) - p i, j (y | x)) 2 <d with suitably chosen d <0.
Dieses Verfahren zum speichereffizienten Schätzen von HMM aus einer Zeitreihe
kann modifiziert werden zu einem Verfahren zum on-line-Schätzen von HMM.
Dabei wird regelmäßig, z. B. nach jedem Empfang eines Ein-Ausgabewertpaares,
die aktuelle Schätzung von p gemäß den Gleichungen 2 und 3 geändert. Dies
ergibt im einzelnen folgende Verfahrensschritte:
This method for memory-efficient estimation of HMM from a time series can be modified to a method for on-line estimation of HMM. It is regularly, for. B. after each receipt of an input-output value pair, the current estimate of p is changed according to equations 2 and 3. This results in the following procedural steps:
- 1. wähle (y|x). 1. select (y | x).
- 2. wähle stochastischen Vektor π0.2. choose stochastic vector π 0 .
- 3. setze τ = 0.3. set τ = 0.
-
4. schätze pi,j(y|x) neu:
4. new guess p i, j (y | x):
- 5. berechne π τ|i: = ∈(τ) Σi,j∈S Σx∈UΣy∈VN τ|i,j,k (y|x)5. compute π τ | i: = ∈ (τ) Σ i, j∈S Σ x∈U Σ y∈V N τ | i, j, k (y | x)
- 6. berechne N τ+1|i,j,k(y|x) gemäß Gleichung 2.6. compute N τ + 1 | i, j, k (y | x) according to equation 2.
- 7. τ → τ + 1.7. τ → τ + 1.
- 8. gehe zu 4.8. go to 4.
Dabei bezeichnet ∈(τ) eine beliebige reellwertige Funktion mit 0 ≦ ∈(τ), die sich als Lernrate interpretieren läßt und von der die Konvergenz der Modellparame ter und ihre Fluktuationen abhängen. Ein Beispiel für die Wahl von ∈(τ) ist ∈(τ) = 1/τ. Durch Wahl einer konstanten Lernrate ∈(τ) = ∈∀t läßt sich eine exponentiell abklingende Abhängigkeit der Modellparameter von zeitlich zurück liegenden Eingabewert-Ausgabewert-Paaren realisieren.Here ∈ (τ) denotes any real-valued function with 0 ≦ ∈ (τ), which can be interpreted as a learning rate and on which the convergence of the model parameters and their fluctuations depend. An example of choosing ∈ (τ) is ∈ (τ) = 1 / τ. By choosing a constant learning rate ∈ (τ) = ∈∀ t , an exponentially decaying dependency of the model parameters on past input-output value pairs can be realized.
Um numerische Probleme zu vermeiden, kann man nach Schritt 6 Schritt
To avoid numerical problems, one can step after step 6
- 6a. multipliziere alle N τ+1|i,j,k(y|x) mit 1/Σi∈Sπ τ|i6a. multiply all N τ + 1 | i, j, k (y | x) by 1 / Σ i∈S π τ | i
einfügen, da Nτ insert because N τ
und πτ and π τ
nur bis auf einen gemeinsamen Faktor bestimmt sind. (siehe Gleichung 7).are determined only down to a common factor. (see equation 7).
Alternativ kann Schritt 5 ersetzt werden durch:
Alternatively, step 5 can be replaced by:
- V. berechne π τ|i: = ∈(τ) Σj∈S ai,j(y(τ)|x(τ))π τ-1|j.V. calculate π τ | i: = ∈ (τ) Σ j∈S a i, j (y (τ) | x (τ)) π τ-1 | j.
Dann muss statt Schritt 6a. ausgeführt werden:
Then instead of step 6a. be carried out:
- VIa. multipliziere alle N τ+1|i,j,k(y|x) und π τ|i mit 1/Σi∈Sπ τ|i.Via. multiply all N τ + 1 | i, j, k (y | x) and π τ | i by 1 / Σ i∈S π τ | i.
Dieses Verfahren kann auch für andere Typen von HMM verwandt werden,
z. B. Hidden-Markov-Modelle mit Gauß'scher Ausgabewahrscheinlichkeit und oh
ne Eingabesymbole. Dies wird im Folgenden gezeigt. Für Hidden-Markov-Modelle
mit Gauß'scher Ausgabewahrscheinlichkeit und ohne Eingabesymbole ist die be
dingte Wahrscheinlichkeit, den Wert y zum Zeitpunkt t auszugeben und zum
Zustand j zu gehen, wenn das Modell in dem Zustand i ist
This method can also be used for other types of HMM, e.g. B. Hidden Markov models with Gaussian output probability and without ne input symbols. This is shown below. For hidden Markov models with Gaussian output probability and without input symbols, the conditional probability is to output the value y at time t and to go to state j if the model is in state i
Die Parameter des Modells sind αij, µi und σ 2|i. Sie können aus folgenden Hilfs
größen berechnet werden: N τ|i,j,k, M τ|i,k(y) und S τ|i,k(y), die wiederum nach der In
itialisierung iterativ berechnet werden:
The parameters of the model are α ij , µ i and σ 2 | i. They can be calculated from the following auxiliary variables: N τ | i, j, k, M τ | i, k (y) and S τ | i, k (y), which in turn are calculated iteratively after initialization:
Die neuen Schätzungen der Parameter des HMM (durch Überstrich gekennzeich
net) werden berechnet als
The new estimates of the parameters of the HMM (marked by an overline) are calculated as
Ansonsten wird analog zu oben beschriebenem Verfahrensablauf vorgegangen.Otherwise, the procedure is analogous to that described above.
Dieses Verfahren kann variiert werden, in dem oben beschriebene Rechnungen nur für einige der Parameter, z. B. die Übergangswahrscheinlichkeiten, ausgeführt werden, andere Parameter jedoch mit anderen Verfahren geschätzt werden. Wei terhin kann das Verfahren abgewandelt werden, indem alle oder einige Größen nur approximativ berechnet werden. This procedure can be varied in the calculations described above only for some of the parameters, e.g. B. the transition probabilities other parameters are estimated using other methods. Wei Furthermore, the procedure can be modified by adding all or some sizes can only be calculated approximately.
Die angegebenen Verfahren können bei allen Verwendungen, in denen Hidden- Marlov-Modelle aus einer Zeitreihe geschätzt werden, eingesetzt werden.The specified methods can be used for all uses in which hidden Marlov models from a time series are estimated to be used.
Das Verfahren zum off-line-Schätzen zeichnet sich dadurch aus, daß im Gegen satz zur üblichen Forward-Backward-Prozedur der Speicherbedarf unabhängig von der Länge der Zeitreihe, und damit für typische Anwendungen wesentlich geringer ist, während bei der bisher üblichen Forward-Backward-Prozedur der Speicherbedarf proportional zur Länge der Zeitreihe ist. Das on-line-Verfahren zeichnet sich dadurch aus, daß die Elemente der Zeitreihe, auf deren Grundlage das Modell zu schätzen ist, nicht gespeichert werden müssen. Dies ermöglicht die Implementierung des Verfahrens mithilfe integrierter elektronischer Bauteile (IC's), die nur über wenig Speicher verfügen, z. B. mittels nur eines Chips. Mithilfe des on-line-Verfahrens ist die Bestimmung komplexer Größen, der Modellparame ter aus einfachen Meßwerten. z. B. zur Prozeßüberwachung, zu jedem Zeitpunkt möglich.The method for off-line estimation is characterized in that in the opposite independent of the usual forward-backward procedure on the length of the time series, and therefore essential for typical applications is lower, whereas in the forward-backward procedure which has been customary to date, Memory requirement is proportional to the length of the time series. The online procedure is characterized in that the elements of the time series, based on them the model is to be estimated, does not need to be saved. this makes possible the implementation of the process using integrated electronic components (IC's) that have little memory, e.g. B. using only one chip. Help The on-line method is the determination of complex sizes, the model parameter ter from simple measured values. e.g. B. for process monitoring at any time possible.
Figur Nr. 1: Ein beliebiger autonomer deterministischer oder stochastischer Pro zeß E generiert Symbolketten x, welche die Eingabe des HMM darstellen. Der Hidden-Markov-Prozeß HMM mit internen Parametern v geht in Abhängigkeit vom jeweils erhaltenen Eingabesymbol x in einen neuen Zustand über und gibt ei ne Ausgabewert y aus. Der Beobachter beobachtet das Eingabesymbol x und den Ausgabewert y, nicht jedoch die internen Zustände und die internen Parameter des Automaten.Figure No. 1: Any autonomous deterministic or stochastic pro zeß E generates symbol chains x, which represent the input of the HMM. The Hidden Markov process HMM with internal parameters v is dependent from the input symbol x received to a new state and gives egg ne output value y. The observer observes the input symbol x and the Output value y, but not the internal states and the internal parameters of the machine.
Figur Nr. 2: Ein Hidden-Markov-Prozeß, hier als Beispiel mit 3 Zuständen und endlicher Menge der Ausgabesymbole V, ist dargestellt. Bei Empfang eines Ein gabesymbols geht der Prozeß von seinem aktuellen Zustand i in einen neuen Zustand j über und gibt einen Ausgabewert y ∈ V aus mit Wahrscheinlichkeit pi,j(y|x). Figure No. 2: A hidden Markov process, here as an example with 3 states and a finite set of output symbols V, is shown. Upon receipt of an input symbol, the process changes from its current state i to a new state j and outputs an output value y ∈ V with probability p i, j (y | x).
[Titterington 84] D. M. Titterington. Recursive parameter estimation using in
complete data. J. R. Statist. Soc. B 46, 257 (1984).
[Krishnamurthy 84] V. Krishnamurthy, J. B. Moore. On-line estimation of Hid
den Makov Model parameters based on the Kullback-Leibler information
measure. IEEE. Transact. on Signal. Proc 41, 2557 (1993).
[Collins 93] I. B. Collins, V. Krishnamurthy, J. B. Moore. On-line estimation of
Hidden Makov Models via recursive prediction error techniques. IEEE. Transacton Signal. Proc 41. 2557 (1993).[Baum 66] L. E. Baum. T. Petrie. Ann. Math. Statist. 30, 1 554 (1966).
[Stiller 98) J. C. Stiller. Hidden-Markov-Modelle: Unüberwachtes Lernen und
Klassifikation. Diss., Univ. Kiel (1998).[Titterington 84] DM Titterington. Recursive parameter estimation using in complete data. JR Statist. Soc. B 46, 257 (1984).
[Krishnamurthy 84] V. Krishnamurthy, JB Moore. On-line estimation of Hid den Makov Model parameters based on the Kullback-Leibler information measure. IEEE. Transact. on signal. Proc 41, 2557 (1993).
[Collins 93] IB Collins, V. Krishnamurthy, JB Moore. On-line estimation of hidden Makov models via recursive prediction error techniques. IEEE. Transacton signal. Proc 41, 2557 (1993). [Tree 66] LE Tree. T. Petrie. Ann. Math. Statist. 30, 1 554 (1966).
[Stiller 98) JC Stiller. Hidden Markov Models: Unsupervised Learning and Classification. Diss., Univ. Kiel (1998).
Claims (13)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE19934845A DE19934845A1 (en) | 1998-07-25 | 1999-07-24 | On-line estimating of Hidden-Markov model, calculating parameters of model from auxiliary sizes with at least three indices, and not through elements of time series directly |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE19833627 | 1998-07-25 | ||
| DE19934845A DE19934845A1 (en) | 1998-07-25 | 1999-07-24 | On-line estimating of Hidden-Markov model, calculating parameters of model from auxiliary sizes with at least three indices, and not through elements of time series directly |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE19934845A1 true DE19934845A1 (en) | 2000-03-16 |
Family
ID=7875365
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE19934845A Withdrawn DE19934845A1 (en) | 1998-07-25 | 1999-07-24 | On-line estimating of Hidden-Markov model, calculating parameters of model from auxiliary sizes with at least three indices, and not through elements of time series directly |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE19934845A1 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2002039773A1 (en) * | 2000-11-13 | 2002-05-16 | Siemens Aktiengesellschaft | Method and device for traffic localisation in a cellular mobile radio network |
| DE10116984A1 (en) * | 2001-04-05 | 2002-10-10 | Rainer Martin | Voice, audio signal transmission involves dividing parameters into several packets so packet to be transmitted can also contain parameters of current and preceding or subsequent frames |
| DE10123572C1 (en) * | 2001-05-08 | 2003-01-23 | Senslab Gmbh | Automated online analysis of series of measurements involves evaluating sampling values relevant to analysis depending on association with model curve determined by mathematical model |
-
1999
- 1999-07-24 DE DE19934845A patent/DE19934845A1/en not_active Withdrawn
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2002039773A1 (en) * | 2000-11-13 | 2002-05-16 | Siemens Aktiengesellschaft | Method and device for traffic localisation in a cellular mobile radio network |
| DE10116984A1 (en) * | 2001-04-05 | 2002-10-10 | Rainer Martin | Voice, audio signal transmission involves dividing parameters into several packets so packet to be transmitted can also contain parameters of current and preceding or subsequent frames |
| DE10123572C1 (en) * | 2001-05-08 | 2003-01-23 | Senslab Gmbh | Automated online analysis of series of measurements involves evaluating sampling values relevant to analysis depending on association with model curve determined by mathematical model |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE69324052T2 (en) | Neural network learning system | |
| DE69726526T2 (en) | Scheme and model adaptation for pattern recognition based on Taylor expansion | |
| DE102023125635A1 (en) | IMAGE AND OBJECT INPAINTING WITH DIFFUSION MODELS | |
| DE60309142T2 (en) | System for estimating parameters of a Gaussian mixture model (GMM) or a GMM-based hidden Markov model | |
| DE69031866T2 (en) | Method and arrangement for signal processing by the eigenvector transformation | |
| DE69414752T2 (en) | Speaker independent recognition system for isolated words using a neural network | |
| DE102023124207A1 (en) | Single-image concept encoder for personalization using a pre-trained diffusion model | |
| DE69129015T2 (en) | Speaker-independent device for marking coding | |
| DE60000134T2 (en) | Unsupervised adaptation of a speech recognizer using reliable information from the best N computational hypotheses | |
| DE60204374T2 (en) | Voice recognition device | |
| DE60109999T2 (en) | Speech recognition using lexical trees | |
| DE102013213397A1 (en) | Method and apparatus for providing support point data for a data-based function model | |
| DE212022000260U1 (en) | Evaluating output sequences using a neural autoregressive language model network | |
| DE69613293T2 (en) | Pattern matching device for speech or pattern recognition | |
| EP3736817A1 (en) | Checking and / or improvement in the consistency of data codes in medical image processing | |
| DE69330021T2 (en) | Improved pattern recognition system for sonar and other applications | |
| CN104657776A (en) | Neural network system, as well as image analysis method and device based on neural network system | |
| DE112021005925T5 (en) | DOMAIN GENERALIZED SCOPE OVER METALLER TO DEEP FACE RECOGNITION | |
| DE102024114452A1 (en) | GENERATIVE IMAGE FILLING USING A REFERENCE IMAGE | |
| Zhong et al. | A new formulation of coupled hidden Markov models | |
| DE112023003762T5 (en) | COMPOSITIONAL IMAGE CREATION AND EDITING | |
| DE69333247T2 (en) | Training method and device for generating a new neuron | |
| DE69126983T2 (en) | DEVICE FOR PATTERN RECOGNITION WITH AN ARTIFICIAL NEURAL NETWORK FOR CONTEXT-RELATED MODELING | |
| Lanchantin et al. | Unsupervised non stationary image segmentation using triplet Markov chains | |
| DE69628603T2 (en) | System for pattern matching using a tree structure |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8139 | Disposal/non-payment of the annual fee |