[go: up one dir, main page]

DE4230419A1 - Neural network with rule-base network configuration - Google Patents

Neural network with rule-base network configuration

Info

Publication number
DE4230419A1
DE4230419A1 DE4230419A DE4230419A DE4230419A1 DE 4230419 A1 DE4230419 A1 DE 4230419A1 DE 4230419 A DE4230419 A DE 4230419A DE 4230419 A DE4230419 A DE 4230419A DE 4230419 A1 DE4230419 A1 DE 4230419A1
Authority
DE
Germany
Prior art keywords
network
neural network
rule
function
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE4230419A
Other languages
German (de)
Inventor
Juergen Hollatz
Volker Dr Tresp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Siemens Corp
Original Assignee
Siemens AG
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Siemens Corp filed Critical Siemens AG
Priority to DE4230419A priority Critical patent/DE4230419A1/en
Priority to PCT/DE1993/000245 priority patent/WO1993020530A1/en
Publication of DE4230419A1 publication Critical patent/DE4230419A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

The neural network is pre-structural in a given network configuration using rule-base knowledge. Each initial value is defined by a normalised linear summation function in terms of weighted and unweighted base function. The latter is obtained from the mean values of localised positive function of the neural network input values.Pref. the base function is obtained via an exponential function of an inverse covariance matrix, multiplied by a normalisation factor for the base function.

Description

Informationsverarbeitende Systeme sollten fähig sein, Wissen in Form von Regeln als auch durch Erfahrungen gewonnene Kenntnisse zu verarbeiten. Hier wird eine Methode präsentiert, die regelbasiertes Wissen benutzt, um ein neuronales Netz vorzustrukturieren. Dadurch erzielt das Netz bereits vor dem Lernen gute Ergebnisse gemäß des schon eingebrachten symbolischen Vorwissens. Bei geringer Anzahl von Trainingsdaten erreicht das Netz mit dieser Methode gute Resultate, da Bereiche des Eingangsraums, für die keine Trainingsdaten vorhanden sind, durch regelbasiertes Wissen abgedeckt werden. Nach dem Training können modifizierte Regeln wieder extrahiert und durch einen Experten interpretiert werden.Information processing systems should be able to use knowledge in the form of rules to also process knowledge gained through experience. Here is a method that uses rule-based knowledge to pre-structure a neural network. As a result, the network already achieves good results in accordance with what has already been introduced before learning symbolic knowledge. With a small number of training data, this is achieved Network with this method good results, since areas of the entrance area for which none Training data are available to be covered by rule-based knowledge. To The training can be extracted and modified by an expert be interpreted.

Die betrachteten Netze beschreiben eine Abbildung f: Rn→R, mit y=f(x). Im weitesten Sinne betrachten wir eine Regel als domänenspezifisches Wissen über die gleiche Ein/Ausgabebeziehung. Die Regeln werden in einfachen Ausdrücken formuliert: wenn (Prämisse) dann (Folgerung). Die Prämisse macht hierbei eine Aussage über den Eingangs- und die Folgerung über den Ausgangsraum.The considered networks describe a map f: R n → R, with y = f (x). In the broadest sense, we consider a rule as domain-specific knowledge about the same input / output relationship. The rules are expressed in simple terms: if (premise) then (conclusion). The premise makes a statement about the entrance and the conclusion about the exit space.

{Regeli | i: 1 . . . M} ist eine Menge von Regeln. Für jede Regel wird eine Basisfunktion bi(x) eingeführt, die gleich 1 ist, wo die Regel zutrifft und sonst den Wert 0 hat. Alternativ kann ein Wert zwischen 0 und 1 definiert werden, der die Gültigkeit angibt, inwiefern eine bestimmte Regel für einen gegebenen Eingangsvektor zutrifft. Eine solche Basisfunktion kann z. B. mit einer multivariablen Gaußschen Funktion beschrieben werden:{Rule i | i: 1. . . M} is a set of rules. For each rule, a basic function b i (x) is introduced, which is 1, where the rule applies and otherwise has the value 0. Alternatively, a value between 0 and 1 can be defined, which indicates the validity to which extent a certain rule applies to a given input vector. Such a basic function can e.g. B. can be described with a multivariable Gaussian function:

wobei wir davon ausgehen, daß die Matrix Σi, in der σÿ² das j-te Diagonalelement in Σi ist, diagonal ist. Der Gewichtungsfaktor i wird hier 1 gesetzt. Der Parameter Aj i=cÿ legt die Position der j-ten Dimension des Eingangsraums fest, bei der die Regel i ihre größte Gültigkeit hat. Der Parameter rangeÿÿ gibt ungefähr den Bereich an, in dem Regeli in der j-ten Eingangsdimension gültig ist. Solche Basisfunktionen entsprechen ungefähr Zugehörigkeitsfunktionen in der Fuzzy Logic. Jeder Basisfunktion wird ein Parameter wi zugewiesen, der gleich dem (erwarteten) Wert von y ist bei gegebener gültiger Regel i. Dieser Parameter entspricht im Netz dem Ausgangsgewicht. Die Ausgabe des Netzes wird wie folgt definiert:assuming that the matrix Σ i , in which σ ÿ ² is the jth diagonal element in Σ i, is diagonal. The weighting factor i is set to 1 here. The parameter A j i = c ÿ specifies the position of the jth dimension of the entrance space at which rule i is most valid. The parameter range ÿ = σ ÿ roughly specifies the range in which rule i is valid in the jth input dimension. Such basic functions roughly correspond to membership functions in fuzzy logic. Each basic function is assigned a parameter w i which is equal to the (expected) value of y given the valid rule i. In the network, this parameter corresponds to the initial weight. The output of the network is defined as follows:

In Bereichen, in denen nur eine Regel signifikant gültig ist, ist die Ausgabe gleich wi. In den Bereichen, in denen mehr als eine Regel signifikant gültig ist, berechnet die Gleichung einen gewichteten Durchschnitt der Ausgaben der einzelnen Regeln. In areas where only one rule is significant, the output is equal to w i . In areas where more than one rule is significantly valid, the equation calculates a weighted average of the expenditure of the individual rules.

Fig. 1: Netztopologie Fig. 1: Network topology

Die Topologie des neuronalen Netzes ist in Bild 1 dargestellt. Die Operationen der Knoten sind durch die Gleichungen (1) und (2) gegeben. Jeder Regel entspricht ein Knoten in der mittleren Schicht des Netzes.The topology of the neural network is shown in Figure 1. The operations of the nodes are given by equations (1) and (2). Each rule corresponds to a node in the middle layer of the network.

Durch Trainingsdaten wird das Netzwerk geändert. Die Parameter (Zentren cÿ, Weiten σÿ, Gewichte wi) werden durch Error-Backpropagation modifiziert. Nach dem Lernen können nach dem gleichen Mechanismus die angeglichenen Regeln aus dem gelernten Netzwerk extrahiert werden.The network is changed by training data. The parameters (centers c ÿ , widths σ ÿ , weights w i ) are modified by error back propagation. After learning, the adjusted rules can be extracted from the learned network using the same mechanism.

Die Struktur der Regeln und deren Einbringen in das neuronale Netz wird im folgenden beschrieben. O.E.d.A wird ein 2-dimensionaler Eingangsraum angenommen. Die 3 verschiedenen Regeltypen werden mit Regel₁, Regel₂ und Regel₃ bezeichnet. Regel₁The structure of the rules and their incorporation into the neural network is as follows described. O.E.d.A a 2-dimensional entrance room is assumed. The 3 Different types of rules are designated with rule 1, rule 2 and rule 3. Rule ₁

if x₁ ist A₁¹ (range₁₁ = R₁¹) and
if x₂ ist A₂¹ (range₁₂ = R₂¹) then
y is B¹
if x 1 is A 1 1 (range 1 1 = R 1 1) and
if x₂ is A₂¹ (range₁₂ = R₂¹) then
y is B¹

entspricht einer Gaußschen Funktion zentiert um c₁₁=A₁¹, c₁₂=A₂¹ mit σ₁₁=R₁¹ und σ₁₂=R₂¹ und zugeordnetem Gewicht w₁=B¹. Regel₂corresponds to a Gaussian function centered around c₁₁ = A₁¹, c₁₂ = A₂¹ with σ₁₁ = R₁¹ and σ₁₂ = R₂¹ and assigned weight w₁ = B¹. Rule₂

if x₂ ist A₁² (range₂₁ = R₁²)
then y is B²
if x₂ is A₁² (range₂₁ = R₁²)
then y is B²

stellt eine eindimensionale Gaußsche Funktion dar, zentriert um c₂₁=A₁² mit σ₂₁=R₁² und Gewicht w₂=B². In diesem Fall ist anzumerken, daß die Basisfunktion unabhängig von x₂ ist. Regeln der Form wie Regel₃represents a one-dimensional Gaussian function, centered around c₂₁ = A₁² with σ₂₁ = R₁² and weight w₂ = B². In this case it should be noted that the basic function is independent of x₂ is. Rules of the form like Regel₃

if x₁ is A₁³ (range₃₁ = R₁³) or
if x₂ is A₂³ (range₃₂ = R₂³) then
y is B³
if x 1 is A 1 3 (range 3 1 = R 1 3) or
if x₂ is A₂³ (range₃₂ = R₂³) then
y is B³

werden erst umgeformt in folgende 2 Regeln: Regel3a are first transformed into the following 2 rules: Rule 3a

if x₁ is (A₁³ (range₃₁ = R₁³) then y is B³if x₁ is (A₁³ (range₃₁ = R₁³) then y is B³

und Regel3b and rule 3b

if x₂ is A₂³ (range₃₂ = R₂³) then y is B³if x₂ is A₂³ (range₃₂ = R₂³) then y is B³

und dann behandelt wie Regel₂. Mit diesem Vorgehen kann man eine Netzarchitektur aus einer Menge von Regeln konstruieren. Andererseits ist auch ein umgekehrtes Vorgehen möglich, bei dem man aus einer Netzarchitektur eine Menge von einfachen Regeln wieder herausziehen kann. Mit entsprechenden Ausdünnungsverfahren für neuronale Netze können Knoten gelöscht werden und somit auch ihre korrespondierenden Regeln. and then treated like Rule₂. With this procedure you can choose a network architecture construct a lot of rules. On the other hand, there is also a reverse approach possible, where you get a lot of simple rules from a network architecture again can pull out. With appropriate thinning processes for neural networks can Nodes are deleted and thus also their corresponding rules.  

Wenn man den oben beschriebenen Verfahren folgt, wird re­ gelbasiertes Wissen dazu verwendet, um das Netzwerk vor­ zustrukturieren und zu initialisieren, aber mit dem Training wird das Anfangswissen z. B. expondentiell wieder vergessen. Das Verfahren hat den Vorteil, daß das Netzwerk mit guten Anfangsbedingungen startet und gute Vorhersagen schon vor dem Training abgibt.If one follows the procedures described above, re gel-based knowledge used to advance the network structure and initialize, but with training the initial knowledge z. B. forget exponentially. The method has the advantage that the network starts with good starting conditions and good predictions gives up before training.

Eine Alternative zum obigen Vorgehen besteht darin, die Pa­ rameter des Netzwerkes einzufrieren, nachdem es nach den Regeln strukturiert worden ist. In diesem Fall müssen zu­ sätzliche Basisfunktionen zur Netzwerkanpassung vorgesehen werden. Dabei kann man einem Verfahren ähnlich dem in J. Platt, A Resource-Allocating Network for Function Interpo­ lation. In: D.S. Touretzky (ed), Advances in Neural Infor­ mation Processing Systems 2, Kaufmann, 1990 beschriebenen folgen, bei dem neue Basisfunktionen eingeführt werden, wenn immer die Netzwerkvorhersage erheblich von den gemes­ senen Ausgangswerten abweicht. Genau genommen kann jede neue Basisfunktion als eine zusätzliche Regel interpretiert werden.An alternative to the above procedure is to use the Pa freeze parameters of the network after following the Rules has been structured. In this case, too Additional basic functions for network adaptation are provided become. A procedure similar to that in J. Platt, A Resource-Allocating Network for Function Interpo lation. In: D.S. Touretzky (ed), Advances in Neural Infor mation Processing Systems 2, Kaufmann, 1990 follow, where new basic functions are introduced, whenever the network prediction differs significantly from the measured deviates from its initial values. In fact, anyone can new basic function interpreted as an additional rule become.

In einer weiteren Alternative kann ein "Strafterm" mit fol­ gender Form eingeführt werden:In a further alternative, a "penalty term" with fol gender form are introduced:

wobei qj ein allgemeiner Netzwerkparameter (z. B. die Ge­ wichte des Netzwerkes) ist. Diese Funktion ist äquivalent zu der, die zur Gewichtsveränderung verwendet wird, wenn qj initial = 0 gesetzt wird. α ist ein geeignetes Strafgewicht für die Netzwerkparameter, das z. B. von einem Experten ge­ schätzt wird. where q j is a general network parameter (e.g. the weights of the network). This function is equivalent to that used to change weight when q j initial = 0. α is a suitable penalty weight for the network parameters. B. is estimated by an expert.

Eine weitere Alternative besteht schließlich darin, eine Kopie des initialisierten Netzwerkes zu nehmen und dementsprechend ein "Strafterm" mit folgender Form zu wählenFinally, another alternative is one To take a copy of the initialized network and accordingly to choose a "penalty term" with the following form

Ep kann approximiert werden zuEp can be approximated to

wobei Vunit das Volumen des Einheitsgitters ist und α die oben angegebene Bedeutung hat. Ep bestraft das Netzwerk, wenn es mit dem Anfangsnetzwerk an den Gitterpunkten nicht übereinstimmt. Statt der Gitterpunkte können Referenzpunkte zufällig gewählt werden oder entsprechend der Zentren der Basisfunktion oder der Eingangstrainingsdaten. Inter­ essanterweise kann festgestellt werden, daß anstatt das Vorwissen zu verwenden, das direkt durch Netzwerkparameter definiert ist, man eine Vorgabe wählen kann, die in Abhän­ gigkeit der Abbildung dessen definiert werden kann, das das Netzwerk zu lernen hat. Dies hat den Vorteil, daß keine Vorgaben von verhältnismäßig ungenauen Netzwerkparametern spezifiziert werden müssen, sondern die Vorgaben direkt die Gewißheit reflektieren, die der Abbildung des in­ itialisierten Netzwerkes zugeordnet ist, und die oft ge­ schätzt werden kann.where Vunit is the volume of the unit grid and α is the has the meaning given above. Ep punishes the network if it wasn't with the initial network at the grid points matches. Instead of the grid points, reference points can be used be chosen at random or according to the centers of Basic function or the input training data. Inter Essentially, it can be said that instead of that Prior knowledge to use that directly through network parameters is defined, you can choose a specification that depends on of the mapping of what can be defined Network has to learn. This has the advantage that none Specification of relatively imprecise network parameters must be specified, but the specifications directly Reflect certainty that of the illustration of the in itialized network is assigned, and the often ge can be estimated.

Zum Beispiel nach M.Röscheisen, R. Hofmann, Volker Tresp, Neural Control for Rolling Mills: Incorporating Domain Theories to Overcome Data Deficiency. To be published in Advances in Neural Information Proces­ sing Systems 4, 1992 kann diese Gewißheit in Abhängigkeit von Problem spezifischer Kenntnis geschätzt werden.For example according to M. Röscheisen, R. Hofmann, Volker Tresp, Neural Control for Rolling Mills: Incorporating Domain Theories to Overcome Data Deficiency. To be published in Advances in Neural Information Proces sing Systems 4, 1992 this certainty can be dependent be valued by problem specific knowledge.

Claims (6)

1. Neuronales Netzwerk mit einer regelbasierten Netzwerk­ struktur, bei dem jeder Ausgangswert y1 eine normierte Linear­ kombination von I Basisfunktionen bi(x1, . . . ,xN) mit I Gewichtskoeffizienten wi ist, wobei die Basisfunktionen bi(x1, . . . ,xN) um I Mittelwerte ci lokalisierte, nicht-negative Funktionen der N Eingangswerte x1, . . . ,xN sind.1. Neural network with a rule-based network structure, in which each output value y 1 is a normalized linear combination of I basic functions b i (x 1 ,..., x N ) with I weighting coefficients w i , the basic functions b i (x 1 ,..., x N ) being non-negative functions localized by I mean values c i of the N input values x 1 ,. . . , x are N. 2. Neuronales Netzwerk nach Anspruch 1 mit Basisfunktionen der Form wobei x = (x1, . . . ,xN), Σi -1 die inverse Kovarianzmatrix und ki ein Normierungsfaktor der i-ten Basisfunktion ist.2. Neural network according to claim 1 with basic functions of the form where x = (x 1 ,..., x N ), Σ i -1 is the inverse covariance matrix and k i is a normalization factor of the i-th basis function. 3. Verfahren zur Strukturierung eines neuronalen Netzwerkes durch regelbasiertes Wissen, bei dem die Basisfunktionen eines neuronalen Netzwerkes nach einem der vorhergehenden Anspruche nach Art der Zugehörigkeitsfunktionen zur Darstellung unscharfer Regeln gewählt werden. 3. Method for structuring a neural network through rule-based knowledge, in which the basic functions of a neural network according to one of the preceding claims according to the type of membership functions for display fuzzy rules can be chosen.   4. Verfahren zum Training eines neuronalen Netzwerkwerkes nach einem der vorhergehenden Ansprüche,
bei dem die Parameter des Netzwerkes nach der Vorstruktu­ rierung eingefroren werden,
bei dem die Abweichung des Netzwerkes vom Anfangszustand durch eine Basisfunktion nachgebildet wird, die als Regel verwendet wird.
4. Method for training a neural network according to one of the preceding claims,
in which the parameters of the network are frozen after the pre-structuring,
in which the deviation of the network from the initial state is simulated by a basic function that is used as a rule.
5. Verfahren zum Training eines neuronalen Netzwerkes nach einem der Ansprüche 1 bis 3, bei dem die Abweichung des Netzwerkes vom Anfangszustand durch den Term.: nachgebildet wird, wobei qj ein Netzwerkparameter (Gewichte des Netzwerkes) ist, α ein Strafgewicht für die Netzwerkpa­ rameter.5. A method for training a neural network according to one of claims 1 to 3, wherein the deviation of the network from the initial state by the term: is simulated, where q j is a network parameter (weights of the network), α is a penalty weight for the network parameters. 6. Verfahren zum Training eines neuronalen Netzwerkes nach einem der Ansprüche 1 bis 3, bei dem die Abweichung des Netzwerkes vom Anfangszustand durch den Term wobei die Approximation verwendet wird, wobei α ein Strafgewicht für die Netzwerkparameter ist, Vunit vom Volumen des Einheitsgitters abhängt, xgrid der Eingangswert an einem Gitterpunkt ist bzw. an zufällig wählbaren Punkten bzw. an Zentren der Basisfunktion oder abhängig von Anfangs-Trainingsdaten.6. A method for training a neural network according to one of claims 1 to 3, wherein the deviation of the network from the initial state by the term using the approximation where α is a penalty weight for the network parameters, V unit depends on the volume of the unit grid , x grid is the input value at a grid point or at randomly selectable points or at centers of the basic function or depending on initial training data.
DE4230419A 1992-04-06 1992-09-11 Neural network with rule-base network configuration Withdrawn DE4230419A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE4230419A DE4230419A1 (en) 1992-09-11 1992-09-11 Neural network with rule-base network configuration
PCT/DE1993/000245 WO1993020530A1 (en) 1992-04-06 1993-03-17 Structuring of neutral networks by rule-based knowledge

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4230419A DE4230419A1 (en) 1992-09-11 1992-09-11 Neural network with rule-base network configuration

Publications (1)

Publication Number Publication Date
DE4230419A1 true DE4230419A1 (en) 1994-03-17

Family

ID=6467738

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4230419A Withdrawn DE4230419A1 (en) 1992-04-06 1992-09-11 Neural network with rule-base network configuration

Country Status (1)

Country Link
DE (1) DE4230419A1 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19649975A1 (en) * 1996-11-22 1998-05-28 Bandelin Electronic Gmbh & Co Device for exciting oscillations in piezoelectric converters for ultrasonic use, such as ultrasonic cleaning and materials processing
WO1998032086A1 (en) * 1997-01-21 1998-07-23 Northern Telecom Limited Monitoring and retraining neural network
EP0789869A4 (en) * 1994-11-02 2006-09-13 Robert J Jannarone Concurrent learning and performance information processing system
US10846623B2 (en) 2014-10-15 2020-11-24 Brighterion, Inc. Data clean-up method for improving predictive model training
US10896421B2 (en) 2014-04-02 2021-01-19 Brighterion, Inc. Smart retail analytics and commercial messaging
US10929777B2 (en) 2014-08-08 2021-02-23 Brighterion, Inc. Method of automating data science services
US10977655B2 (en) 2014-10-15 2021-04-13 Brighterion, Inc. Method for improving operating profits with better automated decision making with artificial intelligence
US10984423B2 (en) 2014-10-15 2021-04-20 Brighterion, Inc. Method of operating artificial intelligence machines to improve predictive model training and performance
US10997599B2 (en) 2014-10-28 2021-05-04 Brighterion, Inc. Method for detecting merchant data breaches with a computer network server
US11023894B2 (en) 2014-08-08 2021-06-01 Brighterion, Inc. Fast access vectors in real-time behavioral profiling in fraudulent financial transactions
US11030527B2 (en) 2015-07-31 2021-06-08 Brighterion, Inc. Method for calling for preemptive maintenance and for equipment failure prevention
US11062317B2 (en) 2014-10-28 2021-07-13 Brighterion, Inc. Data breach detection
US11080793B2 (en) 2014-10-15 2021-08-03 Brighterion, Inc. Method of personalizing, individualizing, and automating the management of healthcare fraud-waste-abuse to unique individual healthcare providers
US11080709B2 (en) 2014-10-15 2021-08-03 Brighterion, Inc. Method of reducing financial losses in multiple payment channels upon a recognition of fraud first appearing in any one payment channel
US11348110B2 (en) 2014-08-08 2022-05-31 Brighterion, Inc. Artificial intelligence fraud management solution
US11496480B2 (en) 2018-05-01 2022-11-08 Brighterion, Inc. Securing internet-of-things with smart-agent technology
US11948048B2 (en) 2014-04-02 2024-04-02 Brighterion, Inc. Artificial intelligence for context classifier

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0789869A4 (en) * 1994-11-02 2006-09-13 Robert J Jannarone Concurrent learning and performance information processing system
DE19649975C2 (en) * 1996-11-22 2000-12-07 Bandelin Electronic Gmbh & Co Device for excitation of vibrations of piezoelectric transducers
DE19649975A1 (en) * 1996-11-22 1998-05-28 Bandelin Electronic Gmbh & Co Device for exciting oscillations in piezoelectric converters for ultrasonic use, such as ultrasonic cleaning and materials processing
WO1998032086A1 (en) * 1997-01-21 1998-07-23 Northern Telecom Limited Monitoring and retraining neural network
US11948048B2 (en) 2014-04-02 2024-04-02 Brighterion, Inc. Artificial intelligence for context classifier
US10896421B2 (en) 2014-04-02 2021-01-19 Brighterion, Inc. Smart retail analytics and commercial messaging
US11023894B2 (en) 2014-08-08 2021-06-01 Brighterion, Inc. Fast access vectors in real-time behavioral profiling in fraudulent financial transactions
US10929777B2 (en) 2014-08-08 2021-02-23 Brighterion, Inc. Method of automating data science services
US11348110B2 (en) 2014-08-08 2022-05-31 Brighterion, Inc. Artificial intelligence fraud management solution
US10984423B2 (en) 2014-10-15 2021-04-20 Brighterion, Inc. Method of operating artificial intelligence machines to improve predictive model training and performance
US11080793B2 (en) 2014-10-15 2021-08-03 Brighterion, Inc. Method of personalizing, individualizing, and automating the management of healthcare fraud-waste-abuse to unique individual healthcare providers
US11080709B2 (en) 2014-10-15 2021-08-03 Brighterion, Inc. Method of reducing financial losses in multiple payment channels upon a recognition of fraud first appearing in any one payment channel
US10977655B2 (en) 2014-10-15 2021-04-13 Brighterion, Inc. Method for improving operating profits with better automated decision making with artificial intelligence
US10846623B2 (en) 2014-10-15 2020-11-24 Brighterion, Inc. Data clean-up method for improving predictive model training
US10997599B2 (en) 2014-10-28 2021-05-04 Brighterion, Inc. Method for detecting merchant data breaches with a computer network server
US11062317B2 (en) 2014-10-28 2021-07-13 Brighterion, Inc. Data breach detection
US11030527B2 (en) 2015-07-31 2021-06-08 Brighterion, Inc. Method for calling for preemptive maintenance and for equipment failure prevention
US11496480B2 (en) 2018-05-01 2022-11-08 Brighterion, Inc. Securing internet-of-things with smart-agent technology

Similar Documents

Publication Publication Date Title
DE4230419A1 (en) Neural network with rule-base network configuration
DE112016003245B4 (en) Resistive processing unit
DE68928612T2 (en) METHOD FOR DETERMINING THE INFERENCE RULE AND INFERENCE MOTOR
EP2112568B1 (en) Method for computer-supported control and/or regulation of a technical system
DE102007001025B4 (en) Method for computer-aided control and / or regulation of a technical system
DE102023125635A1 (en) IMAGE AND OBJECT INPAINTING WITH DIFFUSION MODELS
WO2013170843A1 (en) Method for training an artificial neural network
EP1530779A2 (en) Method, data processing device and computer program product for processing data
DE69719058T2 (en) IMPROVED NEURONAL NETWORK
DE4215179A1 (en) Synaptic processor for neural network - initialises input expectation limited by maximum and neutral expectations then modifies expectation using increase and reduction terms
DE19531967A1 (en) Training method for neural network
DE102018109835A1 (en) Method and device for determining a network configuration of a neural network
EP0901658B1 (en) Process for optimizing fuzzy rules using a computer
EP0925541B1 (en) Method and device for computer assisted generation of at least one artificial training data vector for a neuronal network
DE19530646C1 (en) Learning method for recurrent neural network
EP0750764B1 (en) Process and arrangement for fuzzy control
Ernst et al. Maschinelles Lernen: Deep Learning mit neuronalen Netzen
DE69126052T2 (en) Neural network
DE4240789C2 (en) Procedure for identifying objects
DE69328596T2 (en) Optimization of a neural network with feedforward
Hruschka et al. Analyse von Marktsegmenten mit Hilfe konnexionistischer Modelle
DE102018109851A1 (en) Method and device for determining a network configuration of a neural network
DE4436339A1 (en) Traffic lights sequence control method
EP0777881B1 (en) Method of determining the validity range for an artificial neural network
DE4232479A1 (en) Neural network with rule-base network configuration

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee