DE4230419A1 - Neural network with rule-base network configuration - Google Patents
Neural network with rule-base network configurationInfo
- Publication number
- DE4230419A1 DE4230419A1 DE4230419A DE4230419A DE4230419A1 DE 4230419 A1 DE4230419 A1 DE 4230419A1 DE 4230419 A DE4230419 A DE 4230419A DE 4230419 A DE4230419 A DE 4230419A DE 4230419 A1 DE4230419 A1 DE 4230419A1
- Authority
- DE
- Germany
- Prior art keywords
- network
- neural network
- rule
- function
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
Description
Informationsverarbeitende Systeme sollten fähig sein, Wissen in Form von Regeln als auch durch Erfahrungen gewonnene Kenntnisse zu verarbeiten. Hier wird eine Methode präsentiert, die regelbasiertes Wissen benutzt, um ein neuronales Netz vorzustrukturieren. Dadurch erzielt das Netz bereits vor dem Lernen gute Ergebnisse gemäß des schon eingebrachten symbolischen Vorwissens. Bei geringer Anzahl von Trainingsdaten erreicht das Netz mit dieser Methode gute Resultate, da Bereiche des Eingangsraums, für die keine Trainingsdaten vorhanden sind, durch regelbasiertes Wissen abgedeckt werden. Nach dem Training können modifizierte Regeln wieder extrahiert und durch einen Experten interpretiert werden.Information processing systems should be able to use knowledge in the form of rules to also process knowledge gained through experience. Here is a method that uses rule-based knowledge to pre-structure a neural network. As a result, the network already achieves good results in accordance with what has already been introduced before learning symbolic knowledge. With a small number of training data, this is achieved Network with this method good results, since areas of the entrance area for which none Training data are available to be covered by rule-based knowledge. To The training can be extracted and modified by an expert be interpreted.
Die betrachteten Netze beschreiben eine Abbildung f: Rn→R, mit y=f(x). Im weitesten Sinne betrachten wir eine Regel als domänenspezifisches Wissen über die gleiche Ein/Ausgabebeziehung. Die Regeln werden in einfachen Ausdrücken formuliert: wenn (Prämisse) dann (Folgerung). Die Prämisse macht hierbei eine Aussage über den Eingangs- und die Folgerung über den Ausgangsraum.The considered networks describe a map f: R n → R, with y = f (x). In the broadest sense, we consider a rule as domain-specific knowledge about the same input / output relationship. The rules are expressed in simple terms: if (premise) then (conclusion). The premise makes a statement about the entrance and the conclusion about the exit space.
{Regeli | i: 1 . . . M} ist eine Menge von Regeln. Für jede Regel wird eine Basisfunktion bi(x) eingeführt, die gleich 1 ist, wo die Regel zutrifft und sonst den Wert 0 hat. Alternativ kann ein Wert zwischen 0 und 1 definiert werden, der die Gültigkeit angibt, inwiefern eine bestimmte Regel für einen gegebenen Eingangsvektor zutrifft. Eine solche Basisfunktion kann z. B. mit einer multivariablen Gaußschen Funktion beschrieben werden:{Rule i | i: 1. . . M} is a set of rules. For each rule, a basic function b i (x) is introduced, which is 1, where the rule applies and otherwise has the value 0. Alternatively, a value between 0 and 1 can be defined, which indicates the validity to which extent a certain rule applies to a given input vector. Such a basic function can e.g. B. can be described with a multivariable Gaussian function:
wobei wir davon ausgehen, daß die Matrix Σi, in der σÿ² das j-te Diagonalelement in Σi ist, diagonal ist. Der Gewichtungsfaktor i wird hier 1 gesetzt. Der Parameter Aj i=cÿ legt die Position der j-ten Dimension des Eingangsraums fest, bei der die Regel i ihre größte Gültigkeit hat. Der Parameter rangeÿ=σÿ gibt ungefähr den Bereich an, in dem Regeli in der j-ten Eingangsdimension gültig ist. Solche Basisfunktionen entsprechen ungefähr Zugehörigkeitsfunktionen in der Fuzzy Logic. Jeder Basisfunktion wird ein Parameter wi zugewiesen, der gleich dem (erwarteten) Wert von y ist bei gegebener gültiger Regel i. Dieser Parameter entspricht im Netz dem Ausgangsgewicht. Die Ausgabe des Netzes wird wie folgt definiert:assuming that the matrix Σ i , in which σ ÿ ² is the jth diagonal element in Σ i, is diagonal. The weighting factor i is set to 1 here. The parameter A j i = c ÿ specifies the position of the jth dimension of the entrance space at which rule i is most valid. The parameter range ÿ = σ ÿ roughly specifies the range in which rule i is valid in the jth input dimension. Such basic functions roughly correspond to membership functions in fuzzy logic. Each basic function is assigned a parameter w i which is equal to the (expected) value of y given the valid rule i. In the network, this parameter corresponds to the initial weight. The output of the network is defined as follows:
In Bereichen, in denen nur eine Regel signifikant gültig ist, ist die Ausgabe gleich wi. In den Bereichen, in denen mehr als eine Regel signifikant gültig ist, berechnet die Gleichung einen gewichteten Durchschnitt der Ausgaben der einzelnen Regeln. In areas where only one rule is significant, the output is equal to w i . In areas where more than one rule is significantly valid, the equation calculates a weighted average of the expenditure of the individual rules.
Die Topologie des neuronalen Netzes ist in Bild 1 dargestellt. Die Operationen der Knoten sind durch die Gleichungen (1) und (2) gegeben. Jeder Regel entspricht ein Knoten in der mittleren Schicht des Netzes.The topology of the neural network is shown in Figure 1. The operations of the nodes are given by equations (1) and (2). Each rule corresponds to a node in the middle layer of the network.
Durch Trainingsdaten wird das Netzwerk geändert. Die Parameter (Zentren cÿ, Weiten σÿ, Gewichte wi) werden durch Error-Backpropagation modifiziert. Nach dem Lernen können nach dem gleichen Mechanismus die angeglichenen Regeln aus dem gelernten Netzwerk extrahiert werden.The network is changed by training data. The parameters (centers c ÿ , widths σ ÿ , weights w i ) are modified by error back propagation. After learning, the adjusted rules can be extracted from the learned network using the same mechanism.
Die Struktur der Regeln und deren Einbringen in das neuronale Netz wird im folgenden beschrieben. O.E.d.A wird ein 2-dimensionaler Eingangsraum angenommen. Die 3 verschiedenen Regeltypen werden mit Regel₁, Regel₂ und Regel₃ bezeichnet. Regel₁The structure of the rules and their incorporation into the neural network is as follows described. O.E.d.A a 2-dimensional entrance room is assumed. The 3 Different types of rules are designated with rule 1, rule 2 and rule 3. Rule ₁
if x₁ ist A₁¹ (range₁₁ = R₁¹) and
if x₂ ist A₂¹ (range₁₂ = R₂¹) then
y is B¹if x 1 is A 1 1 (range 1 1 = R 1 1) and
if x₂ is A₂¹ (range₁₂ = R₂¹) then
y is B¹
entspricht einer Gaußschen Funktion zentiert um c₁₁=A₁¹, c₁₂=A₂¹ mit σ₁₁=R₁¹ und σ₁₂=R₂¹ und zugeordnetem Gewicht w₁=B¹. Regel₂corresponds to a Gaussian function centered around c₁₁ = A₁¹, c₁₂ = A₂¹ with σ₁₁ = R₁¹ and σ₁₂ = R₂¹ and assigned weight w₁ = B¹. Rule₂
if x₂ ist A₁² (range₂₁ = R₁²)
then y is B²if x₂ is A₁² (range₂₁ = R₁²)
then y is B²
stellt eine eindimensionale Gaußsche Funktion dar, zentriert um c₂₁=A₁² mit σ₂₁=R₁² und Gewicht w₂=B². In diesem Fall ist anzumerken, daß die Basisfunktion unabhängig von x₂ ist. Regeln der Form wie Regel₃represents a one-dimensional Gaussian function, centered around c₂₁ = A₁² with σ₂₁ = R₁² and weight w₂ = B². In this case it should be noted that the basic function is independent of x₂ is. Rules of the form like Regel₃
if x₁ is A₁³ (range₃₁ = R₁³) or
if x₂ is A₂³ (range₃₂ = R₂³) then
y is B³if x 1 is A 1 3 (range 3 1 = R 1 3) or
if x₂ is A₂³ (range₃₂ = R₂³) then
y is B³
werden erst umgeformt in folgende 2 Regeln: Regel3a are first transformed into the following 2 rules: Rule 3a
if x₁ is (A₁³ (range₃₁ = R₁³) then y is B³if x₁ is (A₁³ (range₃₁ = R₁³) then y is B³
und Regel3b and rule 3b
if x₂ is A₂³ (range₃₂ = R₂³) then y is B³if x₂ is A₂³ (range₃₂ = R₂³) then y is B³
und dann behandelt wie Regel₂. Mit diesem Vorgehen kann man eine Netzarchitektur aus einer Menge von Regeln konstruieren. Andererseits ist auch ein umgekehrtes Vorgehen möglich, bei dem man aus einer Netzarchitektur eine Menge von einfachen Regeln wieder herausziehen kann. Mit entsprechenden Ausdünnungsverfahren für neuronale Netze können Knoten gelöscht werden und somit auch ihre korrespondierenden Regeln. and then treated like Rule₂. With this procedure you can choose a network architecture construct a lot of rules. On the other hand, there is also a reverse approach possible, where you get a lot of simple rules from a network architecture again can pull out. With appropriate thinning processes for neural networks can Nodes are deleted and thus also their corresponding rules.
Wenn man den oben beschriebenen Verfahren folgt, wird re gelbasiertes Wissen dazu verwendet, um das Netzwerk vor zustrukturieren und zu initialisieren, aber mit dem Training wird das Anfangswissen z. B. expondentiell wieder vergessen. Das Verfahren hat den Vorteil, daß das Netzwerk mit guten Anfangsbedingungen startet und gute Vorhersagen schon vor dem Training abgibt.If one follows the procedures described above, re gel-based knowledge used to advance the network structure and initialize, but with training the initial knowledge z. B. forget exponentially. The method has the advantage that the network starts with good starting conditions and good predictions gives up before training.
Eine Alternative zum obigen Vorgehen besteht darin, die Pa rameter des Netzwerkes einzufrieren, nachdem es nach den Regeln strukturiert worden ist. In diesem Fall müssen zu sätzliche Basisfunktionen zur Netzwerkanpassung vorgesehen werden. Dabei kann man einem Verfahren ähnlich dem in J. Platt, A Resource-Allocating Network for Function Interpo lation. In: D.S. Touretzky (ed), Advances in Neural Infor mation Processing Systems 2, Kaufmann, 1990 beschriebenen folgen, bei dem neue Basisfunktionen eingeführt werden, wenn immer die Netzwerkvorhersage erheblich von den gemes senen Ausgangswerten abweicht. Genau genommen kann jede neue Basisfunktion als eine zusätzliche Regel interpretiert werden.An alternative to the above procedure is to use the Pa freeze parameters of the network after following the Rules has been structured. In this case, too Additional basic functions for network adaptation are provided become. A procedure similar to that in J. Platt, A Resource-Allocating Network for Function Interpo lation. In: D.S. Touretzky (ed), Advances in Neural Infor mation Processing Systems 2, Kaufmann, 1990 follow, where new basic functions are introduced, whenever the network prediction differs significantly from the measured deviates from its initial values. In fact, anyone can new basic function interpreted as an additional rule become.
In einer weiteren Alternative kann ein "Strafterm" mit fol gender Form eingeführt werden:In a further alternative, a "penalty term" with fol gender form are introduced:
wobei qj ein allgemeiner Netzwerkparameter (z. B. die Ge wichte des Netzwerkes) ist. Diese Funktion ist äquivalent zu der, die zur Gewichtsveränderung verwendet wird, wenn qj initial = 0 gesetzt wird. α ist ein geeignetes Strafgewicht für die Netzwerkparameter, das z. B. von einem Experten ge schätzt wird. where q j is a general network parameter (e.g. the weights of the network). This function is equivalent to that used to change weight when q j initial = 0. α is a suitable penalty weight for the network parameters. B. is estimated by an expert.
Eine weitere Alternative besteht schließlich darin, eine Kopie des initialisierten Netzwerkes zu nehmen und dementsprechend ein "Strafterm" mit folgender Form zu wählenFinally, another alternative is one To take a copy of the initialized network and accordingly to choose a "penalty term" with the following form
Ep kann approximiert werden zuEp can be approximated to
wobei Vunit das Volumen des Einheitsgitters ist und α die oben angegebene Bedeutung hat. Ep bestraft das Netzwerk, wenn es mit dem Anfangsnetzwerk an den Gitterpunkten nicht übereinstimmt. Statt der Gitterpunkte können Referenzpunkte zufällig gewählt werden oder entsprechend der Zentren der Basisfunktion oder der Eingangstrainingsdaten. Inter essanterweise kann festgestellt werden, daß anstatt das Vorwissen zu verwenden, das direkt durch Netzwerkparameter definiert ist, man eine Vorgabe wählen kann, die in Abhän gigkeit der Abbildung dessen definiert werden kann, das das Netzwerk zu lernen hat. Dies hat den Vorteil, daß keine Vorgaben von verhältnismäßig ungenauen Netzwerkparametern spezifiziert werden müssen, sondern die Vorgaben direkt die Gewißheit reflektieren, die der Abbildung des in itialisierten Netzwerkes zugeordnet ist, und die oft ge schätzt werden kann.where Vunit is the volume of the unit grid and α is the has the meaning given above. Ep punishes the network if it wasn't with the initial network at the grid points matches. Instead of the grid points, reference points can be used be chosen at random or according to the centers of Basic function or the input training data. Inter Essentially, it can be said that instead of that Prior knowledge to use that directly through network parameters is defined, you can choose a specification that depends on of the mapping of what can be defined Network has to learn. This has the advantage that none Specification of relatively imprecise network parameters must be specified, but the specifications directly Reflect certainty that of the illustration of the in itialized network is assigned, and the often ge can be estimated.
Zum Beispiel nach M.Röscheisen, R. Hofmann, Volker Tresp, Neural Control for Rolling Mills: Incorporating Domain Theories to Overcome Data Deficiency. To be published in Advances in Neural Information Proces sing Systems 4, 1992 kann diese Gewißheit in Abhängigkeit von Problem spezifischer Kenntnis geschätzt werden.For example according to M. Röscheisen, R. Hofmann, Volker Tresp, Neural Control for Rolling Mills: Incorporating Domain Theories to Overcome Data Deficiency. To be published in Advances in Neural Information Proces sing Systems 4, 1992 this certainty can be dependent be valued by problem specific knowledge.
Claims (6)
bei dem die Parameter des Netzwerkes nach der Vorstruktu rierung eingefroren werden,
bei dem die Abweichung des Netzwerkes vom Anfangszustand durch eine Basisfunktion nachgebildet wird, die als Regel verwendet wird.4. Method for training a neural network according to one of the preceding claims,
in which the parameters of the network are frozen after the pre-structuring,
in which the deviation of the network from the initial state is simulated by a basic function that is used as a rule.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE4230419A DE4230419A1 (en) | 1992-09-11 | 1992-09-11 | Neural network with rule-base network configuration |
| PCT/DE1993/000245 WO1993020530A1 (en) | 1992-04-06 | 1993-03-17 | Structuring of neutral networks by rule-based knowledge |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE4230419A DE4230419A1 (en) | 1992-09-11 | 1992-09-11 | Neural network with rule-base network configuration |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE4230419A1 true DE4230419A1 (en) | 1994-03-17 |
Family
ID=6467738
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE4230419A Withdrawn DE4230419A1 (en) | 1992-04-06 | 1992-09-11 | Neural network with rule-base network configuration |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE4230419A1 (en) |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19649975A1 (en) * | 1996-11-22 | 1998-05-28 | Bandelin Electronic Gmbh & Co | Device for exciting oscillations in piezoelectric converters for ultrasonic use, such as ultrasonic cleaning and materials processing |
| WO1998032086A1 (en) * | 1997-01-21 | 1998-07-23 | Northern Telecom Limited | Monitoring and retraining neural network |
| EP0789869A4 (en) * | 1994-11-02 | 2006-09-13 | Robert J Jannarone | Concurrent learning and performance information processing system |
| US10846623B2 (en) | 2014-10-15 | 2020-11-24 | Brighterion, Inc. | Data clean-up method for improving predictive model training |
| US10896421B2 (en) | 2014-04-02 | 2021-01-19 | Brighterion, Inc. | Smart retail analytics and commercial messaging |
| US10929777B2 (en) | 2014-08-08 | 2021-02-23 | Brighterion, Inc. | Method of automating data science services |
| US10977655B2 (en) | 2014-10-15 | 2021-04-13 | Brighterion, Inc. | Method for improving operating profits with better automated decision making with artificial intelligence |
| US10984423B2 (en) | 2014-10-15 | 2021-04-20 | Brighterion, Inc. | Method of operating artificial intelligence machines to improve predictive model training and performance |
| US10997599B2 (en) | 2014-10-28 | 2021-05-04 | Brighterion, Inc. | Method for detecting merchant data breaches with a computer network server |
| US11023894B2 (en) | 2014-08-08 | 2021-06-01 | Brighterion, Inc. | Fast access vectors in real-time behavioral profiling in fraudulent financial transactions |
| US11030527B2 (en) | 2015-07-31 | 2021-06-08 | Brighterion, Inc. | Method for calling for preemptive maintenance and for equipment failure prevention |
| US11062317B2 (en) | 2014-10-28 | 2021-07-13 | Brighterion, Inc. | Data breach detection |
| US11080793B2 (en) | 2014-10-15 | 2021-08-03 | Brighterion, Inc. | Method of personalizing, individualizing, and automating the management of healthcare fraud-waste-abuse to unique individual healthcare providers |
| US11080709B2 (en) | 2014-10-15 | 2021-08-03 | Brighterion, Inc. | Method of reducing financial losses in multiple payment channels upon a recognition of fraud first appearing in any one payment channel |
| US11348110B2 (en) | 2014-08-08 | 2022-05-31 | Brighterion, Inc. | Artificial intelligence fraud management solution |
| US11496480B2 (en) | 2018-05-01 | 2022-11-08 | Brighterion, Inc. | Securing internet-of-things with smart-agent technology |
| US11948048B2 (en) | 2014-04-02 | 2024-04-02 | Brighterion, Inc. | Artificial intelligence for context classifier |
-
1992
- 1992-09-11 DE DE4230419A patent/DE4230419A1/en not_active Withdrawn
Cited By (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0789869A4 (en) * | 1994-11-02 | 2006-09-13 | Robert J Jannarone | Concurrent learning and performance information processing system |
| DE19649975C2 (en) * | 1996-11-22 | 2000-12-07 | Bandelin Electronic Gmbh & Co | Device for excitation of vibrations of piezoelectric transducers |
| DE19649975A1 (en) * | 1996-11-22 | 1998-05-28 | Bandelin Electronic Gmbh & Co | Device for exciting oscillations in piezoelectric converters for ultrasonic use, such as ultrasonic cleaning and materials processing |
| WO1998032086A1 (en) * | 1997-01-21 | 1998-07-23 | Northern Telecom Limited | Monitoring and retraining neural network |
| US11948048B2 (en) | 2014-04-02 | 2024-04-02 | Brighterion, Inc. | Artificial intelligence for context classifier |
| US10896421B2 (en) | 2014-04-02 | 2021-01-19 | Brighterion, Inc. | Smart retail analytics and commercial messaging |
| US11023894B2 (en) | 2014-08-08 | 2021-06-01 | Brighterion, Inc. | Fast access vectors in real-time behavioral profiling in fraudulent financial transactions |
| US10929777B2 (en) | 2014-08-08 | 2021-02-23 | Brighterion, Inc. | Method of automating data science services |
| US11348110B2 (en) | 2014-08-08 | 2022-05-31 | Brighterion, Inc. | Artificial intelligence fraud management solution |
| US10984423B2 (en) | 2014-10-15 | 2021-04-20 | Brighterion, Inc. | Method of operating artificial intelligence machines to improve predictive model training and performance |
| US11080793B2 (en) | 2014-10-15 | 2021-08-03 | Brighterion, Inc. | Method of personalizing, individualizing, and automating the management of healthcare fraud-waste-abuse to unique individual healthcare providers |
| US11080709B2 (en) | 2014-10-15 | 2021-08-03 | Brighterion, Inc. | Method of reducing financial losses in multiple payment channels upon a recognition of fraud first appearing in any one payment channel |
| US10977655B2 (en) | 2014-10-15 | 2021-04-13 | Brighterion, Inc. | Method for improving operating profits with better automated decision making with artificial intelligence |
| US10846623B2 (en) | 2014-10-15 | 2020-11-24 | Brighterion, Inc. | Data clean-up method for improving predictive model training |
| US10997599B2 (en) | 2014-10-28 | 2021-05-04 | Brighterion, Inc. | Method for detecting merchant data breaches with a computer network server |
| US11062317B2 (en) | 2014-10-28 | 2021-07-13 | Brighterion, Inc. | Data breach detection |
| US11030527B2 (en) | 2015-07-31 | 2021-06-08 | Brighterion, Inc. | Method for calling for preemptive maintenance and for equipment failure prevention |
| US11496480B2 (en) | 2018-05-01 | 2022-11-08 | Brighterion, Inc. | Securing internet-of-things with smart-agent technology |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE4230419A1 (en) | Neural network with rule-base network configuration | |
| DE112016003245B4 (en) | Resistive processing unit | |
| DE68928612T2 (en) | METHOD FOR DETERMINING THE INFERENCE RULE AND INFERENCE MOTOR | |
| EP2112568B1 (en) | Method for computer-supported control and/or regulation of a technical system | |
| DE102007001025B4 (en) | Method for computer-aided control and / or regulation of a technical system | |
| DE102023125635A1 (en) | IMAGE AND OBJECT INPAINTING WITH DIFFUSION MODELS | |
| WO2013170843A1 (en) | Method for training an artificial neural network | |
| EP1530779A2 (en) | Method, data processing device and computer program product for processing data | |
| DE69719058T2 (en) | IMPROVED NEURONAL NETWORK | |
| DE4215179A1 (en) | Synaptic processor for neural network - initialises input expectation limited by maximum and neutral expectations then modifies expectation using increase and reduction terms | |
| DE19531967A1 (en) | Training method for neural network | |
| DE102018109835A1 (en) | Method and device for determining a network configuration of a neural network | |
| EP0901658B1 (en) | Process for optimizing fuzzy rules using a computer | |
| EP0925541B1 (en) | Method and device for computer assisted generation of at least one artificial training data vector for a neuronal network | |
| DE19530646C1 (en) | Learning method for recurrent neural network | |
| EP0750764B1 (en) | Process and arrangement for fuzzy control | |
| Ernst et al. | Maschinelles Lernen: Deep Learning mit neuronalen Netzen | |
| DE69126052T2 (en) | Neural network | |
| DE4240789C2 (en) | Procedure for identifying objects | |
| DE69328596T2 (en) | Optimization of a neural network with feedforward | |
| Hruschka et al. | Analyse von Marktsegmenten mit Hilfe konnexionistischer Modelle | |
| DE102018109851A1 (en) | Method and device for determining a network configuration of a neural network | |
| DE4436339A1 (en) | Traffic lights sequence control method | |
| EP0777881B1 (en) | Method of determining the validity range for an artificial neural network | |
| DE4232479A1 (en) | Neural network with rule-base network configuration |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8139 | Disposal/non-payment of the annual fee |