[go: up one dir, main page]

DE4143073A1 - Mehrschichtiges neuronales netzwerk - Google Patents

Mehrschichtiges neuronales netzwerk

Info

Publication number
DE4143073A1
DE4143073A1 DE4143073A DE4143073A DE4143073A1 DE 4143073 A1 DE4143073 A1 DE 4143073A1 DE 4143073 A DE4143073 A DE 4143073A DE 4143073 A DE4143073 A DE 4143073A DE 4143073 A1 DE4143073 A1 DE 4143073A1
Authority
DE
Germany
Prior art keywords
layer
input
field
synapse
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE4143073A
Other languages
English (en)
Inventor
Mark A Holler
Simon M Tam
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE4143073A1 publication Critical patent/DE4143073A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Description

Die Erfindung betrifft elektrische Netzwerke, die die Funk­ tion der Kortex des menschlichen Hirns nachbilden sollen. Ins­ besondere betrifft die Erfindung mehrschichtige Netzwerke zur Lösung von Problemen, die ihrer Natur nach nichtlinear sind.
Neuronale Netze sind eine Klasse elektronischer Schaltun­ gen, welche höhere Hirnfunktionen, wie beispielsweise das Ge­ dächtnis, das Lernen und/oder die Wahrnehmung/Erkennung nach­ bilden. Diese Netzwerke bedienen sich grundsätzlicher einer parallelen Vorgehensweise zur Problemlösung, in welcher Mu­ stererkennungs- und -abbildungsprobleme in Tausendsteln der Zeit gelöst werden können, die bei einem konventionellen Von- Neumann-Computer mit seinen Einzelbefehls-Zykluszeiten erfor­ derlich wäre. Als Einführung in das Gebiet der künstlichen neu­ ronalen Netze sei auf einen Artikel von Richard P. Lippmann verwiesen mit dem Titel "An Introduction To Computing With Neural Nets", veröffentlicht in IEEE ASSP Magazine im April 1987. Dieser Artikel beschreibt üblicherweise benutzte Netz­ werke und einfache neuronenähnliche Komponenten.
Im einfachsten Fall hat das neuronale Netzwerk die Form ei­ ner Matrix mit einem Satz horizontaler Leitungen, welche einen Satz vertikaler Leitungen kreuzen und kontaktieren. Die hori­ zontalen Leitungen bilden die Funktion der Axone in der Kortex des Hirns nach und werden als Eingänge benutzt. Die vertikalen Leitungen simulieren die Funktion der von den Neuronen ausge­ henden Dendriten. Jede vertikale Leitung endet an einer Span­ nungen summierenden Einrichtung, welche der Simulation der Funktion des neuronalen Zellkörpers dient. Solche Netzwerke werden häufig als Einzelschicht-Perzeptronen bezeichnet und wurden aufgrund ihrer Lernfähigkeit bei der Erkennung einfacher Muster geschaffen. Beispiele für solche Netzwerke und ihre Ver­ arbeitungselemente sind in den US-Patentschriften 49 50 917, 4 9 04 881, 49 56 564 und 49 61 002 beschrieben.
Um Probleme zu lösen, welche nichtlineare Abhängigkeiten enthalten oder nicht linear separierbar sind, ist ein mehr­ schichtiges neuronales Netzwerk (d. h. ein Mehrschichtperzep­ tron) erforderlich. Mehrschichtnetzwerke überwinden viele der Einschränkungen von Einschichtnetzwerken durch Einschließen zu­ sätzlicher Schichten, die versteckte Einheiten oder Knoten ent­ halten, welche weder direkt mit den Eingangsknoten noch mit den Ausgangsknoten verbunden sind. Ein mehrschichtiges neuronales Netzwerk wird beispielsweise in der US-PS 49 06 865 beschrie­ ben. Die Anzahl der Schichten des Netzwerks steht in direkter Beziehung zur Komplexität des Problems, welches das Netz lösen kann. Ein dreischichtes Perzeptron ist beispielsweise in der Lage, beliebig komplexe Entscheidungsbereiche zu erzeugen.
Einer der Hauptnachteile von mehrschichten Perzeptronen be­ stand bisher darin, daß jeder der den zusätzlichen Schichten zugeordneten Knoten einen entsprechenden Satz von Neuronen enthielt. Diese Neuronen bestehen gewöhnlich aus Summierungs- und Sigmoid-Funktionen. Da jedoch die elektrischen Implementie­ rungen von Neuronen häufig eine hohe Flächenintensität bedin­ gen, erwiesen sich mehrschichtige Netzwerke als ineffizient und teuer in der Herstellung.
Der Erfindung liegt die Aufgabe zugrunde, ein mehrschichti­ ges neuronales Netzwerk zu implementieren, das mit einer ver­ gleichsweise kleinen Anzahl von Neuronen auskommt.
Diese Aufgabe wird erfindungsgemäß mit den Merkmalen des Patentanspruchs 1 gelöst.
Bei der Erfindung werden in einem mehrschichtigen, elek­ trisch lernfähigen analogen neuronalen Netzwerk Neuronen mit Multiplex-Ausgängen benutzt. Das Netzwerk verarbeitet Eingangs­ größen, die in zwei Gruppen, externe und rekursive (d. h. rück­ gekoppelte) organisiert sind. Jede Schicht des Netzwerks weist eine Matrix von in einem Feld organisierten Synapsen-Zellen auf. Die Synapsen-Zellen wiederum weisen Floating-Gate-Bauele­ mente auf, in welchen die Größe der elektrischen Ladung, die auf den Floating-Gates (auf schwebendem Potential befindliche Gate-Elektroden) vorhanden ist, das gespeicherte Gewicht des synaptischen Feldes repräsentiert. Auf diese Weise implemen­ tiert jede Schicht des Netzwerks das innere Produkt eines Ein­ gangsvektors (entweder extern oder rekursiv) und eines gespei­ cherten Gewichtsvektors. Präziser gesagt, implementiert jede Schicht des Netzwerks eine Matrixmultiplikation zwischen einem Eingangsvektor und einer Gewichtsmatrix; jedes Element des Er­ gebnisses ist ein Punktprodukt des Eingangsvektors und eines Gewichtsvektors.
Jede der synaptischen Schichten des Netzwerks ist mit einer Vielzahl von Neuronen gekoppelt, welche ein Sigmoid-Ausgangssi­ gnal oder eine "neuronale Antwort" erzeugen, das bzw. die sich aus wenigstens einer Schicht zugeordneten Verarbeitung ergibt. D.h., die Ausgangsneuronen werden mit jeder der synaptischen Schichten gemultiplext, so daß die Neuronen effektiv zur Be­ rechnung des gesamten Punktprodukts für jede Schicht wiederbe­ nutzt werden. Im Normalbetrieb wird die Verarbeitung sequen­ tiell Schicht für Schicht ausgeführt. Das bedeutet, daß der mit dem ersten Synapsen-Feld gekoppelte externe Eingangsvektor zunächst eine Sigmoid-Antwort am Ausgang des Satzes der Neuro­ nen erzeugt. Dieses Ausgangssignal wird dann zur nächsten und den nachfolgenden Schichten des Netzwerks als ein rekursiver Eingangsvektor zurückgekoppelt.
Wenn dann die neuronalen Ausgangssignale als rekursive Ein­ gangssignale zur nachfolgenden (d. h. zweiten) Schicht im Nezt­ werk zurückgekoppelt wurden, kann die Verarbeitung in der nach­ folgenden Schicht beginnen. Das Ausgangssignal der Verarbeitung in der zweiten Schicht wird durch die gleichen Neuronen erzeugt, die in der Verarbeitung der ersten Schicht benutzt wurden. Um ein Interferieren des externen Eingangsvektors des Netzwerks mit Verarbeitungen in nachfolgenden Schichten zu vermeiden, werden diese Eingänge durch Abtrennen und Deaktivieren der Ein­ gangspuffer und demzufolge der Eingangsleitungen von dem Feld wirksam entkoppelt.
Jede Schicht des Netzwerks enthält ein fest vorgespanntes Synapsenfeld, das zusätzliche fest vorgespannte Gewichte spei­ chert. Ein Wechsel der Gewichte der Vorspannungseinheit ändert die Summe der in den Dendriten jeder synaptischen Schicht er­ zeugten Ströme, wobei der Neuronen-Schwellenwert verschoben wird. Somit kann das erfindungsgemäße neuronale Netzwerk N- schichtige Operationen handhaben, indem rekursive Verbindungen und ein einzelner Satz gemultiplexter Ausgangs-Neuronen benutzt werden.
Im folgenden wird die Erfindung anhand eines in der Zeich­ nung dargestellten Ausführungsbeispiels näher erläutert. In der Zeichnung zeigen:
Fig. 1 ein bekanntes mehrschichtiges Perzeptron ein­ schließlich einer Schicht versteckter Einhei­ ten;
Fig. 2 ein schematisches Schaltbild des bevorzugten Ausführungsbeispiels der Erfindung;
Fig. 3 eine Darstellung, wie das erfindungsgemäße mehrschichtige Perzeptron auf N separate Schichten ausgedehnt werden kann; und
Fig. 4 ein Schaltbild eines Ausführungsbeispiels der Puffer gemäß Fig. 2 und 3.
Es wird eine Einrichtung zum Multiplexen von Ausgangsneuro­ nen in einem verteilten parallel verarbeitenden System be­ schrieben. In der folgenden Beschreibung werden zahlreiche spe­ zielle Details, wie beispielsweise die Anzahl der Schichten, Verbindungen, Arten von Bauelementen usw. beschrieben, um ein besseres Verständnis der Erfindung zu erreichen. Es ist jedoch für den Fachmann offensichtlich, daß die vorliegende Erfindung auch ohne diese speziellen Details ausführbar ist. An anderen Stellen werden bekannte Strukturen, wie beispielsweise neuro­ nale Verstärker und Synapsen-Zellen nicht im Detail beschrie­ ben, um die Beschreibung der Erfindung nicht mit unnötigen Ein­ zelheiten zu belasten.
In Fig. 1 ist ein konventionelles mehrschichtiges Perzep­ tron gezeigt, in welchem ein Eingangsvektor ui an einen Satz von Eingangsknoten 10 angelegt ist. Diese Knoten werden selek­ tiv durch eine Vielzahl von Leitungen 12 mit einem zweiten Satz von Knoten 11 verbunden, der die versteckte Schicht des Netz­ werks aufweist. Jede Leitung 12 entkoppelt einen Wert in dem Synapsen-Feld. Zu bemerken ist außerdem, daß jeder der Knoten 11 in Fig. 1 ein neuronales Summierbauelement oder Neuron auf­ weist, welches im allgemeinen unter Verwendung eines Operati­ onsverstärkers elektrisch implementiert ist. Wie bereits zuvor erörtert wurde, belegen die Operationsverstärker eine große Fläche und erhöhen dadurch die Gesamtgröße und Kosten des Netz­ werks.
Die Knoten 11 der versteckten Schicht sind in gleicher Weise mit einem zweiten Satz Knoten 14 über Leitungen 13 ver­ bunden. Die Knoten 14 enthalten ebenfalls neuronale Summierein­ richtungen, deren Antwort ein Sigmoid-Funktions-Ausgangssignal Oj darstellt.
Das vorrangige Problem der bekannten Netzwerke gemäß Fig. 1 ist, daß jede Schicht des mehrschichtigen Perzeptrons einen Satz gesonderter Ausgangsneuronen erfordert. Bei einem sehr großen Feld mit mehreren Schichten ist die durch diese Neuronen beanspruchte Fläche unzulässig groß. Dies ist insbesondere dann der Fall, wenn das Netzwerk als integrierte Schaltung implemen­ tiert wird. Somit ist das mehrschichtige neuronale Netzwerk ge­ mäß Fig. 1 durch seine Ineffizienz gekennzeichnet.
In Fig. 2 ist das bevorzugte Ausführungsbeispiel der Erfin­ dung dargestellt, in welchem ein Eingangsvektor ui und eine Eingangsvorspannung VBIAS1 über Eingangspuffer 19 mit einer entsprechenden Vielzahl von horizontalen Leitungen 20 gekoppelt ist. Die Leitungen 20 enthalten die Axone des Feldes. Jede ho­ rizontale Leitung 20 ist selektiv mit einer vertikalen Dendrit- Leitung 17 über eine Synapsen-Zelle 18 verbunden. Die Synapsen- Zellen 18 speichern kollektiv einen Gewichtsvektor Wÿ. Wie dargestellt, endet jede der vertikalen Leitungen 17 an einer neuronalen Summiereinrichtung 24. Die Einrichtungen 24 summie­ ren den entlang der Leitungen 17 fließenden Strom und erzeugen eine Ausgangsspannung, die über die Leitungen 25 zur nächsten Schicht zurückgekoppelt wird. Die Leitungen 25 sind mit den der zweiten Schicht des Netzwerks zugeordneten horizontalen Leitun­ gen 21 über Rückkopplungs-Puffer 22 gekoppelt.
Es sei angemerkt, daß jeder Ebene bzw. jeder Schicht des mehrschichtigen Netzwerks gemäß Fig. 2 ein Eingangsvorspan­ nungs-Term VBIAS zugeordnet ist, welcher in ähnlicher Weise über einen Satz zusätzlicher Synapsen-Zellen 16 mit jeder der Leitungen 17 des Netzwerks gekoppelt ist. Beispielsweise ent­ hält die erste Ebene des in Fig. 2 gezeigten Netzwerks eine Eingangsspannung VBIAS1, die über Festvorspannungsgewichte B11, B12, .., B1k speichernde Synapsen-Zellen 16 mit dem Feld ge­ koppelt ist. Die Synapsen-Zellen 16 sind in jeder Hinsicht identisch mit den Zellen 18, d. h., die Zellen 16 implementieren eine Multiplikation des Eingangsvorspannungs-Terms VBIAS1 mit einem Satz Festvorspannungsgewichte (d. h. B1k). Außerdem ist anzumerken, daß die Eingangsvorspannung durch Puffer 19 gepuf­ fert ist.
In gleicher Weise enthält die zweite Ebene des neuronalen Netzwerks einen Eingangsvorspannungs-Term VBIAS2, der mit den Dendriten 17 über Festvorspannungsgewichte B21, B22, .., B21 speichernde Synapsen 16 gekoppelt ist. Jeder dieser Vorspan­ nungsterme repräsentiert einen festen Wert, wenn die zugeord­ nete Schicht des Netzwerks aktiv ist. Wenn die zugeordneten Eingangspuffereinheiten 22 gesperrt sind (über das Steuersignal ENABLE2), sind sowohl die Vorspannung als auch die auf den Lei­ tungen 25 präsenten rekursiven Eingangssignale vom Feld des Netzwerks abgetrennt. Dies schaltet praktisch die zweite Schicht oder Ebene des Netzwerks aus, so daß die rückgekoppel­ ten Eingangssignale nicht mehr zu den Strömen auf den mit den Neuronen 24 gekoppelten Leitungen 17 beitragen.
Das gleiche gilt für die erste Schicht des Netzwerks, d. h., während der Verarbeitung durch die zweite Schicht wird das Steuersignal ENABLE1 benutzt, um die Eingänge der ersten Ebene des Feldes zu sperren. Dieser Aspekt der Erfindung soll kurz detaillierter erörtert werden.
Die normale Arbeitsweise des Netzwerks gemäß Fig. 2 wird am besten als verteilte parallele Verarbeitung beschrieben, in welcher jedes der Neuronen 24 die folgende Funktion implemen­ tiert:
(On) = Sigmoid [Σ ((Wÿ) × (ui)) + Σ (Bk × VBIAS)]
((On) . . . Ausgangssignal, (Wÿ) . . . Gewichtsmatrix, (ui) . . . Eingangsvektor).
Diese Berechnung ist eine "Punktprodukt"- oder "inneres Produkt"-Operation, welche nachfolgend durch eine sigmoidale Übertragungscharakteristik "komprimiert" wird. Mit anderen Wor­ ten ist das Punktprodukt des Eingangsvektors ui mit einem ge­ speicherten Gewichtsvektor Wÿ gleich dem Produkt ihrer Langen mal dem Kosinus der Winkel zwischen ihnen. Dies ergibt eine einzige skalare Größe, welche mit dem Grad der Übereinstimmung der beiden Vektoren korreliert. Ein Vektorenpaar hat das größte Punktprodukt, wenn der Winkel zwischen beiden am geringsten ist (d. h. beste Übereinstimmung). In dem Netzwerk gemäß Fig. 2 bil­ det jedes der individuellen Neuronen 24 unabhängig voneinander das Punktprodukt des Eingangs- und/oder rekursiven Vektors mit der entsprechenden Gewichtsmatrix. (Natürlich gibt es außerdem zusätzliche Festvorspannungsgewichte, die jeder der Schichten des Netzwerks zugeordnet sind.)
In dem neuronalen Netzwerk gemäß Fig. 2 speichert jede der Synapsen 18 die Gewichte als analoge Übertragungsleitwert­ (Transkonduktanz-)Werte, die jeweils einen analogen Ausgangs­ strom aus einer analogen Eingangsspannung und einer gespeicher­ ten Gewichtsspannung erzeugen. Im allgemeinen weisen die Zellen 18 eine gewöhnliche EEPROM-Zellenpaar-Synapsenimplementierung auf, obwohl andere Arten von Synapsen-Zellen ebenfalls benutzt werden können. Die durch jede der entlang eines einzelnen Den­ driten 17 verbundenen Synapsen erzeugten Ströme werden zur Bil­ dung der Nettoeingangsgröße für einen Neuronenkörper 24 sum­ miert. Die "Summe der Ströme" der Dendriten wird dann durch die Neuronen 24, die ein Sigmoid-Funktions-Ausgangssignal erzeugen, in eine Spannung umgesetzt. Wenn sowohl die Eingangs- als auch die Rückkopplungsfelder aktiv sind, entspricht das auf den Lei­ tungen 25 zur Verfügung gestellte neuronale Ausgangssignal der Summe der beiden Punktprodukte.
Es sei angemerkt, daß die Sigmoid-Funktion eine "Schwellwert"-Funktion ist, wobei Punktprodukte unter dem Aus­ gangsschwellwert des Neurons eine schlechte Übereinstimmung zwischen den Eingangs- und gespeicherten Gewichtsvektoren an­ zeigen. Umgekehrt ist das Ausgangssignal des Neurons groß für Punktprodukte über dem Schwellwert des Neurons. Natürlich kann der Schwellwert des Neurons unabhängig davon durch an das Netz­ werk angelegt Lernalgorithmen geändert werden. Dies ermöglicht unterschiedliche Übereinstimmungskriterien für verschiedene Vektoren. Ein Ändern der Gewichte der Vorspannungseinheiten än­ dert die Summe der Ströme, wobei der Schwellwert des Neurons verschoben wird.
In der Konfiguration gemäß Fig. 2 sind die auf den Leitun­ gen 25 zur Verfügung gestellten neuronalen Ausgangssignale über Rückkopplungspuffer 22 mit dem zweiten Satz horizontaler Lei­ tungen 21 gekoppelt. Üblicherweise weisen die Rückkopplungspuf­ fer 22 gewöhnliche Speichereinrichtungen auf, aber sie können auch eine Abtast- und Halte-Funktion für eine sequentielle Ar­ beitsweise des neuronalen Netzwerks umfassen. Eine Anwendung, bei der dieses Merkmal besonders nützlich ist, ist die Spracherkennung, da die Eingangsdaten zu verschiedenen Zeit­ punkten gewonnen werden. Ein neuronales Netzwerk, das eine Ab­ tast- und Halte-Rückkopplungsarchitektur benutzt, ist in der US-PS 49 06 865 beschrieben.
Fig. 4 stellt ein Ausführungsbeispiel der Puffer 19 und 22 dar, das im erfindungsgemäßen Netzwerk benutzt werden kann. Im Puffer gemäß Fig. 4 werden die einzelnen Eingangssignale über die Eingangsleitungen 36 mit einem gewöhnlichen Puffer 37 ge­ koppelt, der ein Ausgangssignal auf Leitung 44 liefert. Leitung 44 wiederum ist mit einem einfachen Analogschalter 40 gekop­ pelt, der ein Paar parallel gekoppelter Feldeffektbauelemente (d. h. einen p-Kanal- und einen n-Kanal-Transistor) aufweist. Das Gate des n-Kanal-Transistors ist mit dem Knoten 38 verbun­ den, während das Gate des p-Kanal-Transistors mit dem Knoten 41 verbunden ist. Der Knoten 41 ist außerdem mit dem Gate eines gewöhnlichen n-Kanal-MOS-Transistors 43 verbunden. Die Source- und Drain-Bereiche des Transistors 43 sind zwischen Masse und der Leitung 45 eingebunden. Die Leitung 45 stellt den Ausgang des Analogschalters 40 dar. Die beschriebene Pufferstruktur wird für jeden entsprechenden, der bestimmten Ebene des Netz­ werks zugeordneten Eingangs- oder Vorspannungs-Term wiederholt.
Die Arbeitsweise des Puffers gemäß Fig. 4 soll im folgenden beschrieben werden. Das mit dem Knoten 38 gekoppelte ENABLE-Si­ gnal steuert das Durchschalten der Eingangsspannung auf Leitung 36 zu der mit dem Synapsen-Feld verbundenen Leitung. Wenn ENABLE "High" ist (d. h. 5 V), erzeugt der Inverter 39 eine "Low"-Spannung (d. h. 0 V), am Knoten 41. Dies schaltet das Bau­ element 43 aus und schließt den Schalter 40, wobei die Ein­ gangsspannung direkt mit dem Feld gekoppelt wird. Wenn ENABLE Low ist, tritt der entgegengesetzte Fall auf: der Schalter 40 wird geöffnet,und das Bauelement 43 wird eingeschaltet, wobei die Leitungen 45 auf Masse gezogen werden. Folglich werden die ENABLE1- und ENABLE2-Steuersignale im erfindungsgemäßen Netz­ werk benutzt, um entweder das externe oder das rekursive Ein­ gangssignal von der ihnen zugeordneten Schicht des Netzwerks wirksam zu trennen.
In einer typischen mehrschichtigen Verarbeitungsfolge wird der externe Eingangsvektor ui zunächst an das Synapsen-Feld der ersten Ebene angelegt. Während dieser Zeit ist das Feld der zweiten Ebene im wesentlichen durch Sperren der Rückkopplungs­ puffer 22 wie oben beschrieben gesperrt. Das resultierende Sig­ moid-Funktion-Ausgangssignal erscheint auf den Leitungen 25. Dieses Ausgangssignal entspricht einer Multiplikation des Ein­ gangsvektors ui mit dem in der ersten Ebene des Netzwerks ge­ speicherten Gewichtsvektor Wÿ. Dieses Ausgangssignal stellt außerdem das Rückkopplungs- bzw. rekursive Eingangssignal des Synapsen-Feldes der zweiten Ebene dar.
Wenn dann das rekursive Eingangssignal in den Rückkopp­ lungspuffern 22 gespeichert worden ist, wird das Feld der er­ sten Ebene durch Sperren der Eingangspuffer 19 (d. h. ENABLE1 = 0 V) geschlossen. Während dieser Zeit wird die zweite Ebene des Feldes durch Freigabe der Rückkopplungspuffer 22 (d. h. ENABLE2 = 5 V) aktiviert. Jetzt kann die Verarbeitung der zweiten Ebene damit beginnen, daß der auf den Leitungen 21 präsente rekursive Eingangsvektor mit dem gespeicherten Gewichtsvektor Wmn multi­ pliziert wird. Infolge der Verarbeitung der zweiten Schicht re­ präsentieren die Ausgänge der Neuronen 24 das Gesamtpunktpro­ dukt des Netzwerks.
Folglich kann das einzelne elektrisch lernfähige, analoge neuronale Netzwerk gemäß Fig. 2 zweischichtige Operationen durch Benutzen rekursiver Verbindungen und gemultiplexter Neu­ ronen verarbeiten. Zur Wiederholung: während der Verarbeitung der ersten Schicht berücksichtigt das Ausgangssignal der Neuro­ nen 24 eine Matrixmultiplikation eines Eingangsvektors mit dem in der ersten Ebene des Synapsen-Feldes gespeicherten Gewichts­ vektor. Wenn die Verarbeitung der zweiten Ebene beginnt, werden die Ausgangssignale der Neuronen als rekursive Eingangssignale zum Feld der zweiten Ebene zurückgekoppelt. Um zu vermeiden, daß die externen Eingangssignale des Netzwerks mit der Verar­ beitung der zweiten Ebene interferieren, werden die externen Eingangssignale von dem Feld durch Sperren der Eingangspuffer 19 wirksam abgetrennt.
Es ist einzusehen, daß die Rückkopplungsfähigkeit der vor­ liegenden Erfindung eine Vielzahl von Netzwerken, einschließ­ lich der Hopfield-Netzwerk-Implementierungen, unterstützt.
In Fig. 3, auf die im folgenden Bezug genommen wird, ist ein N-schichtiges neuronales Netzwerk gezeigt, das rekursive Eingänge und gemultiplexte Neuronen benutzt. Fig. 3 zeigt, wie das Basiskonzept der Erfindung auf ein Netzwerk mit mehr als zwei Schichten ausgedehnt werden kann. Beispielsweise ist in Fig. 3 gezeigt, daß das Synapsen-Feld 31 der ersten Schicht Eingangssignale ui empfängt und entlang der Dendriten 17 eine Summe von Strömen erzeugt. Die Summe der Ströme wird an die Eingänge der Neuronen 24 gekoppelt. Dem Synapsen-Feld 31 ist außerdem ein fest vorgespanntes Gewichtsfeld 27 zugeordnet.
Die verbleibenden Schichten sind in einer Weise, ähnlich derjenigen gemäß Fig. 2 aufgebaut; d. h. die rekursiven Ein­ gangssignale für die Synapsen-Schicht 32 (mit einem zugeordne­ ten Festvorspannungs-Feld 28) sind durch die über die Leitungen 25 rückgekoppelten Ausgangssignale der Neuronen 24 dargestellt. Normalerweise ist die auf den Leitungen 25 präsente neuronale Antwort das Ergebnis der Verarbeitung der vorangegangenen Schicht (d. h. Schicht 1). In einer bei der sequentiellen Schichtverarbeitung typischen Weise sind bei Aktivierung einer Schicht des Netzwerks alle anderen Schichten des Netzwerks durch geeignetes Sperren der entsprechenden Eingangssignale ef­ fektiv ausgeschaltet, was durch die Signale ENABLE1-N und die Puffer 1-N gesteuert wird.
Beispielsweise ist während der Verarbeitung der zweiten Schicht das Synapsen-Feld der ersten Schicht gemeinsam mit den Schichten 3 bis N gesperrt. Wenn die Verarbeitung der zweiten Schicht beendet ist, wird - wie zuvor - diese Schicht (d. h. Schicht 2) gesperrt und die in der Reihe nächste Schicht akti­ viert, um die durch die Neuronen 24 entlang der Rückkopplungs­ leitungen zur Verfügung gestellten rekursiven Eingangssignale zu empfangen.

Claims (10)

1. Mehrschichtiges, elektrisch lernfähiges neuronales Netz­ werk, dadurch gekennzeichnet,
daß eine erste Synapsen-Schicht (18) zum Multiplizieren ei­ nes Eingangsvektors mit einem ersten gespeicherten Gewicht (Wÿ),
eine zweite Synapsen-Schicht (18) zum Multiplizieren eines rekursiven Vektors mit einem zweiten gespeicherten Gewicht (Wmn),
eine Vielzahl von Neuronen (24) zum Ableiten von Sigmoid- Ausgangssignalen (25) aus einer oder beiden Synapsen-Schichten, und
daß Mittel (19, 22) zum Multiplexen der Neuronen zwischen der ersten und der zweiten Synapsen-Schicht vorgesehen sind.
2. Netzwerk nach Anspruch 1, dadurch gekennzeichnet, daß jede Synapsen-Schicht (18) so ausgebildet ist, daß sie ihre Ge­ wichte als einen analogen Transkonduktanz- bzw. Gegenwirkleit­ wert-Wert speichert und einen entlang der mit den Neuronen (24) gekoppelten Dendriten (17) summierten analogen Ausgangsstrom erzeugt.
3. Netzwerk nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Multiplex-Mittel
erste Puffermittel (19) zum Puffern des Eingangsvektors (u1...ui);
zweite Puffermittel (22) zum Puffern des rekursiven Vek­ tors; und
Steuermittel zum Steuern der ersten und zweiten Puffer auf­ weisen, wobei der Eingangsvektor von der ersten Synapsenschicht während der Verarbeitung durch die zweite Schicht abgekoppelt und der rekursive Vektor während der Verarbeitung durch die er­ ste Schicht abgekoppelt ist.
4. Netzwerk nach einem der Ansprüche 1 bis 3, dadurch ge­ kennzeichnet, daß ein erstes fest vorspannendes Gewichtsfeld (B11...B1k) der ersten Synapsenschicht zum Ändern der Summe der durch die erste Synapsenschicht erzeugten Ströme zugeordnet ist und daß ein zweites fest vorspannendes Gewichtsfeld (B21...B21) der zweiten Schicht zum Ändern der Summe der durch die zweite Schicht erzeugten Ströme zugeordnet ist.
5. Verteiltes parallel verarbeitendes System zum Korre­ lieren der Übereinstimmung zwischen zwei oder mehreren Vekto­ ren, gekennzeichnet durch
ein Eingangssynapsenfeld (18) zum Berechnen des inneren Produkts eines Eingangsvektors (u1...ui) und eines ersten ge­ speicherten Gewichtsvektors (Wÿ) in Form einer Summe von Strö­ men,
ein Rückkopplungs-Synapsenfeld (18) zum Berechnen des inne­ ren Produkts eines rekursiven Vektors und eines zweiten gespei­ cherten Gewichtsvektors (Wmn) in Form einer Summe von Strömen,
eine Vielzahl von Neuronen (24) zum Implementieren einer Sigmoid-Funktion und
Mittel (19, 22) zum sequentiellen Multiplexen der Neuronen (24) zwischen dem Eingangs- und dem Rückkopplungsfeld derart daß die Neuronen zuerst die Summe der von dem Eingangsfeld er­ zeugten Ströme bearbeiten, um den rekursiven Vektor zu erzeu­ gen, und dann die Summe der durch das Rückkopplungsfeld erzeug­ ten Ströme bearbeiten.
6. Verarbeitungssystem nach Anspruch 5, dadurch gekenn­ zeichnet, daß die Multiplexmittel
erste Puffermittel (19) zum Puffern des Eingangsvektors (u1...ui) von dem Eingangssynapsenfeld;
zweite Puffermittel (22) zum Puffern des rekursiven Vektors von dem Rückkopplungssynapsenfeld; und
Steuermittel zur Steuerung des ersten und des zweiten Puf­ fermittels aufweisen, wobei die Steuermittel so ausgebildet sind, daß sie den rekursiven Vektor vom Rückkopplungsfeld wäh­ rend der Verarbeitung der ersten Schicht und den Eingangsvektor vom Eingangsfeld während der Verarbeitung der zweiten Schicht entkoppeln.
7. Verarbeitungssystem nach Anspruch 5 oder 6, dadurch ge­ kennzeichnet, daß ein erstes fest vorspannendes Gewichtsfeld (B1k) dem Eingangssynapsenfeld zum Ändern der Summe der durch das Eingangsfeld erzeugten Ströme zugeordnet ist und daß ein zweites fest vorgespanntes Gewichtsfeld (B21) dem Rückkopp­ lungssynapsenfeld zum Ändern der Summe der durch das Rückkopp­ lungsfeld erzeugten Ströme zugeordnet ist.
8. Verarbeitungssystem nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, daß das Eingangs- und das Rückkopp­ lungsfeld jeweils ein Feld von elektrisch programmierbaren Floating-Gate-Bauelementen aufweisen, welche das erste und das zweite Gewicht in Form elektrischer Ladungen speichern.
9. N-schichtiges, elektrisch lernfähiges analoges neurona­ les Netzwerk, dadurch gekennzeichnet, daß die Eingänge in eine externe und eine rekursive Gruppe organisiert sind, daß jede Schicht ein einen Gewichtsvektor (W) und ein zugeordnetes fest vorgespanntes Gewicht (B) speicherndes Synapsenfeldes (16, 18) enthält, daß das fest vorgespannte Gewicht (B) die Summe der entlang der Dendriten (17) jedes Feldes erzeugten Ströme än­ dert, wobei die Summe der Ströme das Punktprodukt entweder zwi­ schen dem externen oder dem rekursiven Eingangssignal und dem gespeicherten Gewicht darstellt, daß das Netzwerk außerdem einen Satz von Neuronen (24) zur Berechnung des jeder Schicht zugeordneten gesamten Punktprodukts und Mittel (19, 22) zum Mul­ tiplexen der Neuronen während der Verarbeitung, beginnend mit der ersten Schicht und sequentiell fortfahrend bis zur N-ten Schicht aufweist, wobei die einer gegebenen Schicht zugeordnete Verarbeitung unabhängig von den an andere Schichten des Netz­ werks angelegten Eingangssignalen ausführbar ist und wobei die einer gegebenen Schicht zugeordnete neuronale Antwort als re­ kursive Eingangsgröße der nächsten in dieser Sequenz zu bear­ beitenden Schicht zu Verfügung gestellt wird.
10. Netzwerk nach Anspruch 9, dadurch gekennzeichnet, daß die Multiplex-Mittel eine Vielzahl von jeder Schicht des Netz­ werks zugeordneten Eingangspuffern (19, 22) aufweist, und daß die Puffer so gesteuert sind, daß die externen und/oder rekur­ siven Eingangssignale in Abhängigkeit von der Verarbeitungsse­ quenz selektiv entaktiviert sind.
DE4143073A 1990-12-28 1991-12-27 Mehrschichtiges neuronales netzwerk Withdrawn DE4143073A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/635,231 US5087826A (en) 1990-12-28 1990-12-28 Multi-layer neural network employing multiplexed output neurons

Publications (1)

Publication Number Publication Date
DE4143073A1 true DE4143073A1 (de) 1992-07-02

Family

ID=24546984

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4143073A Withdrawn DE4143073A1 (de) 1990-12-28 1991-12-27 Mehrschichtiges neuronales netzwerk

Country Status (6)

Country Link
US (1) US5087826A (de)
JP (1) JPH0628331A (de)
DE (1) DE4143073A1 (de)
FR (1) FR2671209B1 (de)
GB (1) GB2251328B (de)
IT (1) IT1252593B (de)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5588091A (en) * 1989-05-17 1996-12-24 Environmental Research Institute Of Michigan Dynamically stable associative learning neural network system
KR930009066B1 (ko) * 1990-08-18 1993-09-22 정호선 다층신경회로망 및 그 회로설계방법
US5222193A (en) * 1990-12-26 1993-06-22 Intel Corporation Training system for neural networks and the like
WO1993010500A1 (en) * 1991-11-13 1993-05-27 Iowa State University Research Foundation, Inc. Improved memory capacity neural network
US5303329A (en) * 1991-12-10 1994-04-12 Synaptics, Incorporated Continuous synaptic weight update mechanism
GB9214514D0 (en) * 1992-07-08 1992-08-19 Massachusetts Inst Technology Information processing
US5355436A (en) * 1992-10-05 1994-10-11 The Research Foundation, State University Of New York At Buffalo Single layer neural network circuit for performing linearly separable and non-linearly separable logical operations
JP2737583B2 (ja) * 1992-11-26 1998-04-08 松下電器産業株式会社 ニューラルネットワーク回路
US5579439A (en) * 1993-03-24 1996-11-26 National Semiconductor Corporation Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems
US5479574A (en) * 1993-04-01 1995-12-26 Nestor, Inc. Method and apparatus for adaptive classification
US5412256A (en) * 1994-01-06 1995-05-02 Bell Communications Research, Inc. Neuron for use in self-learning neural network
US5835902A (en) * 1994-11-02 1998-11-10 Jannarone; Robert J. Concurrent learning and performance information processing system
US5761626A (en) * 1995-12-26 1998-06-02 Ford Global Technologies, Inc. System and method for distinguishing and characterizing motor vehicles for control of automatic drivers
JP4750313B2 (ja) * 2001-05-31 2011-08-17 キヤノン株式会社 信号処理回路
US7068068B2 (en) * 2003-03-18 2006-06-27 Innovel Technology, Inc. Re-configurable mixed-mode integrated circuit architecture
TWI502522B (zh) * 2008-03-25 2015-10-01 Nantero Inc 以碳奈米管為基礎的類神經網路及其製造及使用方法
US9501738B1 (en) * 2012-08-16 2016-11-22 Sandia Corporation Cellular computational platform and neurally inspired elements thereof
US9324320B1 (en) * 2014-10-02 2016-04-26 Microsoft Technology Licensing, Llc Neural network-based speech processing
KR101701250B1 (ko) * 2015-08-03 2017-02-01 서울대학교산학협력단 딥 빌리프 네트워크를 위한 복수 레이어가 적층된 뉴런 어레이 및 뉴런 어레이 동작 방법
WO2017163208A1 (en) * 2016-03-23 2017-09-28 Gsi Technology Inc. In memory matrix multiplication and its usage in neural networks
EP3552112A1 (de) 2016-12-09 2019-10-16 Beijing Horizon Information Technology Co., Ltd. Systeme und verfahren zur datenverwaltung
JP7032125B2 (ja) * 2016-12-28 2022-03-08 株式会社半導体エネルギー研究所 半導体装置、及び該半導体装置を有する電子機器
US11113051B2 (en) 2017-04-28 2021-09-07 Tenstorrent Inc. Processing core with metadata actuated conditional graph execution
US10817293B2 (en) 2017-04-28 2020-10-27 Tenstorrent Inc. Processing core with metadata actuated conditional graph execution
KR102483643B1 (ko) * 2017-08-14 2023-01-02 삼성전자주식회사 모델을 학습하는 방법 및 장치 및 상기 뉴럴 네트워크를 이용한 인식 방법 및 장치
CN111052153B (zh) * 2017-09-07 2023-07-14 松下控股株式会社 使用半导体存储元件的神经网络运算电路及动作方法
WO2019049842A1 (ja) * 2017-09-07 2019-03-14 パナソニック株式会社 不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路
WO2019049654A1 (ja) * 2017-09-07 2019-03-14 パナソニック株式会社 半導体記憶素子を用いたニューラルネットワーク演算回路
JP6489295B1 (ja) * 2017-11-02 2019-03-27 Tdk株式会社 ニューロモルフィック素子を含むアレイ装置およびニューラルネットワークシステム
US11475306B2 (en) 2018-03-22 2022-10-18 Amazon Technologies, Inc. Processing for multiple input data sets
EP4542446A3 (de) * 2018-03-22 2025-07-02 Amazon Technologies, Inc. Verarbeitung für multiple eingabedatensätze
US20200193075A1 (en) 2018-11-05 2020-06-18 Incucomm, Inc. System and method for constructing a mathematical model of a system in an artificial intelligence environment
WO2020221797A1 (en) * 2019-04-29 2020-11-05 Ams International Ag Computationally efficient implementation of analog neuron
US11714999B2 (en) * 2019-11-15 2023-08-01 International Business Machines Corporation Neuromorphic device with crossbar array structure storing both weights and neuronal states of neural networks
CN111782580B (zh) * 2020-06-30 2024-03-01 北京百度网讯科技有限公司 复杂计算装置、方法、人工智能芯片和电子设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4760346A (en) * 1986-09-30 1988-07-26 Motorola, Inc. Switched capacitor summing amplifier
US4873661A (en) * 1987-08-27 1989-10-10 Yannis Tsividis Switched neural networks
JP2600753B2 (ja) * 1988-02-03 1997-04-16 日本電気株式会社 入力回路
US4926064A (en) * 1988-07-22 1990-05-15 Syntonic Systems Inc. Sleep refreshed memory for neural network
US4951239A (en) * 1988-10-27 1990-08-21 The United States Of America As Represented By The Secretary Of The Navy Artificial neural network implementation
US4906865A (en) * 1988-12-09 1990-03-06 Intel Corporation Sample and hold circuit for temporal associations in a neural network
US4972363A (en) * 1989-02-01 1990-11-20 The Boeing Company Neural network using stochastic processing
US4972157A (en) * 1989-07-21 1990-11-20 Advanced Micro Devices, Inc. Operational amplifier having selectable inputs
US5039871A (en) * 1990-05-21 1991-08-13 General Electric Company Capacitive structures for weighted summation as used in neural nets

Also Published As

Publication number Publication date
GB2251328A (en) 1992-07-01
GB2251328B (en) 1994-07-27
US5087826A (en) 1992-02-11
FR2671209B1 (fr) 1994-05-20
GB9126564D0 (en) 1992-02-12
JPH0628331A (ja) 1994-02-04
ITMI913503A1 (it) 1993-06-30
IT1252593B (it) 1995-06-19
ITMI913503A0 (it) 1991-12-30
FR2671209A1 (fr) 1992-07-03

Similar Documents

Publication Publication Date Title
DE4143073A1 (de) Mehrschichtiges neuronales netzwerk
DE68925156T2 (de) Integrierte Halbleiterschaltung für neurales Netzwerk
DE112018005726B4 (de) Resistive verarbeitungseinheit auf zählerbasis für programmierbare und rekonfigurierbare künstliche neuronale netzwerke
DE112016003245B4 (de) Resistive Verarbeitungseinheit
DE3689030T2 (de) Schaltung zur Bestimmung der besten Anpassung an Eingangssignale.
DE69019211T2 (de) Analoges programmierbares neuronales Netzwerk.
DE69329868T2 (de) Vorrichtung und Verfahren zur Erzeugung chaotischer Signale
DE4042139C2 (de) Neuron-Einheit
DE112018004992B4 (de) Übertragung synaptischer gewichte zwischen leitfähigkeitspaaren mitpolaritätsumkehr zum verringern fester einheitenasymmetrien
DE3924778A1 (de) Halbleiterzelle fuer ein neurales netzwerk u. dgl.
DE112020002186B4 (de) Dnn-training mit asymmetrischen rpu-einheiten
DE112019005119T5 (de) Abgleichtechniken zum angleichen des symmetriepunktes als null-gewichtungspunkt in analogen kreuzungspunktanordnungen
DE4316625A1 (de) Neuronales Netzwerk
DE3853880T2 (de) Einrichtung zur mustererkennung.
DE69719058T2 (de) Verbessertes neuronales netzwerk
DE19503147C2 (de) Chaos-Neuronen-Schaltung und diese verwendendes Neuronales Chaos-Netzwerk
DE69009786T2 (de) Schaltungsanordnung mit Mehrfachrückkopplung.
DE69110538T2 (de) Neuronales Klassifikationssystem and -verfahren.
DE69815390T2 (de) Neuronale netzwerke
DE112020005613T5 (de) Neuromorphe Einheit mit Kreuzschienen-Array-Struktur
DE4315576A1 (de) Neuronales Netzwerk
DE112021006672T5 (de) Dnn-training durch filtern mit versteckter matrix
WO2022063658A1 (de) Skalarproduktschaltung und verfahren zum berechnen binärer skalarprodukte eines eingangsvektors mit gewichtsvektoren
DE102018109851A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Netzkonfiguration eines neuronalen Netzes
DE69809402T2 (de) Assoziativneuron in einem künstlichen neuralen netzwerk

Legal Events

Date Code Title Description
8181 Inventor (new situation)

Free format text: HOLLER, MARK A., PALO ALTO, CA TAM, SIMON M., REDWOOD CITY, CA ANDES, DAVID K., RIDGECREST, CA

8139 Disposal/non-payment of the annual fee