DE102021108101A1 - System and method for federal learning using anonymized weighting factorization - Google Patents
System and method for federal learning using anonymized weighting factorization Download PDFInfo
- Publication number
- DE102021108101A1 DE102021108101A1 DE102021108101.7A DE102021108101A DE102021108101A1 DE 102021108101 A1 DE102021108101 A1 DE 102021108101A1 DE 102021108101 A DE102021108101 A DE 102021108101A DE 102021108101 A1 DE102021108101 A1 DE 102021108101A1
- Authority
- DE
- Germany
- Prior art keywords
- parameters
- client device
- global
- client
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Ein System für föderales maschinelles Lernen umfasst einen globalen Server und Client-Vorrichtungen. Der Server empfängt Updates von Gewichtungsfaktorwörterbüchern und Faktorstärkenvektoren von den Clients und erzeugt ein global aktualisiertes Gewichtungsfaktorwörterbuch und einen global aktualisierten Faktorstärkenvektor. Eine Client-Vorrichtung wählt eine Gruppe an Parametern aus einer globalen Gruppe an Parametern aus und trainiert ein Modell unter Verwendung eines Datensatzes der Client-Vorrichtung und der Gruppe an ausgewählten Parametern. Die Client-Vorrichtung sendet ein Client-aktualisiertes Gewichtungsfaktorwörterbuch und einen Client-aktualisierten Faktorstärkenvektor an den Server. Die Client-Vorrichtung empfängt das global aktualisierte Gewichtungsfaktorwörterbuch und den global aktualisierten Faktorstärkenvektor und trainiert das Modell erneut unter Verwendung des Datensatzes der Client-Vorrichtung, der Gruppe an Parametern, die durch die Client-Vorrichtung ausgewählt wurden, und des global aktualisierten Gewichtungsfaktorwörterbuchs und des global aktualisierten Faktorstärkenvektors .A federal machine learning system includes a global server and client devices. The server receives updates of weighting factor dictionaries and factor strength vectors from the clients and generates a globally updated weighting factor dictionary and a globally updated factor strength vector. A client device selects a set of parameters from a global set of parameters and trains a model using a data set of the client device and the set of selected parameters. The client device sends a client-updated weighting factor dictionary and a client-updated factor strength vector to the server. The client device receives the globally updated weighting factor dictionary and the globally updated factor strength vector and retrains the model using the data set of the client device, the set of parameters selected by the client device and the globally updated weighting factor dictionary and global updated factor strength vector.
Description
QUERVERWEIS AUF VERWANDTE ANMELDUNGCROSS REFERENCE TO RELATED APPLICATION
Diese Anmeldung beansprucht die Priorität nach 35 U.S.C. § 119(e) der provisorischen US-Anmeldung Nr.
TECHNISCHES GEBIETTECHNICAL AREA
Der hierin offenbarte Gegenstand betrifft föderales maschinelles Lernen (Federated Machine Learning). Insbesondere betrifft der hierin offenbarte Gegenstand ein System und ein Verfahren für föderales maschinelles Lernen.The subject matter disclosed herein relates to federated machine learning. In particular, the subject matter disclosed herein relates to a system and method for federal machine learning.
HINTERGRUNDBACKGROUND
Die Entwicklung des Internets der Dinge (Internet of Things, IoT), die weite Verbreitung von Smartphones sowie die Digitalisierung von Unterlagen hat zu modernen Systemen beigetragen, die immer größere Quantitäten an Daten erzeugen. Die Daten, die erzeugt werden, können umfangreiche Informationen über Personen geben, was einerseits zu höchst personalisierten intelligenten Anwendungen führen kann, aber andererseits auch vertraulich sein kann und daher privat bzw. vertraulich bleiben sollte. Beispiele für solche privaten Daten umfassen, sind aber nicht beschränkt auf, Bilder von Gesichtern, Tippverlauf, Krankenakten und Antworten in Umfragen.The development of the Internet of Things (IoT), the widespread use of smartphones and the digitization of documents have all contributed to modern systems that generate ever larger quantities of data. The data that is generated can provide extensive information about people, which on the one hand can lead to highly personalized intelligent applications, but on the other hand can also be confidential and should therefore remain private or confidential. Examples of such private information include, but are not limited to, images of faces, typing history, medical records, and survey responses.
KURZFASSUNGSHORT VERSION
Eine beispielhafte Ausführungsform schafft eine Client-Vorrichtung in einem System für föderales maschinelles Lernen, das mindestens eine Rechenvorrichtung, eine Kommunikationsschnittstelle und einen Prozessor umfassen kann. Der Prozessor kann mit der mindestens einen Rechenvorrichtung und mit der Kommunikationsschnittstelle gekoppelt sein. Der Prozessor kann eine Gruppe an Parametern für die Client-Vorrichtung aus einer globalen Gruppe an Parametern auswählen, ein Modell unter Verwendung eines Datensatzes der Client-Vorrichtung und der Gruppe an Parametern, die durch die Client-Vorrichtung ausgewählt wurden, trainieren, wobei der Datensatz ausgehend von einer Ausgabe der mindestens einen Rechenvorrichtung gebildet werden kann, ein Gewichtungsfaktorwörterbuch und einen Faktorstärkenvektor nach einem Training des Modells aktualisieren, ein Client-aktualisiertes Gewichtungsfaktorwörterbuch und einen Client-aktualisierten Faktorstärkenvektor durch die Kommunikationsschnittstelle an einen globalen Server senden, ein global aktualisiertes Gewichtungsfaktorwörterbuch und einen global aktualisierten Faktorstärkenvektor durch die Kommunikationsschnittstelle von dem globalen Server empfangen und das Modell unter Verwendung des Datensatzes der Client-Vorrichtung, der Gruppe an Parametern, die durch die Client-Vorrichtung ausgewählt wurden, und des global aktualisierten Gewichtungsfaktorwörterbuchs und des global aktualisierten Faktorstärkenvektors erneut trainieren. In einer Ausführungsform kann die Client-Vorrichtung Teil einer Gruppe von N Client-Vorrichtungen sein, wobei N eine ganze Zahl ist. In einer anderen Ausführungsform wählt der Prozessor die Gruppe an Parametern aus der globalen Gruppe an Parametern unter Verwendung von drei Variationsparametern, die Seed-Werte umfassen können, aus und minimiert eine Differenz zwischen einem überwachten Lernen des Datensatzes und einer Regularisierung der ausgewählten Gruppe an Parametern und der globalen Gruppe an Parametern. Der Prozessor kann die Gruppe an Parametern aus der globalen Gruppe an Parametern auswählen, indem er die globale Gruppe an Parametern empfängt, die von dem globalen Server an einen ersten Teilsatz an Client-Vorrichtungen der N Client-Vorrichtungen gesendet wurden, wobei die Client-Vorrichtung Teil des ersten Teilsatzes an Client-Vorrichtungen ist. Die Client-Vorrichtung kann das global aktualisierte Gewichtungsfaktorwörterbuch und einen global aktualisierten Faktorstärkenvektor empfangen, indem sie das global aktualisierte Gewichtungsfaktorwörterbuch und einen global aktualisierten Faktorstärkenvektor empfängt, die durch den globalen Server an einen zweiten Teilsatz der N Client-Vorrichtungen gesendet wurden, wobei die Client-Vorrichtung Teil des zweiten Teilsatzes an Client-Vorrichtungen sein kann. In noch einer weiteren Ausführungsform kann der Prozessor eine Anforderung durch die Kommunikationsschnittstelle an den globalen Server bezüglich einer aktuellen Version der globalen Gruppe an Parametern senden, kann das Modell unter Verwendung der aktuellen Version der globalen Gruppe an Parametern aktualisieren und kann das Modell, das unter Verwendung der aktuellen Version der globalen Gruppe an Parametern aktualisiert wurde, evaluieren, um basierend auf dem Datensatz der Client-Vorrichtung eine Inferenz zu bilden.An exemplary embodiment provides a client device in a federal machine learning system that may include at least a computing device, a communication interface, and a processor. The processor can be coupled to the at least one computing device and to the communication interface. The processor can select a set of parameters for the client device from a global set of parameters, train a model using a data set of the client device and the set of parameters selected by the client device, the data set starting from an output of the at least one computing device, update a weighting factor dictionary and a factor strength vector after training the model, send a client-updated weighting factor dictionary and a client-updated factor strength vector through the communication interface to a global server, a globally updated weighting factor dictionary and a globally updated factor strength vector received through the communication interface from the global server and the model using the data set of the client device, the group of parameters selected by the client device and retrain the globally updated weighting factor dictionary and globally updated factor strength vector. In one embodiment, the client device can be part of a group of N client devices, where N is an integer. In another embodiment, the processor selects the group of parameters from the global group of parameters using three variation parameters, which may include seed values, and minimizes a difference between supervised learning of the data set and regularization of the selected group of parameters and the global group of parameters. The processor can select the set of parameters from the global set of parameters by receiving the global set of parameters sent from the global server to a first subset of client devices of the N client devices, the client device Part of the first subset of client devices. The client device can receive the globally updated weighting factor dictionary and a globally updated factor strength vector by receiving the globally updated weighting factor dictionary and a globally updated factor strength vector sent by the global server to a second subset of the N client devices, the client devices Device may be part of the second subset of client devices. In yet another embodiment, the processor can send a request through the communication interface to the global server for a current version of the global group of parameters, can update the model using the current version of the global group of parameters, and can update the model using the current version of the global set of parameters has been updated to inference based on the client device's data set.
Eine beispielhafte Ausführungsform schafft ein System für föderales maschinelles Lernen, das einen globalen Server und N Client-Vorrichtungen umfassen kann. Der globale Server kann Updates von Gewichtungsfaktorwörterbüchern und Faktorstärkenvektoren von N Client-Vorrichtungen empfangen, wobei N eine ganze Zahl ist, und kann ein global aktualisiertes Gewichtungsfaktorwörterbuch und einen global aktualisierten Faktorstärkenvektor erzeugen. Mindestens eine Client-Vorrichtung kann mindestens eine Rechenvorrichtung, eine Kommunikationsschnittstelle und einen Prozessor umfassen. Der Prozessor kann mit der mindestens einen Rechenvorrichtung und mit der Kommunikationsschnittstelle gekoppelt sein. Der Prozessor kann eine Gruppe an Parametern aus einer globalen Gruppe an Parametern auswählen, ein Modell unter Verwendung eines Datensatzes der Client-Vorrichtung und der Gruppe an Parametern, die durch die Client-Vorrichtung ausgewählt werden, trainieren, ein Gewichtungsfaktorwörterbuch und einen Faktorstärkenvektor nach einem Training des Modells aktualisieren, ein Client-aktualisiertes Gewichtungsfaktorwörterbuch und einen Client-aktualisierten Faktorstärkenvektor durch die Kommunikationsschnittstelle senden, das global aktualisierte Gewichtungsfaktorwörterbuch und den global aktualisierten Faktorstärkenvektor von dem globalen Server durch die Kommunikationsschnittstelle empfangen und das Modell unter Verwendung des Datensatzes der Client-Vorrichtung, der Gruppe an Parametern, die durch die Client-Vorrichtung ausgewählt wurden, und des global aktualisierten Gewichtungsfaktorwörterbuchs und des global aktualisierten Faktorstärkenvektors erneut trainieren. In einer Ausführungsform kann der Prozessor die Gruppe an Parametern aus der globalen Gruppe an Parametern unter Verwendung von drei Variationsparametern auswählen, die Seed-Werte umfassen können, und minimiert eine Differenz zwischen einem überwachten Lernen des Datensatzes und einer Regularisierung der ausgewählten Gruppe an Parametern und der globalen Gruppe an Parametern. In einer anderen Ausführungsform kann der Prozessor die Gruppe an Parametern aus der globalen Gruppe an Parametern auswählen, indem er die globale Gruppe an Parametern empfängt, die von dem globalen Server an einen ersten Teilsatz an Client-Vorrichtungen der N Client-Vorrichtungen gesendet wurden, wobei die Client-Vorrichtung Teil des ersten Teilsatzes an Client-Vorrichtungen sein kann. In einer anderen Vorrichtung kann die Client-Vorrichtung das global aktualisierte Gewichtungsfaktorwörterbuch und einen global aktualisierten Faktorstärkenvektor empfangen, indem sie das global aktualisierte Gewichtungsfaktorwörterbuch und einen global aktualisierten Faktorstärkenvektor empfängt, die durch den globalen Server an einen zweiten Teilsatz der N Client-Vorrichtungen gesendet wurden, wobei die Client-Vorrichtung Teil des zweiten Teilsatzes an Client-Vorrichtungen sein kann. In einer Ausführungsform kann der Prozessor eine Anforderung durch die Kommunikationsschnittstelle an den globalen Server bezüglich einer aktuellen Version der globalen Gruppe an Parametern senden, kann das Modell unter Verwendung der aktuellen Version der globalen Gruppe an Parametern aktualisieren und kann das Modell, das unter Verwendung der aktuellen Version der globalen Gruppe an Parametern aktualisiert wurde, evaluieren, um basierend auf dem Datensatz der Client-Vorrichtung eine Inferenz zu bilden.An exemplary embodiment provides a federal machine learning system that may include a global server and N client devices. The global server can receive updates to weighting factor dictionaries and factor strength vectors from N client devices, where N is an integer, and can generate a globally updated weighting factor dictionary and a globally updated factor strength vector. At least one client device may include at least one computing device, a communication interface, and a processor. The processor can be coupled to the at least one computing device and to the communication interface. The processor can select a set of parameters from a global set of parameters, train a model using a data set of the client device and the set of parameters selected by the client device, a weighting factor dictionary and a factor strength vector after training of the model, send a client-updated weighting factor dictionary and a client-updated factor strength vector through the communication interface, receive the globally updated weight factor dictionary and the globally updated factor strength vector from the global server through the communication interface, and the model using the data set of the client device, the Retrain the group of parameters selected by the client device and the globally updated weighting factor dictionary and globally updated factor strength vector. In one embodiment, the processor can select the group of parameters from the global group of parameters using three variation parameters, which may include seed values, and minimizes a difference between supervised learning of the data set and regularization of the selected group of parameters and the global group of parameters. In another embodiment, the processor may select the set of parameters from the global set of parameters by receiving the global set of parameters sent from the global server to a first subset of client devices of the N client devices where the client device may be part of the first subset of client devices. In another device, the client device may receive the globally updated weighting factor dictionary and a globally updated factor strength vector by receiving the globally updated weighting factor dictionary and a globally updated factor strength vector sent by the global server to a second subset of the N client devices, wherein the client device can be part of the second subset of client devices. In one embodiment, the processor can send a request through the communication interface to the global server for a current version of the global group of parameters, can update the model using the current version of the global group of parameters, and can update the model using the current Version of the global set of parameters has been updated, evaluate to inference based on the client device data set.
Eine beispielhafte Ausführungsform schafft ein Verfahren für föderales maschinelles Lernen, das umfassen kann: Auswählen, bei einer Client-Vorrichtung, einer Gruppe an Parametern aus einer globalen Gruppe an Parametern, wobei die globale Gruppe an Parametern ein Gewichtungsfaktorwörterbuch und einen Faktorstärkenvektor umfasst; Trainieren, bei der Client-Vorrichtung, eines Modells unter Verwendung eines Datensatzes der Client-Vorrichtung und der Gruppe an Parametern, die durch die Client-Vorrichtung ausgewählt wurden; Aktualisieren eines Gewichtungsfaktorwörterbuchs und eines Faktorstärkenvektors nach einem Training des Modells; Senden, von der Client-Vorrichtung an einen globalen Server, eines Client-aktualisierten Gewichtungsfaktorwörterbuchs und eines Client-aktualisierten Faktorstärkenvektors; Empfangen eines aktualisierten Gewichtungsfaktorwörterbuchs und eines global aktualisierten Faktorstärkenvektors an der Client-Vorrichtung von dem globalen Server; und erneutes Trainieren des Modells an der Client-Vorrichtung unter Verwendung des Datensatzes der Client-Vorrichtung, der Gruppe an Parametern, die durch die Client-Vorrichtung ausgewählt wurden, und des global aktualisierten Gewichtungsfaktorwörterbuchs und des global aktualisierten Faktorstärkenvektors. In einer Ausführungsform kann die Client-Vorrichtung Teil einer Gruppe von N Client-Vorrichtungen sein, wobei N eine ganze Zahl ist. In einer anderen Ausführungsform kann das Auswählen der Gruppe an Parametern aus der globalen Gruppe an Parametern umfassen, die Gruppe an Parametern unter Verwendung von drei Variationsparametern, die Seed-Werte aufweisen, auszuwählen; und eine Differenz zwischen einem überwachten Lernen des Datensatzes und einer Regularisierung der ausgewählten Gruppe an Parametern und der globalen Gruppe an Parametern zu minimieren. In noch einer weiteren Ausführungsform kann das Auswählen der Gruppe an Parametern aus der globalen Gruppe an Parametern umfassen, die globale Gruppe an Parametern, die von dem globalen Server an einen ersten Teilsatz an Client-Vorrichtungen der N Client-Vorrichtungen gesendet wurden, an der Client-Vorrichtung zu empfangen, wobei die Client-Vorrichtung Teil des ersten Teilsatzes an Client-Vorrichtungen sein kann. In noch einer weiteren Ausführungsform kann ein Empfangen des global aktualisierten Gewichtungsfaktorwörterbuchs und eines global aktualisierten Faktorstärkenvektors von dem globalen Server an der Client-Vorrichtung umfassen, an der Client-Vorrichtung das global aktualisierte Gewichtungsfaktorwörterbuch und einen global aktualisierten Faktorstärkenvektor zu empfangen, die durch den globalen Server an einen zweiten Teilsatz der N Client-Vorrichtungen gesendet wurden, wobei die Client-Vorrichtung Teil des zweiten Teilsatzes an Client-Vorrichtungen sein kann. In einer Ausführungsform kann das Verfahren ferner ein Anfordern einer aktuellen Version der globalen Gruppe an Parametern von dem globalen Server durch die Client-Vorrichtung umfassen; ein Empfangen der aktuellen Version der globalen Gruppe an Parametern; ein Aktualisieren des Modells unter Verwendung der aktuellen Version der globalen Gruppe an Parametern; und ein Evaluieren des Modells, das unter Verwendung der aktuellen Version der globalen Gruppe an Parametern aktualisiert wurde, um basierend auf dem Datensatz der Client-Vorrichtung eine Inferenz zu bilden.An exemplary embodiment provides a method for federal machine learning that may include: selecting, at a client device, a set of parameters from a global set of parameters, the global set of parameters including a weighting factor dictionary and a factor strength vector; Training, at the client device, a model using a data set of the client device and the set of parameters selected by the client device; Updating a weighting factor dictionary and a factor strength vector after training the model; Sending, from the client device to a global server, a client-updated weighting factor dictionary and a client-updated factor strength vector; Receiving at the client device an updated weighting factor dictionary and a globally updated factor strength vector from the global server; and retraining the model on the client device using the data set of the client device, the set of parameters selected by the client device, and the globally updated weighting factor dictionary and the globally updated factor strength vector. In one embodiment, the client device can be part of a group of N client devices, where N is an integer. In another embodiment, selecting the group of parameters from the global group of parameters may include selecting the group of parameters using three variation parameters having seed values; and to minimize a difference between supervised learning of the data set and regularization of the selected group of parameters and the global group of parameters. In yet another embodiment, selecting the set of parameters from the global set of parameters may include the global set of parameters sent from the global server to a first subset of client devices of the N client devices, at the client Device, wherein the client device may be part of the first subset of client devices. In yet another embodiment, receiving the globally updated weighting factor dictionary and a globally updated factor strength vector from the global server at the client device may include receiving at the client device the globally updated weighting factor dictionary and a globally updated factor strength vector generated by the global server to a second subset of the N client devices, which client device may be part of the second subset of client devices. In one embodiment, the method may further include the client device requesting a current version of the global set of parameters from the global server; receiving the current version of the global group of parameters; updating the model using the current version of the global set of parameters; and evaluating the model updated using the current version of the global set of parameters to inference based on the client device data set.
FigurenlisteFigure list
In dem nachfolgenden Abschnitt werden die Aspekte des hierin offenbarten Gegenstands unter Bezugnahme auf beispielhafte Ausführungsformen beschrieben, die in den Zeichnungen dargestellt werden, in denen:
-
1 ein funktionales Blockschaltbild für eine beispielhafte Ausführungsform eines Systems für föderales Lernen gemäß des hierin offenbarten Gegenstands darstellt; -
2A und2B jeweils funktionale Blockschaltbilder für beispielhafte Ausführungsformen eines globalen Servers und eines Clients gemäß des hierin offenbarten Gegenstands darstellen; -
3 ein Flussdiagramm für eine beispielhafte Ausführungsform eines Verfahrens für föderales maschinelles Lernen bei einer Client-Vorrichtung gemäß dem hierin offenbarten Gegenstand ist; und -
4 eine elektronische Vorrichtung darstellt, die eine Funktionalität für föderales maschinelles Lernen gemäß dem hierin offenbarten Gegenstand umfasst.
-
1 Figure 12 is a functional block diagram for an exemplary embodiment of a federal learning system in accordance with the subject matter disclosed herein; -
2A and2 B each depict functional block diagrams for exemplary embodiments of a global server and a client in accordance with the subject matter disclosed herein; -
3 Figure 10 is a flow diagram for an exemplary embodiment of a method for federal machine learning at a client device in accordance with the subject matter disclosed herein; and -
4th FIG. 11 illustrates an electronic device that includes federal machine learning functionality in accordance with the subject matter disclosed herein.
DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION
In der nachfolgenden detaillierten Beschreibung sind zahlreiche spezifische Details dargelegt, um ein tiefgreifendes Verständnis der Offenbarung zu vermitteln. Für den Fachmann wird es allerdings verständlich sein, dass die offenbarten Aspekte ohne diese spezifischen Details in die Praxis umgesetzt werden können. In anderen Fällen wurden bekannte Verfahren, Prozeduren, Komponenten und Schaltungen nicht im Detail beschrieben, um den hierin offenbarten Gegenstand nicht zu verschleiern.In the following detailed description, numerous specific details are set forth in order to provide a thorough understanding of the disclosure. However, it will be understood by those skilled in the art that the aspects disclosed can be put into practice without these specific details. In other instances, known methods, procedures, components, and circuits have not been described in detail in order not to obscure the subject matter disclosed herein.
Eine Bezugnahme in dieser Beschreibung auf „eine Ausführungsform“ bedeutet, dass ein bestimmtes Merkmal, eine Struktur oder eine Eigenschaft, die in Verbindung mit der Ausführungsform beschrieben ist, in mindestens einer hierin offenbarten Ausführungsform umfasst sein kann. So muss sich das Vorkommen des Ausdrucks „in einer Ausführungsform“ oder „bei einer Ausführungsform“ oder „gemäß einer Ausführungsform“ (oder andere Ausdrücke, die eine ähnliche Bedeutung haben) an verschiedenen Stellen in dieser Spezifikation nicht notwendigerweise auf die gleiche Ausführungsform beziehen. Ferner können die bestimmten Merkmale, Strukturen oder Eigenschaften auf eine beliebige geeignete Weise in einer oder in mehreren Ausführungsformen kombiniert werden. Diesbezüglich bedeutet das Wort „beispielhaft“, wie hierin verwendet, dass es „als Beispiel, Fallbeispiel oder Darstellung dient“. Jegliche Ausführungsform, die hierin als „beispielhaft“ beschrieben ist, soll nicht als notwendigerweise bevorzugt oder vorteilhaft gegenüber anderen Ausführungsformen interpretiert werden. Zudem können die bestimmten Merkmale, Strukturen oder Eigenschaften auf eine beliebige geeignete Weise in einer oder in mehreren Ausführungsformen kombiniert werden. Auch kann abhängig von dem Kontext einer Erörterung hierin ein Begriff im Singular die entsprechenden Pluralformen umfassen und ein Begriff im Plural kann die entsprechende Singularform umfassen. Ebenso kann ein Begriff mit Bindestrich (z. B. „zwei-dimensional“, „pixel-spezifisch“ usw.) teilweise austauschbar mit einer entsprechenden Version ohne Bindestrich verwendet werden (z. B. „zweidimensional“, „vorgegeben“, „pixelspezifisch“ usw.) und ein großgeschriebener Eintrag (z. B. „Counter Clock“, „Row Select“, „PIXOUT“ usw.) kann austauschbar mit einer nicht großgeschriebenen Version verwendet werden (z. B. „counter clock“, „row select“, „pixout“ usw.). Solche gelegentlichen austauschbaren Verwendungen sollen nicht als inkonsistent verstanden werden.Reference in this specification to “an embodiment” means that a particular feature, structure, or characteristic described in connection with the embodiment may be included in at least one embodiment disclosed herein. Thus, the appearances of the phrase “in an embodiment,” or “in an embodiment,” or “according to an embodiment” (or other terms that have a similar meaning) in different places in this specification need not necessarily refer to the same embodiment. Furthermore, the particular features, structures, or properties can be combined in any suitable manner in one or more embodiments. In this regard, the word "exemplary" as used herein means that it "serves as an example, case study or illustration". Any embodiment described herein as "exemplary" is not to be interpreted as necessarily preferred or advantageous over other embodiments. In addition, the particular features, structures, or properties can be combined in any suitable manner in one or more embodiments. Also, depending on the context of a discussion herein, a singular term may include the corresponding plural forms and a plural term may include the corresponding singular form. Likewise, a term with a hyphen (e.g. “two-dimensional”, “pixel-specific” etc.) can be used partially interchangeably with a corresponding version without a hyphen (e.g. “two-dimensional”, “given”, “pixel-specific” ”Etc.) and a capitalized entry (e.g.“ Counter Clock ”,“ Row Select ”,“ PIXOUT ”etc.) can be used interchangeably with a non-capitalized version (e.g.“ counter clock ”,“ row select ”,“ pixout ”etc.). Such occasional interchangeable uses are not intended to be construed as inconsistent.
Auch kann abhängig von dem Kontext einer Erörterung hierin ein Begriff im Singular die entsprechenden Pluralformen umfassen und ein Begriff im Plural kann die entsprechende Singularform umfassen. Es wird ferner angemerkt, dass verschiedene Figuren (einschließlich Komponentendiagramme), die hierin gezeigt und erläutert werden, nur der Darstellung halber dienen und nicht maßstabsgetreu gezeichnet sind. Ebenso sind verschiedene Wellenformen und Zeitablaufdiagramme lediglich der Darstellung halber gezeigt. Zum Beispiel können die Dimensionen einiger der Elemente im Vergleich zu anderen Elementen der Klarheit halber übermäßig vergrößert sein. Ferner wurden, wo zweckmäßig, Bezugszeichen in Figuren wiederholt, um entsprechende und/oder analoge Elemente zu kennzeichnen.Also, depending on the context of a discussion herein, a singular term may include the corresponding plural forms and a plural term may include the corresponding singular form. It is further noted that various figures (including component diagrams) shown and discussed herein are for illustration purposes only and are not drawn to scale. Also, various waveforms and timing diagrams are shown for illustration purposes only. For example, the dimensions of some of the elements may be exaggerated in comparison to other elements for the sake of clarity. Furthermore, where appropriate, reference symbols have been repeated in the figures in order to identify corresponding and / or analogous elements.
Die hierin verwendete Terminologie dient ausschließlich dem Zweck der Beschreibung einiger beispielhafter Ausführungsformen und soll nicht den beanspruchten Gegenstand beschränken. Wie hierin verwendet, sind die Singularformen „einer“, „eines“, „eine“ und „der, die, das“ dazu gedacht, die Pluralformen ebenfalls zu enthalten, außer der Kontext gibt eindeutig anderes an. Es versteht sich ferner, dass die Begriffe „aufweisen“ und/oder „aufweisend“, wenn sie in dieser Spezifikation verwendet werden, die Anwesenheit von gegebenen Merkmalen, ganzen Zahlen, Schritten, Vorgängen, Elementen und/oder Komponenten angeben, aber nicht die Anwesenheit oder Hinzufügung von einem oder mehreren anderen Merkmalen, ganzen Zahlen, Schritten, Vorgängen, Elementen, Komponenten und/oder Gruppen derselben ausschließen. Die Begriffe „erster“, „zweiter“ usw. wie hierin verwendet, werden als nähere Bezeichnung für Nomen verwendet, denen sie vorausgehen, und sollen keine Reihenfolge (z. B. räumlich, zeitlich, logisch usw.) implizieren, außer sie sind explizit als solche definiert. Ferner können die gleichen Bezugszeichen in zwei oder mehr Figuren verwendet werden, um Teile, Komponenten, Blöcke, Schaltungen, Einheiten oder Module zu bezeichnen, welche die gleiche oder eine ähnliche Funktionalität aufweisen. Eine solche Verwendung dient allerdings nur dem Zwecke der Darstellung und einer einfachen Erörterung; sie impliziert nicht, dass die Konstruktion oder bautechnischen Details solcher Komponenten oder Einheiten in allen Ausführungsformen gleich sind oder dass solch gewöhnlich bezeichneten Teile/Module die einzige Möglichkeit sind, einige der hierin offenbarten beispielhaften Ausführungsformen zu implementieren.The terminology used herein is for the purpose of describing some exemplary embodiments only and is not intended to limit the claimed subject matter. As used herein, the singular forms "a,""an,""an," and "der, die, that" are intended to include the plural forms as well, unless the context clearly indicates otherwise. It is further understood that the terms “comprising” and / or “comprising” when used in this specification indicate the presence of given features, integers, steps, operations, elements, and / or components, but not the presence or exclude the addition of one or more other features, integers, steps, operations, elements, components and / or groups thereof. The terms "first,""second," etc., as used herein, are used to identify nouns they precede and are not intended to imply any order (e.g., spatial, temporal, logical, etc.) unless they are explicit defined as such. Furthermore, the same reference symbols can be used in two or more figures to denote parts, components, blocks, circuits, units or modules which have the same or a similar functionality. However, such a use is only for the purpose of illustration and simple discussion; it does not imply that the construction or engineering details of such components or units are the same in all embodiments or that such commonly referred to as parts / modules are the only way to implement some of the exemplary embodiments disclosed herein.
Es versteht sich, dass, wenn ein Element oder eine Schicht als „auf“, „verbunden mit“ oder „gekoppelt mit“ einem anderen Element oder einer anderen Schicht bezeichnet wird, dieses bzw. diese direkt auf, verbunden oder gekoppelt mit dem anderen Element oder der anderen Schicht sein kann, oder es können Zwischenelemente oder -schichten vorliegen. Im Gegensatz dazu gibt es keine Zwischenelemente oder -schichten, wenn ein Element als „direkt auf“, „direkt verbunden mit“ oder „direkt gekoppelt mit“ einem anderen Element oder einer anderen Schicht bezeichnet ist. Gleiche Bezugszeichen beziehen sich durchgehend auf gleiche Elemente. Im Sinne des vorliegenden Textes umfasst der Begriff „und/oder“ jegliche Kombinationen eines oder mehrerer der zugehörigen angeführten Aufzählungspunkte.It will be understood that when an element or layer is referred to as being “on,” “connected to,” or “coupled to” another element or layer, that element or layer is directly on, connected, or coupled to the other element or the other layer, or there may be intermediate elements or layers. In contrast, when an element is referred to as being “directly on,” “directly connected to,” or “directly coupled to” another element or layer, there are no intermediate elements or layers. The same reference numbers refer to the same elements throughout. In the context of the present text, the term “and / or” includes any combination of one or more of the associated bullet points listed.
Die Begriffe „erster“, „zweiter“ usw. wie hierin verwendet, werden als nähere Bezeichnung für Nomen verwendet, denen sie vorausgehen, und sollen keine Reihenfolge (z. B. räumlich, zeitlich, logisch usw.) implizieren, außer sie sind explizit als solche definiert. Ferner können die gleichen Bezugszeichen in zwei oder mehr Figuren verwendet werden, um Teile, Komponenten, Blöcke, Schaltungen, Einheiten oder Module zu bezeichnen, welche die gleiche oder eine ähnliche Funktionalität aufweisen. Eine solche Verwendung dient allerdings nur dem Zwecke der Darstellung und einer einfachen Erörterung; sie impliziert nicht, dass die Konstruktion oder bautechnischen Details solcher Komponenten oder Einheiten in allen Ausführungsformen gleich sind oder dass solch gewöhnlich bezeichneten Teile/Module die einzige Möglichkeit sind, einige der hierin offenbarten beispielhaften Ausführungsformen zu implementieren.The terms "first," "second," etc., as used herein, are used to identify nouns they precede and are not intended to imply any order (e.g., spatial, temporal, logical, etc.) unless they are explicit defined as such. Furthermore, the same reference symbols can be used in two or more figures to denote parts, components, blocks, circuits, units or modules which have the same or a similar functionality. However, such a use is only for the purpose of illustration and simple discussion; it does not imply that the construction or engineering details of such components or units are the same in all embodiments or that such commonly referred to as parts / modules are the only way to implement some of the exemplary embodiments disclosed herein.
Außer anderweitig definiert, haben alle Begriffe (einschließlich technischer und wissenschaftlicher Begriffe), die hierin verwendet werden, dieselbe Bedeutung, die üblicherweise von einen Fachmann auf dem Fachgebiet verstanden wird, zu dem dieser Gegenstand gehört. Es versteht sich ferner, dass Begriffe, wie beispielsweise diejenigen, welche in allgemein verwendeten Wörterbüchern definiert sind, als eine Bedeutung habend interpretiert werden sollten, welche konsistent mit ihrer Bedeutung in dem Zusammenhang des relevanten Fachgebiets ist, und nicht in einem idealisierten oder übermäßigen formalen Sinne interpretiert werden, solange nicht ausdrücklich hierin so definiert.Unless otherwise defined, all terms (including technical and scientific terms) used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this subject matter belongs. It is also to be understood that terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with their meaning in the context of the relevant technical field, and not in an idealized or excessively formal sense unless specifically defined herein.
Wie hierin verwendet, bezieht sich der Begriff „Modul“ auf jede beliebige Kombination aus Software, Firmware und/oder Hardware, die eingerichtet ist, die hierin beschriebene Funktionalität zu schaffen, in Verbindung mit einem Modul. Zum Beispiel kann Software als Software-Paket, Code und/oder Anweisungssatz oder Anweisungen verkörpert sein und der Begriff „Hardware“, wie er in einer hierin beschriebenen Implementierung verwendet wird, kann zum Beispiel, einzeln oder in einer beliebigen Kombination, eine Anordnung, eine fest verdrahtete Schaltung, eine programmierbare Schaltung, eine Zustandsautomatenschaltung und/oder Firmware umfassen, auf denen Anweisungen gespeichert sind, die durch programmierbare Schaltung ausführbar sind. Die Module können zusammen oder individuell als Schaltungseinrichtung verkörpert sein, die Teil eines größeren Systems bildet, zum Beispiel, aber nicht ausschließlich, eine integrierte Schaltung (IC), ein Ein-Chip-System (SoC), eine Anordnung usw.As used herein, the term “module” refers to any combination of software, firmware, and / or hardware configured to provide the functionality described herein in conjunction with a module. For example, software may be embodied as a software package, code, and / or instruction set or instructions, and the term "hardware" as used in an implementation described herein may, for example, individually or in any combination, include an arrangement, a hard-wired circuitry, a programmable circuitry, a state machine circuit and / or firmware on which instructions are stored that can be executed by programmable circuitry. The modules may be embodied together or individually as circuitry that forms part of a larger system, for example, but not limited to, an integrated circuit (IC), on-chip system (SoC), array, etc.
Föderales Lernen wurde zur Bereitstellung von maschinellem Lernen vorgeschlagen, das möglicherweise dafür sorgt, dass personalisierte Daten privat bleiben, indem Nutzerdaten lokal auf jeder Client-Vorrichtung verbleiben und nur Modellaktualisierungen mit einem globalen Server geteilt werden. So stellt föderales Lernen eine mögliche Strategie zum Trainieren von Modellen für maschinelles Lernen bei heterogenen, verteilten Netzen auf eine Weise dar, bei der die Privatsphäre gewahrt wird.Federal learning has been proposed to provide machine learning, which may keep personalized data private by keeping user data local on each client device and only sharing model updates with a global server. So puts federal Learning represents one possible strategy for training machine learning models on heterogeneous, distributed networks in a manner that preserves privacy.
Während ein Paradigma für föderales maschinelles Lernen eine Möglichkeit schaffen kann, damit private Daten privat bleiben, stehen Systeme für föderales maschinelles Lernen weiterhin vor einer Anzahl an Herausforderungen. Zum Beispiel umfasst ein aktuellverwendetes System für föderales maschinelles Lernen ein einziges globales Modell, das durch jeden Client verwendet wird. Der Ansatz mit einem Modell funktioniert allerdings möglicherweise nicht besonders gut bei besonderen Subpopulationen, da eine Datenverteilung bei unterschiedlichen Clients schief sein kann.While a federal machine learning paradigm can provide a way to keep private data private, federal machine learning systems continue to face a number of challenges. For example, a currently used federal machine learning system includes a single global model that is used by each client. However, the one-model approach may not work particularly well with particular subpopulations, as data distribution can be skewed among different clients.
Um dies darzustellen, stelle man sich N Client-Vorrichtungen vor und dass die i-te Client-Vorrichtung eine Datenverteilung Di umfasst, die sich von anderen Client-Vorrichtungen in Abhängigkeit von i unterscheidet. In einer traditionellen Umgebung für föderales maschinelles Lernen kann ein einzelnes globales Modell, das gelernt werden kann, bei allen N Client-Vorrichtungen eingesetzt werden. Der traditionelle oder übliche Ansatz geht von einer Multilayer-Perceptron(MLP)-Architektur aus, das Schichten l = 1, ..., L umfasst, und einen Satz an Gewichtungen θ = {Wl}l=1:L, der mit allen Client-Vorrichtungen geteilt wird. Um eine globale Zielsetzung zu erfüllen, kann ein Satz an Gewichtungen θ gelernt werden, um einen Verlust bei einem Mittel bei allen Clients auf ein Minimum zu reduzieren bzw. zu minimieren. Zum Beispiel minimiert ein traditionelles System für föderales maschinelles Lernen die nachfolgende Zielsetzung:
Sofern eine statistische Heterogenität gegeben ist, kann ein Universalansatz allerdings zu einem globalen Modell führen, das bei bestimmten Clients eine schlechte Performance liefert. Häufig kann die Performance widerspiegeln, wie genau die lokale Verteilung eines bestimmten Clients mit der Verteilung der gesamten Bevölkerung übereinstimmt. Folglich kann das Modell dieses beispielhaften traditionellen Systems für föderales maschinelles Lernen als weniger fair gegenüber Clients angesehen werden, die Datenmerkmale aufweisen, die bei den Clients weniger häufig sind.If there is statistical heterogeneity, however, a universal approach can lead to a global model that delivers poor performance for certain clients. Often times, performance can reflect how closely the local distribution of a given client matches the distribution of the entire population. As a result, the model of this exemplary traditional federal machine learning system can be viewed as less fair to clients who have data characteristics that are less common to the clients.
Der hierin offenbarte Gegenstand kann eine Modellkonsistenz für föderales Lernen verbessern, indem eine Bayessche nichtparametrische Gewichtungsfaktorisierung verwendet wird, die eine personalisierte Lösung für föderales Lernen bieten kann, die eine höhere Performance eines lokalen Models bei zahlreichen Clients erzielen kann.The subject matter disclosed herein can improve model consistency for federal learning by using Bayesian nonparametric weighting factorization, which can provide a personalized federal learning solution that can achieve higher local model performance on multiple clients.
Das hierin offenbarte System für föderales maschinelles Lernen umfasst mindestens drei verbesserte Merkmale im Vergleich zu traditionellen Systemen für föderales Lernen. Ein erstes verbessertes Merkmal ist, dass das Netzwerk, in dem föderales Lernen stattfindet, in zwei Teile aufgeteilt ist. Der erste Teil schafft eine Server-Aggregation und der zweite Teil wird zur Client-Personalisierung verwendet. Ein zweites verbessertes Merkmal betrifft eine reduzierte Menge an Daten, die zwischen einem globalen Server und Client-Vorrichtungen kommuniziert wird. Das heißt, eine Datenkommunikation zwischen dem globalen Server und den Client-Vorrichtungen ist effizienter, weil in den Client-Vorrichtungen eine Kernel-Faktorisierung verwendet wird, und nur ein Teilsatz der Parameter kommuniziert wird, die für das Training verwendet werden. Ein drittes verbessertes Merkmal betrifft eine zusätzliche Sicherheitsschicht, die durch die Kernel-Faktorisierung geschaffen wird, und dass nur ein Teilsatz der Parameter kommuniziert wird, die für das Training verwendet werden.The federal machine learning system disclosed herein includes at least three improved features compared to traditional federal learning systems. A first improved feature is that the network in which federal learning takes place is divided into two parts. The first part creates server aggregation and the second part is used for client personalization. A second improved feature relates to a reduced amount of data communicated between a global server and client devices. That is, data communication between the global server and the client devices is more efficient because kernel factorization is used in the client devices and only a subset of the parameters used for training are communicated. A third improved feature relates to an additional layer of security provided by kernel factorization and that only a subset of the parameters used for training are communicated.
Das hierin offenbarte System für föderales maschinelles Lernen schafft ein System für föderales Lernen, das Daten in einem globalen Modell effizient verwendet, um neuronale Netze in N lokalen Modellen faktorisiert zu trainieren. Jedes Client-Modell kann basierend auf einer lokalen Verteilung bei dem Client personalisiert werden, wobei alle Client-Modelle gelernte Komponenten gemeinsam teilen.The federal machine learning system disclosed herein provides a federal learning system that efficiently uses data in a global model to train neural networks factored in N local models. Each client model can be personalized based on a local distribution at the client, with all client models sharing learned components together.
Ein Client
Ein Client
Die Faktorisierung kann gleichwertig ausgedrückt werden als:
Jeder Client-Faktor-Score
Innerhalb des Kontexts von föderalem maschinellem Lernen mit statistischer Heterogenität gibt es eine Anzahl an wünschenswerten Eigenschaften, die die Client-Faktor-Scores gemeinsam aufweisen sollten. Wie zuvor erwähnt, ist
Um eine geringe Datendichte auf einer diagonalen personalisierten Matrix
Die Aposteriori-Verteilung kann für die zufälligen Variablen bi und vi gelernt werden. Exakte Inferenzen der Aposteriori können unlösbar sein, sodass eine Variationsinferenz verwendet werden kann, die eine Molekularfeldannäherung aufweist, um die aktiven Faktoren für jede Client-Vorrichtung unter Verwendung der nachfolgenden Variationsverteilungen zu bestimmen, die die Variationsparameter (d. h. Seed-Werte) {πi, ci, di} für jeden angefragten Client unter Verwendung einer Bayes-by-Backprop-Propagation lernen:
Um eine differenzierbare Parameterisierung zu haben, kann eine Kumaraswamy-Verteilung als Ersatz für die Beta-Verteilung von vi zusammen mit einer leichten Relaxation der Bernoulli-Verteilung verwendet werden. Die Zielsetzung für jeden Client ist es, die untere Variationsgrenze zu maximieren:
Eine Molekularfeldannäherung kann verwendet werden, um eine Expansion des zweiten Terms zu erlauben zu:
Bevor das Training beginnt, können globale Gewichtungsfaktoren {Wa, Wb} und Faktorstärken r durch den Server
Sobald ein lokales Training abgeschlossen ist, sendet jeder Client {Wa, Wb, r} zurück an den Server, aber nicht die Variationsparameter {πi, ci, di}, die bei dem Client mit einer Datenverteilung Di verbleiben. Nachdem der Server
Wenn ein Client
Datensicherheit ist eines der zentralen Aspekte von föderalem maschinellem Lernen. Einfachere, herkömmlichere Verfahren zum Trainieren eines Modells können eingesetzt werden, falls alle Daten zuerst bei einem zentralen Server aggregiert wurden. Die sehr reale Möglichkeit, dass vertrauliche Client-Daten während einer Übertragung abgefangen werden, oder ein Angreifer in den Datenspeicher des Servers
Für das hierin offenbarte System für föderales maschinelles Lernen übertragen Clients das gesamte Wörterbuch an Gewichtungsfaktoren {Wa, Wb} und Faktorstärken r an den Server
Die Schnittstelle
Ausführungsformen des Gegenstands und der in dieser Spezifikation beschriebenen Vorgänge können in digitalen elektronischen Schaltungen oder in Computer-Software, Firmware oder Hardware implementiert sein, welche die in dieser Spezifikation offenbarten Strukturen und deren strukturellen Äquivalente umfassen, oder in Kombinationen von einer oder mehr als einer derselben. Ausführungsformen des in dieser Spezifikation beschriebenen Gegenstands können als ein oder mehr als ein Computer-Programm implementiert sein, d. h. ein oder mehrere Module an Computerprogrammbefehlen, die zur Ausführung durch eine Datenverarbeitungseinrichtung oder zur Steuerung von Vorgängen derselben auf einem Computerspeichermedium codiert sind. Alternativ oder zusätzlich können die Programmbefehle auf einem künstlich erzeugten, verbreiteten Signal codiert sein, z. B. einem maschinell erzeugtem elektrischen, optischen oder elektromagnetischen Signal, das erzeugt wird, um Informationen für eine Übertragung an eine geeignete Empfängereinrichtung zum Ausführungen durch eine Datenverarbeitungseinrichtung zu codieren. Ein Computerspeichermedium kann eine computerlesbare Speichervorrichtung, ein computerlesbares Speichersubstrat, ein Random oder Serial-Access-Speicher-Array oder -vorrichtung oder eine Kombination daraus sein oder in dieser umfasst sein. Während ein Computerspeichermedium kein verbreitetes Signal ist, kann ein Computerspeichermedium außerdem eine Quelle oder ein Ziel für Computerprogrammbefehle sein, die in einem künstlich erzeugten verbreiteten Signal codiert sind. Das Computerspeichermedium kann auch ein oder mehrere separate physikalische Komponenten oder Medien sein oder darin umfasst sein (z. B. mehrere CDs, Disketten oder andere Speichervorrichtungen). Zudem können die in dieser Spezifikation beschriebenen Vorgänge als Vorgänge implementiert sein, die durch eine Datenverarbeitungseinrichtung bei Daten durchgeführt werden, die auf einem oder mehreren computerlesbaren Speichervorrichtungen gespeichert sind oder von anderen Quellen empfangen werden.Embodiments of the subject matter and the acts described in this specification may be implemented in digital electronic circuits or in computer software, firmware, or hardware comprising the structures disclosed in this specification and their structural equivalents, or in combinations of one or more than one thereof . Embodiments of the subject matter described in this specification can be implemented as one or more than one computer program; H. one or more modules of computer program instructions which are encoded on a computer storage medium for execution by a data processing device or for the control of processes of the same. Alternatively or additionally, the program instructions can be encoded on an artificially generated, broadcast signal, e.g. B. a machine-generated electrical, optical or electromagnetic signal that is generated to encode information for transmission to a suitable receiver device for execution by a data processing device. A computer storage medium can be or be included in a computer readable storage device, a computer readable storage substrate, a random or serial access storage array or device, or a combination thereof. While a computer storage medium is not a broadcast signal, a computer storage medium can also be a source or destination for computer program instructions encoded in an artificially generated broadcast signal. The computer storage medium may also be, or included within, one or more separate physical components or media (e.g., multiple CDs, floppy disks, or other storage devices). In addition, the operations described in this specification may be implemented as operations performed by a data processing device on data stored on one or more computer-readable storage devices or received from other sources.
Während diese Beschreibung viele spezifische Implementierungsdetails enthalten kann, sollten die Implementierungsdetails nicht als Beschränkungen hinsichtlich des Umfangs irgendeines beanspruchten Gegenstands ausgelegt werden sondern vielmehr als Beschreibungen von Merkmalen, die für bestimmte Ausführungsformen spezifisch sind. Bestimmte Merkmale, die in dieser Spezifikation in dem Kontext separater Ausführungsformen beschrieben sind, können auch in Kombination in einer einzelnen Ausführungsform implementiert sein. Umgekehrt können verschiedene Merkmale, die im Kontext einer einzelnen Ausführungsform beschrieben sind, auch in mehreren Ausführungsformen separat oder in jeder geeigneten Unterkombination implementiert sein. Obwohl Merkmale oben als in bestimmten Kombinationen agierend beschrieben wurden und ursprünglich sogar als solche beansprucht werden, kann ferner ein oder können mehrere Merkmale einer beanspruchten Kombination in manchen Fällen aus der Kombination herausgetrennt werden und die beanspruchte Kombination kann sich auf eine Unterkombination oder auf eine Abwandlung einer Unterkombination beziehen.While this description may contain many specific implementation details, the implementation details should not be construed as limitations on the scope of any claimed subject matter, but rather as descriptions of features that are specific to particular embodiments. Certain features that are described in this specification in the context of separate embodiments can also be implemented in combination in a single embodiment. Conversely, various features that are described in the context of a single embodiment can also be implemented in multiple embodiments separately or in any suitable sub-combination. Furthermore, although features have been described above as acting in certain combinations and are originally claimed as such, one or more features of a claimed combination may in some cases be separated from the combination and the claimed combination may refer to a sub-combination or a modification of a Refer to subcombination.
Während Vorgänge in den Zeichnungen in einer bestimmten Reihenfolge dargestellt sind, sollte dies ebenfalls nicht in so verstanden werden, dass es erforderlich sei, dass Vorgänge in der bestimmten gezeigten Reihenfolge oder in einer sequenziellen Reihenfolge durchgeführt werden, oder dass alle dargestellten Vorgänge durchgeführt werden, um gewünschte Ergebnisse zu erzielen. Unter bestimmten Umständen können Multitasking und Parallelverarbeitung vorteilhaft sein. Ferner sollte die Trennung verschiedener Systemkomponenten in den Ausführungsformen, die oben beschrieben sind, nicht derart verstanden werden, dass eine solche Trennung in allen Ausführungsformen erforderlich sei, und es sollte erkennbar sein, dass die beschriebenen Programmkomponenten und Systeme allgemein in einem einzelnen Software-Produkt zusammen integriert sein können oder in mehreren Software-Produkten verpackt sein können.Also, while operations in the drawings are depicted in a particular order, it should not be construed as requiring that operations be performed in the particular order shown or in a sequential order, or that all of the operations depicted be performed in order to achieve desired results. In certain circumstances, multitasking and parallel processing can be beneficial. Furthermore, the separation of various system components in the embodiments described above should not be understood in such a way that such separation is necessary in all embodiments, and it should be recognized that the program components and systems described are generally combined in a single software product can be integrated or can be packaged in several software products.
Auf diese Weise wurden bestimmte Ausführungsformen des Gegenstands hierin beschrieben. Andere Ausführungsformen sind im Rahmen der nachfolgenden Ansprüche umfasst. In einigen Fällen können die Aktionen, die in den Ansprüchen aufgeführt sind, in einer anderen Reihenfolge durchgeführt werden und trotzdem gewünschte Ergebnisse erzielen. Zudem erfordern die in den beigefügten Figuren dargestellten Prozesse nicht notwendigerweise die bestimmte, gezeigte Reihenfolge oder sequenzielle Reihenfolge, um gewünschte Ergebnisse zu erzielen. In bestimmten Implementierungen können Multitasking und Parallelverarbeitung vorteilhaft sein.Thus, certain embodiments of the subject matter have been described herein. Other embodiments are encompassed within the scope of the following claims. In some cases, the actions listed in the claims can be performed in a different order and still achieve the desired results. In addition, the processes illustrated in the accompanying figures do not necessarily require the particular order shown or sequential order in order to achieve desired results. In certain implementations, multitasking and parallel processing can be beneficial.
Es wird für einen Fachmann ersichtlich sein, dass die innovativen Konzepte, die hierin beschrieben sind, für einen breiten Anwendungsbereich abgewandelt und variiert werden können. Entsprechend sollte der Umfang eines beanspruchten Gegenstands nicht auf eine der spezifischen, beispielhaften Lehren, die oben erläutert wurden, beschränkt werden, sondern dieser wird vielmehr durch die nachfolgenden Ansprüche definiert.It will be apparent to a person skilled in the art that the innovative concepts described herein can be modified and varied for a wide range of applications. Accordingly, the scope of claimed subject matter should not be limited to any of the specific exemplary teachings set forth above, but rather is defined by the following claims.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- US 63/033747 [0001]US 63/033747 [0001]
Claims (20)
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US202063033747P | 2020-06-02 | 2020-06-02 | |
| US63/033,747 | 2020-06-02 | ||
| US17/148,557 | 2021-01-13 | ||
| US17/148,557 US20210374608A1 (en) | 2020-06-02 | 2021-01-13 | System and method for federated learning using weight anonymized factorization |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102021108101A1 true DE102021108101A1 (en) | 2021-12-02 |
Family
ID=78509360
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102021108101.7A Pending DE102021108101A1 (en) | 2020-06-02 | 2021-03-30 | System and method for federal learning using anonymized weighting factorization |
Country Status (3)
| Country | Link |
|---|---|
| KR (1) | KR20210150293A (en) |
| DE (1) | DE102021108101A1 (en) |
| TW (1) | TWI879972B (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114301889A (en) * | 2021-12-16 | 2022-04-08 | 南京理工大学 | An efficient federated learning method and system based on weight compression |
| CN116151369A (en) * | 2022-11-23 | 2023-05-23 | 武汉大学 | A Publicly Audited Byzantine Robust Federated Learning System and Method |
| CN117217328A (en) * | 2023-09-04 | 2023-12-12 | 西安电子科技大学 | Constraint factor-based federal learning client selection method |
| CN117557870A (en) * | 2024-01-08 | 2024-02-13 | 之江实验室 | Classification model training method and system based on federated learning client selection |
| US20240257118A1 (en) * | 2021-07-12 | 2024-08-01 | Kakaobank Corp. | Method and device for determining transfer information in message through natural language processing based on deep learning |
| CN120197725A (en) * | 2025-03-06 | 2025-06-24 | 内蒙古工业大学 | Federal learning client selection method based on bandwidth |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102882552B1 (en) * | 2022-01-25 | 2025-11-05 | 연세대학교 산학협력단 | Local Federated Mix-up Split Learning Apparatus and Method |
| KR102884769B1 (en) * | 2022-10-27 | 2025-11-11 | 국립암센터 | A federated learning system and method between medical institutions, and a disease prognosis prediction system including the same |
| KR20240071984A (en) | 2022-11-15 | 2024-05-23 | 경희대학교 산학협력단 | Apparatus and method for tackling data heterogeneity in federated learning using intermediate layer representation regularization |
| KR102857819B1 (en) * | 2023-01-25 | 2025-09-09 | 연세대학교 산학협력단 | Split Learning Method and Apparatus for Automatic Modulation Classification |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6591146B1 (en) * | 1999-09-16 | 2003-07-08 | Hewlett-Packard Development Company L.C. | Method for learning switching linear dynamic system models from data |
| US11593634B2 (en) * | 2018-06-19 | 2023-02-28 | Adobe Inc. | Asynchronously training machine learning models across client devices for adaptive intelligence |
| CN109978177B (en) * | 2019-03-19 | 2023-06-23 | 腾讯科技(深圳)有限公司 | Model training method, business processing method, device and related equipment |
| CN110377726B (en) * | 2019-06-05 | 2020-08-25 | 光控特斯联(上海)信息科技有限公司 | Method and device for realizing emotion recognition of natural language text through artificial intelligence |
| CN110647765B (en) * | 2019-09-19 | 2022-04-12 | 济南大学 | Privacy protection method and system based on knowledge migration under collaborative learning framework |
-
2021
- 2021-03-30 DE DE102021108101.7A patent/DE102021108101A1/en active Pending
- 2021-05-31 KR KR1020210069875A patent/KR20210150293A/en active Pending
- 2021-06-01 TW TW110119758A patent/TWI879972B/en active
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20240257118A1 (en) * | 2021-07-12 | 2024-08-01 | Kakaobank Corp. | Method and device for determining transfer information in message through natural language processing based on deep learning |
| US12175460B2 (en) * | 2021-07-12 | 2024-12-24 | Kakaobank Corp. | Method and device for determining transfer information in message through natural language processing based on deep learning |
| CN114301889A (en) * | 2021-12-16 | 2022-04-08 | 南京理工大学 | An efficient federated learning method and system based on weight compression |
| CN114301889B (en) * | 2021-12-16 | 2024-06-11 | 南京理工大学 | Weight compression-based efficient federal learning method and system |
| CN116151369A (en) * | 2022-11-23 | 2023-05-23 | 武汉大学 | A Publicly Audited Byzantine Robust Federated Learning System and Method |
| CN117217328A (en) * | 2023-09-04 | 2023-12-12 | 西安电子科技大学 | Constraint factor-based federal learning client selection method |
| CN117557870A (en) * | 2024-01-08 | 2024-02-13 | 之江实验室 | Classification model training method and system based on federated learning client selection |
| CN117557870B (en) * | 2024-01-08 | 2024-04-23 | 之江实验室 | Classification model training method and system based on federated learning client selection |
| CN120197725A (en) * | 2025-03-06 | 2025-06-24 | 内蒙古工业大学 | Federal learning client selection method based on bandwidth |
Also Published As
| Publication number | Publication date |
|---|---|
| TWI879972B (en) | 2025-04-11 |
| KR20210150293A (en) | 2021-12-10 |
| TW202147130A (en) | 2021-12-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102021108101A1 (en) | System and method for federal learning using anonymized weighting factorization | |
| US20210374608A1 (en) | System and method for federated learning using weight anonymized factorization | |
| DE102021117005A1 (en) | Process and facility for federal learning | |
| DE202017007641U1 (en) | Training machine learning models on multiple machine learning tasks | |
| DE102017125256A1 (en) | Search for a neural architecture | |
| DE102023127111A1 (en) | Fine-tuning and control of diffusion models | |
| DE212022000260U1 (en) | Evaluating output sequences using a neural autoregressive language model network | |
| DE112019006156T5 (en) | DETECTION AND TREATMENT OF INAPPROPRIATE INPUTS THROUGH NEURAL NETWORKS | |
| DE202012013479U1 (en) | System for synchronizing actions in the background of an application | |
| DE112020005560T5 (en) | Face manipulation detection using a multi-source, multi-channel frame guided by physical cues | |
| DE102016011173A1 (en) | Create summaries of multimedia documents | |
| DE102021107510A1 (en) | TRAINING OF A NEURAL NETWORK UNDER MEMORY RESTRICTION | |
| DE102021004506A1 (en) | Generative Image Merging | |
| DE112023002024T5 (en) | PRIVACY-SENSITIVE TRAINING OF NEURAL NETWORKS USING DATA AUGMENTATION | |
| DE112021000092T5 (en) | Edge data encryption method for Edge IoT proxy devices | |
| DE102022100920A1 (en) | COMPUTE-IN-MEMORY ACCUMULATOR | |
| DE102018125857A1 (en) | Higher level node device, wireless network terminal and method of data transmission | |
| DE102024127224A1 (en) | Federated Learning with Base Model Distillation | |
| Gou et al. | A Novel Spiking Neural P System for Image Recognition. | |
| DE102023116221A1 (en) | Method and apparatus for learning-based channel matrix prediction | |
| DE112022007491T5 (en) | PROCEDURE AND FACILITY FOR CONTINUOUS TASK LEARNING | |
| DE102025105954A1 (en) | Proxy-guided image processing | |
| DE102025111337A1 (en) | COMBINATIONAL OPTIMIZATION, ACCELERATED BY PARALLEL, sparingly COMMUNICATED, MEMBER-INTEGRATED HARDWARE | |
| DE102025106370A1 (en) | Aligning a reference image structure using diffusion models | |
| DE102025105583A1 (en) | System and method for a deep equilibrium approach to an adversarial attack by diffusion models |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed |