DE102022201702A1 - Computer-implemented method for protecting a machine learning model against deployment relocation, computer program, data carrier signal and automated transport system for transporting people and/or objects - Google Patents
Computer-implemented method for protecting a machine learning model against deployment relocation, computer program, data carrier signal and automated transport system for transporting people and/or objects Download PDFInfo
- Publication number
- DE102022201702A1 DE102022201702A1 DE102022201702.1A DE102022201702A DE102022201702A1 DE 102022201702 A1 DE102022201702 A1 DE 102022201702A1 DE 102022201702 A DE102022201702 A DE 102022201702A DE 102022201702 A1 DE102022201702 A1 DE 102022201702A1
- Authority
- DE
- Germany
- Prior art keywords
- machine learning
- learning model
- deployment
- domain
- shift
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Probability & Statistics with Applications (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
Abstract
Computerimplementiertes Verfahren zum Absichern eines Maschinenlernmodells (M) gegen eine Einsatzverlagerung, umfassend die Schritte: für Einzelbilder, auf denen das Maschinenlernmodell (M) in einer Einsatzphase inferiert, umfassend Einzelbilder aus zweiten Domänen (D2) mit einer jeweiligen Domäneverschiebung (a) relativ zu der ersten Domäne (D1), jeweils Bestimmen einer epistemischen Unsicherheit (c), wobei Vorwärtspfade des Maschinenlernmodells (M) entlang mehreren der Einzelbildern sequenziert werden (V2); Verwerten der epistemischen Unsicherheit (c) als Maß für die Leistungsfähigkeit (P) des Maschinenlernmodells (M) (V3); Wahrnehmen der Einsatzverlagerung als eine gegebene Abnahme der Leistungsfähigkeit (V4); bei der Einsatzverlagerung Rückmelden an ein System (S), in dem das Maschinenlernmodell (M) in der Einsatzphase eingesetzt wird, dass das Maschinenlernmodell (M) außerhalb der ersten Domäne (D1) inferiert (V5).Computer-implemented method for protecting a machine learning model (M) against a deployment shift, comprising the steps: for frames on which the machine learning model (M) infers in a deployment phase, comprising frames from second domains (D2) with a respective domain shift (a) relative to the first domain (D1), in each case determining an epistemic uncertainty (c), forward paths of the machine learning model (M) being sequenced along a plurality of the individual images (V2); Using the epistemic uncertainty (c) as a measure of the performance (P) of the machine learning model (M) (V3); perceiving the deployment shift as a given decrease in performance (V4); during the deployment shift, feedback to a system (S) in which the machine learning model (M) is deployed in the deployment phase, that the machine learning model (M) infers (V5) outside of the first domain (D1).
Description
Die Erfindung betrifft ein computerimplementiertes Verfahren zum Absichern eines Maschinenlernmodells gegen eine Einsatzverlagerung, ein Computerprogramm, ein Datenträgersignal und ein automatisierte Transportsystem zum Transportieren von Personen und/oder Gegenständen.The invention relates to a computer-implemented method for protecting a machine learning model against a shift in use, a computer program, a data carrier signal and an automated transport system for transporting people and/or objects.
Folgende Definitionen, Beschreibungen und Ausführungen behalten ihre jeweilige Bedeutung für und finden Anwendung auf den gesamten offenbarten Erfindungsgegenstand.The following definitions, descriptions, and implementations retain their respective meaning and apply to the entire subject matter disclosed.
Üblicherweise wird ein Maschinenlernmodell, zum Beispiel ein künstliches neuronales Netzwerk, beispielsweise ein Faltungsnetzwerk, mit Trainingsdaten geschult, wobei während diesem Trainingsprozess, Gewichte von Verbindungen von Neuronen eingestellt werden, beispielsweise mittels Gradient Descent Verfahren, um eine Verlustfunktion des Maschinenlernmodells zu minimieren. Damit werden Vorhersagen auf den Trainingsdaten aus den Trainingsdaten gelernt. Nach dem Training wird das Maschinenlernmodell mit Validierungsdaten validiert, das heißt Vorhersagefehler des Maschinenlernmodells werden minimiert. Zum Beispiel kann ein Datensatz aufgeteilt werden in Trainingsdaten und Validierungsdaten, wobei das Verhältnis beispielsweise 70:30, 80:20 oder 90:10 betragen kann. Nach dem Validierungsprozess wird das Maschinenlernmodell mit Testdaten auf Generalisierung getestet, um eine Überanpassung, auch overfitting, an die Trainingsdaten zu vermeiden.A machine learning model, for example an artificial neural network, for example a convolutional network, is usually trained with training data, with weights of connections of neurons being adjusted during this training process, for example using gradient descent methods, in order to minimize a loss function of the machine learning model. With this, predictions on the training data are learned from the training data. After the training, the machine learning model is validated with validation data, i.e. prediction errors of the machine learning model are minimized. For example, a data set can be divided into training data and validation data, where the ratio can be, for example, 70:30, 80:20 or 90:10. After the validation process, the machine learning model is tested for generalization with test data to avoid overfitting to the training data.
Nach dem Trainingsprozess werden die Gewichte, gegebenenfalls auch weitere Parameter, des Maschinenlernmodells eingefroren für einen Einsatz des Maschinenlernmodell, das heißt zur Bereitstellung in einem Produkt oder System. Der Einsatz basiert auf der Annahme, dass die Daten, die das Maschinenlernmodell während des Trainings, Validierens und/oder Testens prozessiert hat, und die Daten, die das Maschinenlernmodell während Inferenz in dem Einsatz prozessiert, aus derselben Domäne sind.After the training process, the weights, possibly also other parameters, of the machine learning model are frozen for use of the machine learning model, ie for provision in a product or system. The deployment is based on the assumption that the data that the machine learning model processed during training, validation and/or testing and the data that the machine learning model processes during inference in the deployment are from the same domain.
In realen Anwendungen, beispielsweise dem autonomen Fahren, ist jedoch zu einem bestimmten Zeitpunkt mit Domänenverschiebungen, auch domain shifts oder distributional shifts, das sind Änderungen der gemeinsamen Verteilung von Eingangsdaten, zu rechnen. Da sich der Erfindungsgegenstand auf den Einsatz, auch deployment genannt, eines Maschinenlernmodells bezieht, wird der Effekt der Domänenverschiebungen im Folgenden Einsatzverlagerung, auch deployment shift, genannt. Das Problem der Einsatzverlagerung tritt auf, wenn das Produkt oder System ignoriert, dass es eine erste Domäne, in der das eingesetzte Maschinenlernmodell trainiert, validiert und/oder getestet wurde, verlassen hat, was zu einem katastrophalen Abfall der Leistungsfähigkeit des Maschinenlernmodells in dem Einsatz führt, auch catastrophic deployment shift, catastrophic dropping in deployment performance oder out of domain performance dropping under deployment genannt. Ein catastrophic dropping in deployment performance tritt beispielsweise ein, wenn ein in einem Fahrzeug eingesetztes Maschinenlernmodell zum Klassifizieren von Objekten, das auf Tagbildern trainiert, validiert und/oder getestet wurde, nun in die Nachtdomäne gelangt und dort andere Fahrzeuge nicht erkennen kann. Die erste Domäne wird auch source domain genannt, beispielsweise gehören die Tagbilder zur source domain. Die Nachtdomäne wird in diesem Beispiel auch target domain genannt. Wenn die Domänenverschiebung zwischen source und target domain zu groß ist, ist der Zustand des Systems sicherheitskritisch.However, in real applications, such as autonomous driving, domain shifts, also known as domain shifts or distributional shifts, i.e. changes in the shared distribution of input data, are to be expected at a certain point in time. Since the subject matter of the invention relates to the use, also referred to as deployment, of a machine learning model, the effect of domain shifts is referred to below as deployment shift. The deployment shift problem occurs when the product or system ignores that it left an initial domain in which the deployed machine learning model was trained, validated, and/or tested, resulting in a catastrophic drop in the performance of the machine learning model in the deployment , also called catastrophic deployment shift, catastrophic dropping in deployment performance or out of domain performance dropping under deployment. A catastrophic dropping in deployment performance occurs, for example, when a machine learning model used in a vehicle to classify objects, which was trained, validated and/or tested on daytime images, now enters the night domain and cannot recognize other vehicles there. The first domain is also called the source domain, for example the tag images belong to the source domain. The night domain is also called target domain in this example. If the domain shift between source and target domain is too large, the state of the system is critical to security.
Im Stand der Technik sind Verfahren bekannt, Domänenverschiebungen im Trainingsprozess zu lernen. Domänenverschiebungen im Trainingsprozess zu lernen erfordert aber einen hohen Aufwand, Zeit und hohe Kosten, um neue Bereiche in den Trainingsdaten zu kennzeichnen, auch labelling genannt. Abhilfe können hier die Lehren der
Die
Die
Die
Die
Allerdings ist eine kontinuierliche Validierung nicht immer möglich und das Problem der Erkennung und Bekanntmachung von Einsatzverlagerungen damit nicht gelöst. Aufgabe der Erfindung war es, wie ein bereits trainiertes, validiertes und/oder getestetes Maschinenlernmodell in einem Einsatz gegen Einsatzverlagerung abgesichert werden kann.However, continuous validation is not always possible and this does not solve the problem of recognizing and notifying shifts in deployment. The object of the invention was how a machine learning model that has already been trained, validated and/or tested can be secured against a shift in use in an application.
Die Gegenstände der Ansprüche 1 und 6 bis 8 lösen jeweils diese Aufgabe. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Definitionen, den Unteransprüchen, den Zeichnungen und der Beschreibung bevorzugter Ausführungsbeispiele.The objects of claims 1 and 6 to 8 each solve this problem. Advantageous refinements of the invention result from the definitions, the dependent claims, the drawings and the description of preferred exemplary embodiments.
Nach einem Aspekt stellt die Erfindung ein computerimplementiertes Verfahren bereit zum Absichern eines Maschinenlernmodells gegen eine Einsatzverlagerung. Das Verfahren umfasst die Schritte:
- • Bereitstellen des Maschinenlernmodells, das in einer ersten Domäne auf Klassifizierung, Lokalisierung und/oder Verfolgung von Objekten und/oder Bildsegmentierung trainiert, validiert und/oder getestet wurde;
- • für Einzelbilder, auf denen das Maschinenlernmodell in einer Einsatzphase inferiert, umfassend Einzelbilder aus zweiten Domänen mit einer jeweiligen Domäneverschiebung relativ zu der ersten Domäne, jeweils Bestimmen einer epistemischen Unsicherheit, wobei Vorwärtspfade des Maschinenlernmodells entlang mehreren der Einzelbildern sequenziert werden;
- • Verwerten der epistemischen Unsicherheit als Maß für die Leistungsfähigkeit des Maschinenlernmodells bezüglich der Klassifizierung, Lokalisierung und/oder Verfolgung von Objekten und/oder Bildsegmentierung auf den Einzelbildern, wobei eine hohe Unsicherheit einer geringen Leistungsfähigkeit und eine geringe Unsicherheit einer hohen Leistungsfähigkeit entsprechen;
- • Wahrnehmen der Einsatzverlagerung als eine gegebene Abnahme der Leistungsfähigkeit, wobei die Einsatzverlagerung einem Einsatz des Maschinenlernmodells außerhalb der ersten Domäne entspricht;
- • bei der Einsatzverlagerung Rückmelden an ein System, in dem das Maschinenlernmodell in der Einsatzphase eingesetzt wird, dass das Maschinenlernmodell außerhalb der ersten Domäne inferiert.
- • Providing the machine learning model that has been trained, validated and/or tested in a first domain for classification, localization and/or tracking of objects and/or image segmentation;
- • for frames on which the machine learning model infers in a deployment phase, comprising frames from second domains with a respective domain shift relative to the first domain, each determining an epistemic uncertainty, wherein forward paths of the machine learning model are sequenced along several of the frames;
- • exploiting the epistemic uncertainty as a measure of the performance of the machine learning model with regard to the classification, localization and/or tracking of objects and/or image segmentation on the individual images, with high uncertainty corresponding to low performance and low uncertainty corresponding to high performance;
- • Perceiving the deployment shift as a given decrease in performance, the deployment shift corresponding to deployment of the machine learning model outside of the first domain;
- • In deployment shifting, feedback to a system in which the machine learning model is deployed in the deployment phase that the machine learning model is inferring outside of the first domain.
Nach einem weiteren Aspekt stellt die Erfindung ein Computerprogramm bereit. Das Computerprogramm umfasst Befehle, die einen Computer veranlassen, das erfindungsgemäße Verfahren auszuführen, wenn der Computer das Computerprogramm ausführt.According to a further aspect, the invention provides a computer program. The computer program includes instructions that cause a computer to carry out the method according to the invention when the computer runs the computer program.
Die Befehle des erfindungsgemäßen Computerprogramms umfassen Maschinenbefehle, Quelltext oder Objektcode geschrieben in Assemblersprache, einer objektorientierten Programmiersprache, beispielsweise C++, oder in einer prozeduralen Programmiersprache, beispielsweise C. Das Computerprogramm ist nach einem Aspekt der Erfindung eine Hardware unabhängiges Anwendungsprogramm, das beispielsweise über einen Datenträger oder das Datenträgersignal, nach einem Aspekt mittels Software Over The Air Technologie, für eine beliebige Hardware bereitgestellt wird. Der Datenträger umfasst flüchtige Speicher, beispielsweise RAM, DRAM, SRAM, und nichtflüchtige Speicher, beispielsweise ROM, Flash-EEPROM. Die Datenträger sind beispielsweise Flash-Speicherkarten, USB-Sticks. Nach einem weiteren Aspekt ist das Computerprogramm eine Hardware abhängiges Programm, beispielsweise eine Firmware der Auswerteeinheit des Transportsystems.The instructions of the computer program according to the invention include machine instructions, source text or object code written in assembly language, an object-oriented programming language, for example C++, or in a procedural programming language, for example C. According to one aspect of the invention, the computer program is a hardware-independent application program which, for example, has a data carrier or the data carrier signal is provided for any hardware, according to one aspect using software over the air technology. The data carrier includes volatile memory, for example RAM, DRAM, SRAM, and non-volatile memory, for example ROM, flash EEPROM. The data carriers are, for example, flash memory cards, USB sticks. According to a further aspect, the computer program is a hardware-dependent program, for example firmware for the evaluation unit of the transport system.
Nach einem weiteren Aspekt stellt die Erfindung ein Datenträgersignal bereit, das das erfindungsgemäße Computerprogramm überträgt.According to a further aspect, the invention provides a data carrier signal which transmits the computer program according to the invention.
Hinsichtlich des Datenträgersignals und dessen Bereitstellung mittels Software Over The Air Technologie umfasst die Auswerteeinheit des automatisierten Transportsystems oder das Transportsystem eine Middleware, über die sich das übertragene Computerprogramm als Anwendung auf einem Betriebssystem der Auswerteeinheit oder einem Betriebssystem des Transportsystems anmeldet. Middleware ist ein anwendungsneutrales Programm, das zwischen Anwendungen und Betriebssystemen von Hardwaremodulen vermittelt. Mittels der Middleware können Anwendungen oder auch Applikationen genannt unabhängig von einem Hardwaremodul, beispielsweise der Auswerteeinheit, verwendet werden.With regard to the data carrier signal and its provision using software over the air technology, the evaluation unit of the automated transport system or the transport system includes middleware via which the transmitted computer program registers as an application on an operating system of the evaluation unit or an operating system of the transport system. Middleware is an appl neutral program that mediates between applications and operating systems of hardware modules. Using the middleware, applications or also called applications can be used independently of a hardware module, for example the evaluation unit.
Nach einem weiteren Aspekt stellt die Erfindung ein automatisiertes Transportsystem bereit zum Transportieren von Personen und/oder Gegenständen. Das Transportsystem umfasst wenigstens einen Umfelderfassungssensor und eine Auswerteeinheit. Während eines Betriebs des Transportsystems
- • inferiert ein Maschinenlernmodell, das in einer ersten Domäne auf Klassifizierung, Lokalisierung und/oder Verfolgung von Objekten und/oder Bildsegmentierung trainiert, validiert und/oder getestet wurde, auf Daten des Umfelderfassungssensors;
- • sichert die Auswerteeinheit das Maschinenlernmodell gemäß des erfindungsgemäßen Verfahrens gegen eine Einsatzverlagerung ab.
- • infers a machine learning model, which was trained, validated and/or tested in a first domain for classification, localization and/or tracking of objects and/or image segmentation, on data from the environment detection sensor;
- • the evaluation unit secures the machine learning model according to the method according to the invention against a shift in use.
Absichern ist ein technischer Prozess, in dem basierend auf realen oder simulierten Daten, beispielsweise Daten, die mit Sensoren erfasst werden, beispielsweise mit Umfeldsensoren von Fahrzeugen, beispielsweise Kamera, Lidar, Radar, Mikrofon, Geruchssensoren, der Nachweis der Sicherheit, der Verifikation und/oder der Validierung des Systems, in dem das Maschinenlernmodell eingesetzt wird, beispielsweise ein automatisiertes Fahrzeug, in definierten Bereichen oder Einsatzgebieten, auch operational design domain, durch festgelegte Verarbeitungsschritte erfolgt. Beispielsweise befasst sich das Projekt „Verification Validation Methods“, siehe https://www.vvm-projekt.de/projekt, mit Testverfahren und Systematiken sowie Methoden, um den Sicherheitsnachweis für automatisierte Fahrzeuge zu führen.Securing is a technical process in which, based on real or simulated data, e.g. data collected by sensors, e.g. vehicle environment sensors, e.g. camera, lidar, radar, microphone, odor sensors, proof of security, verification and/or or the validation of the system in which the machine learning model is used, for example an automated vehicle, in defined areas or areas of application, also operational design domain, is carried out through defined processing steps. For example, the "Verification Validation Methods" project, see https://www.vvm-projekt.de/projekt, deals with test procedures and systematics as well as methods to provide safety verification for automated vehicles.
Lokalisieren von Objekten kann eine Abstandsbestimmung umfassen. Verfolgung von Objekten bedeutet, Objekte über die Zeit zu verfolgen, auch tracking genannt.Locating objects can include a distance determination. Tracking objects means following objects over time, also called tracking.
Die Einzelbilder können Einzelbilder von Bildfolgen oder Einzelbilder ohne direkten Sequenzcharakter sein. Einzelbilder aus Bildfolgen bedeutet, dass das Maschinenlernmodell kontinuierlich über die Zeit inferiert.The individual images can be individual images of image sequences or individual images without a direct sequence character. Single images from image sequences means that the machine learning model continuously infers over time.
Epistemische Unsicherheit, auch als Modellunsicherheit bezeichnet, wird so verstanden, dass er sich auf Unsicherheit bezieht, die von mangelndem Wissen bei der Darstellung von Modellparametern stammt, insbesondere in dem Szenario beschränkter Daten. Im Gegensatz dazu wird der Begriff aleatorische Unsicherheit, auch als Eingabeunsicherheit bezeichnet, so verstanden, dass er sich auf Unsicherheit bezieht, die von zu der Beobachtung gehörendem Rauschen stammt. Die Ursache für diesen Typ von Unsicherheit kann Rauschen von einem oder mehreren Sensoren sein.Epistemic uncertainty, also known as model uncertainty, is understood to refer to uncertainty stemming from lack of knowledge in representing model parameters, particularly in the data-constrained scenario. In contrast, the term aleatoric uncertainty, also referred to as input uncertainty, is understood to refer to uncertainty arising from noise associated with the observation. This type of uncertainty can be caused by noise from one or more sensors.
Im Stand der Technik ist es bekannt, in Trainingsprozessen von Maschinenlernmodellen epistemische Unsicherheiten zu modellieren, beispielsweise mittels Monte Carlo Dropout, wobei mehrere Vorwärtspfade des Maschinenlernmodells pro Einzelbild x jeweils mit unterschiedlichen, auf Monte Carlo Simulation basierenden, Dropout-Masken fi(x)∈{f0(x),f1(x),...,fT(x)} prozessiert werden. Der prädiktive posteriorer Mittelwert p, auch predictive posterior mean genannt, ist dann gegeben als
Dropout (p) (input_tensor, training=True)
mc_model = get_model(mc=True, act="relu")
mc_predictions=[]
for i in tqdm.tqdm(range(500)):
y_p=mc_odel.predict(x_test, batch_size=1000)
mc_predictions.append(y_p)
accs=[]
for y_p in mc_predictions:
acc=accuracy_score(y_test.argmax(axis=1), y_p.argmax(axis=1))
accs.append(acc)
print ("MC accuracy:{:.1 %}".format(sum(accs)/len(accs)))
implementiert werden. In the prior art, it is known to model epistemic uncertainties in training processes of machine learning models, for example using Monte Carlo dropout, with several forward paths of the machine learning model per frame x each with different dropout masks f i (x)∈ based on Monte Carlo simulation {f 0 (x),f 1 (x),...,f T (x)} are processed. The predictive posterior mean p, also called predictive posterior mean, is then given as Dropout (p) (input_tensor, training=True)
mc_model = get_model(mc=True, act="relu")
mc_predictions=[]
for i in tqdm.tqdm(range(500)):
y_p=mc_odel.predict(x_test, batch_size=1000)
mc_predictions.append(y_p)
accs=[]
for y_p in mc_predictions:
acc=accuracy_score(y_test.argmax(axis=1), y_p.argmax(axis=1))
accs.append(acc)
print ("MC accuracy:{:.1 %}".format(sum(accs)/len(accs)))
to be implemented.
Im Unterschied dazu wird in dem Einsatz die Unsicherheit über die Zeit bestimmt durch Sequenzierung der Vorwärtspfade entlang mehrerer Einzelbilder der jeweiligen Bildfolgen.In contrast to this, the uncertainty over time is determined in the application by sequencing the forward paths along several individual images of the respective image sequences.
Zur Bestimmung der Leistungsfähigkeit eines Maschinenlernmodells sind im Stand der Technik verschiedene Metriken bekannt, beispielsweise precision, recall, receiver operating curve oder accuracy in Keras. Die Erfindung bestimmt leitet die Leistungsfähigkeit eines Maschinenlernmodells in einem Einsatz des Maschinenlernmodells aus epistemischen Unsicherheiten. Damit kann eine Einsatzverlagerung, beispielsweise out of domain performance drops under deployment, überwacht werden. Die epistemische Unsicherheit kann an jedem Einzelbild aus den zweiten Domänen, auf denen das Maschinenlernmodell inferiert, ohne Referenzdaten, das heißt ohne ground truth, bestimmt werden. Zusätzliche Kennzeichnungen oder Labeln der Daten, wie bei der Bestimmung von precision, recall, receiver operating curve oder accuracy erforderlich, entfällt damit. Damit stellt die Erfindung eine online-Funktion bereit, die das Maschinenlernmodell im online-Fall in Form eines safety envelopes einkapselt.Various metrics are known in the prior art for determining the performance of a machine learning model, for example precision, recall, receiver operating curve or accuracy in Keras. The invention determines the performance of a machine learning model in a deployment of the machine learning model from epistemic uncertainties. This allows a shift in deployment, for example out of domain performance drops under deployment, to be monitored. The epistemic uncertainty can be determined for each frame from the second domains on which the machine learning model infers without reference data, i.e. without ground truth. Additional markings or labels of the data, as required when determining precision, recall, receiver operating curve or accuracy, are therefore no longer necessary. The invention thus provides an online function that encapsulates the machine learning model in the online case in the form of a safety envelope.
Nach einem Aspekt werden die epistemischen Unsicherheiten im Livebetrieb, das heißt online, beispielsweise während Einsatzfahrten des automatisierten Transportsystems, bestimmt. Nach einem weiteren Aspekt werden die epistemischen Unsicherheiten offline bestimmt, insbesondere wenn das Maschinenlernmodell und die Daten offline zugänglich sind. Dies kann erforderlich sein, wenn das System beispielsweise über wenig Rechenleistung verfügt.According to one aspect, the epistemic uncertainties are determined in live operation, i.e. online, for example during operational trips of the automated transport system. According to another aspect, the epistemic uncertainties are determined offline, especially when the machine learning model and data are accessible offline. This may be necessary if, for example, the system has little computing power.
Wird das Maschinenlernmodell beispielsweise in automatisierten Transportsystemen für Perzeption, das heißt Umfeldwahrnehmung, eingesetzt, ermöglicht die Erfindung ein sogenanntes Defensive Driving Systemverhalten in Bereichen, in denen die Perzeption bisher unbemerkte, reduzierte Leistungsfähigkeit aufweist. Die Erfindung ermöglicht es, die bisher unbemerkte, reduzierte Leistungsfähigkeit bei Einsatzverlagerung zu detektieren und bei entsprechender Detektion das System durch Rückmeldungen und/oder Sicherheitsanweisungen zu beeinflussen. Beispielsweise kann ein Bediener des automatisierten Transportsystems oder das automatisierte Transportsystem die Sicherheitsanweisung erhalten, langsamer zu fahren oder in einen sicheren Zustand, beispielsweise in Form von fail operational, zu wechseln. Damit stellt die Erfindung einen sogenannten saftey envelope für die Perzeption basierend auf Bestimmung von epistemischen Unsicherheiten in einem Einsatz bereit.If the machine learning model is used, for example, in automated transport systems for perception, ie environment perception, the invention enables so-called defensive driving system behavior in areas in which perception has previously unnoticed, reduced performance. The invention makes it possible to detect the hitherto unnoticed reduced performance when the deployment is shifted and, if detected accordingly, to influence the system through feedback and/or safety instructions. For example, an operator of the automated transport system or the automated transport system can receive the safety instruction to drive more slowly or to switch to a safe state, for example in the form of fail operational. The invention thus provides a so-called saftey envelope for perception based on the determination of epistemic uncertainties in a mission.
Weitere von der Erfindung umfasst Einsatzfelder für Maschinenlernmodelle sind beispielsweise Klassifikation von Objekten und/oder Bildsegmentierung in bildgebenden Verfahren im medizinischen Bereich, beispielsweise zur Diagnose von Krankheiten, beispielsweise basierend auf Röntgenaufnahmen. Das System kann beispielsweise ein Röntgengerät sein.Further fields of application for machine learning models covered by the invention are, for example, classification of objects and/or image segmentation in imaging methods in the medical field, for example for diagnosing diseases, for example based on X-ray images. The system can be an X-ray machine, for example.
Automatisierte Transportsystem dienen dem Transport von Gegenständen, Gütern, Frachten und/oder Personen. Automatisierte Transportsysteme umfassen innerbetriebliche Transportsysteme, beispielsweise fahrerlose Transportfahrzeuge, beispielsweise Kleinteileladungsträger. Automatisierte Transportsysteme umfassen ferner arealgebundene Transportsysteme, beispielsweise Terminal-Zugmaschinen für den Einsatz in Häfen oder Portalhubwägen. Automatisierte Transportsysteme umfassen des Weiteren private Transportsysteme, beispielsweise Personenkraftwagen oder Nutzfahrzeuge. Automatisierte Transportsysteme umfassen auch Transportsysteme des öffentlichen Nah- und/oder Fernverkehrs, beispielsweise Züge, Busse oder Shuttles. Automatisiert bedeutet, dass das Transportsystem ausgeführt ist, eine Fahraufgabe automatisiert durchzuführen. Automatisiert umfasst teilweise automatisiertes Durchführen der Fahraufgabe mit Mitverantwortung eines menschlichen Fahrers bis hin zu autonomen, das heißt fahrerlosem, Durchführen der Fahraufgabe. Beispielsweise umspannt der Begriff automatisiert alle Stufen der Norm SAE J3016. System bezeichnet die Komponenten und Funktionalitäten auf Systemebene als auch das automatisierte Transportsystem, beispielsweise ein automatisiertes Fahrzeug, als solches.Automated transport systems are used to transport objects, goods, freight and/or people. Automated transport systems include internal transport systems, for example driverless transport vehicles, for example small parts load carriers. Automated transport systems also include area-bound transport systems, such as terminal tractors for use in ports or straddle carriers. Automated transport systems also include private transport systems, for example passenger cars or commercial vehicles. Automated transport systems also include transport systems for local and/or long-distance public transport, such as trains, buses or shuttles. Automated means that the transport system is designed to carry out a driving task automatically. Automated includes partially automated execution of the driving task with joint responsibility of a human driver up to autonomous, i.e. driverless, execution of the driving task. For example, the term automatically encompasses all levels of the SAE J3016 standard. System designates the components and functionalities at system level as well as the automated transport system, for example an automated vehicle, as such.
Nach einem Aspekt der Erfindung ist das automatisierte Transportsystem ein autonomes Shuttle, das Personen und/oder Güter im urbanen Umfeld transportiert. Trainingsdaten wurden gesammelt, gekennzeichnet und das eingesetzte Maschinenlernmodell wurde trainiert, validiert und getestet und schließlich für den Einsatz eingefroren. Während des Einsatzes läuft das Shuttle und das eingesetzte Maschinenlernmodell Gefahr eines Leistungseinbruchs durch eine Einsatzverlagerung, was im bekannten Stand der Technik nur dann bemerkt wird, wenn das System ein katastrophales Fehlverhalten aufweist. Dagegen ermöglicht die Erfindung, bei kontinuierlicher Inferenz von Maschinenlernmodellen Einsatzverlagerungen zu überwachen.According to one aspect of the invention, the automated transport system is an autonomous shuttle that transports people and/or goods in an urban environment. Training data was collected, labeled and the deployed machine learning model was trained, validated and tested and finally frozen for deployment. During the mission, the shuttle and the machine learning model used run the risk of a drop in performance due to mission shifting, which is only noticed in the known prior art if the system exhibits a catastrophic malfunction. In contrast, the invention makes it possible to monitor deployment shifts with continuous inference of machine learning models.
Der Umfelderfassungssensor des automatisierten Transportsystems ist beispielsweise eine Kamera, ein Radar, Lidar, Akustiksensor, Infrarot-, Ultraschallsensor, Geruchssensor. Nach einem Aspekt umfasst das automatisierte Transportsystem mehrere der voran genannten Umfelderfassungssensoren, einzelnd und/oder in einer Kombination.The environment detection sensor of the automated transport system is, for example, a camera, radar, lidar, acoustic sensor, infrared sensor, ultrasonic sensor, odor sensor. According to one aspect, the automated transport system includes a plurality of the environment detection sensors mentioned above, individually and/or in a combination.
Die Auswerteeinheit des automatisierten Transportsystems kann ein Computer oder ein Computermodul sein umfassend beispielsweise anwendungsspezifische integrierte Schaltkreise, abgekürzt ASICs, integrierte Schaltkreise mit ladbaren logischen Schaltungen, abgekürzt FPGAs, Zentralcomputer, abgekürzt CPUs, Hardware Beschleuniger, beispielsweise Graphikprozessoren, abgekürzt GPUs, Tensor-Prozessier-Einheiten, abgekürzt TCUs. Die Auswerteeinheit ist nach einem Aspekt ein System on Chip, abgekürzt SoC. Das SoC ist beispielsweise in ein Bordnetzwerk des automatisierten Transportsystems eingebettet.The evaluation unit of the automated transport system can be a computer or a computer module comprising, for example, application-specific integrated circuits, ASICs for short, integrated circuits with loadable logic circuits, FPGAs for short, central computers, CPUs for short, hardware accelerators, for example graphics processors, GPUs for short, tensor processing units , abbreviated TCUs. According to one aspect, the evaluation unit is a system on chip, or SoC for short. For example, the SoC is embedded in an on-board network of the automated transport system.
Nach einem weiteren Aspekt werden die epistemischen Unsicherheiten
- • jeweils der letzten n Einzelbilder bestimmt, wobei n eine einstellbare Zahl ist, oder
- • für jedes k-te Einzelbild bestimmt, wobei k eine einstellbare Zahl ist.
- • determines the last n frames, where n is an adjustable number, or
- • determined for every kth frame, where k is an adjustable number.
Die Bestimmung der epistemischen Unsicherheiten der jeweils letzten n Einzelbilder erhöht die die Robustheit gegenüber Ausreißern. Die epistemischen Unsicherheiten der letzten n Einzelbilder werden nach einem Aspekt mit einem Schiebefensteralgorithmus, auch sliding window genannt, bestimmt. Wird die epistemische Unsicherheit nur für jedes k-te Einzelbild bestimmt, kann Rechenleistung eingespart werden. Dabei ist der Wert von k abhängig von der Geschwindigkeit der Einsatzverlagerung. Beispielsweise kann k für langsame Einsatzverlagerungen relativ groß gewählt werden.Determining the epistemic uncertainties of the last n individual images increases the robustness to outliers. The epistemic uncertainties of the last n frames are determined according to one aspect with a sliding window algorithm, also called sliding window. If the epistemic uncertainty is only determined for every kth frame, computing power can be saved. The value of k depends on the speed at which the insert is shifted. For example, k can be chosen to be relatively large for slow deployment shifts.
Nach einem weiteren Aspekt werden die epistemischen Unsicherheiten mit Monte Carlo Dropout bestimmt. Erfindungsgemäß können beliebige Verfahren zur Bestimmung der epistemischen Unsicherheit angewendet werden.According to a further aspect, the epistemic uncertainties are determined using Monte Carlo dropouts. According to the invention, any method for determining the epistemic uncertainty can be used.
Nach einem weiteren Aspekt leitet bei der Einsatzverlagerung das System eine Sicherheitsanweisung ein zum Überführen des Systems in einen Zustand erhöhter Aufmerksamkeit. Ein Zustand erhöhter Aufmerksamkeit umfasst einen Zustand mit defensiver Wahrnehmung, auch defensive perception genannt, indem beispielsweise das Maschinenlernmodell, beispielsweise ein künstliches neuronales Netzwerk für die Umfelderkennung, mit höherer Performanz und höheren Ressourcenaufwänden, insbesondere hinsichtlich Rechenleistung und/oder Speicherbedarf, übergangsweise für die Umfelderkennung eingesetzt wird. Zustand erhöhter Aufmerksamkeit umfasst ferner, dass die Geschwindigkeit des Transportsystems reduziert wird. Zustand erhöhter Aufmerksamkeit umfasst insbesondere einen sicheren Zustand, beispielsweise in Form eines fail safe oder fail operational Zustandes.According to a further aspect, when the deployment is shifted, the system initiates a safety instruction to transfer the system to a state of heightened alertness. A state of increased attention includes a state with defensive perception, also called defensive perception, in which, for example, the machine learning model, for example an artificial neural network for environment recognition, with higher performance and higher resource requirements, in particular with regard to computing power and/or memory requirements, is used temporarily for environment recognition becomes. State of heightened alertness further includes reducing the speed of the transportation system. State of increased alertness includes in particular a safe state, for example in the form of a fail safe or fail operational state.
Nach einem weiteren Aspekt leitet bei der Einsatzverlagerung das System eine Sicherheitsanweisung an einen Bediener des Systems ein und der Bediener führt der Sicherheitsanweisung folgend das System in einen Zustand erhöhter Aufmerksamkeit, insbesondere in einen sicheren Zustand, über. Der Bediener kann ein menschlicher Fahrer des Transportsystems sein oder ein Flottenbetreiber einer Flotte von erfindungsgemäßen Transportsystemen, beispielsweise von autonomen Shuttlen, people oder cargo movern. Alternativ ist das System ausgeführt, systemseitig einen Zustand erhöhter Aufmerksamkeit, insbesondere einen sicheren Zustand, zu erreichen, und erreicht nach der Rückmeldung der Einsatzverlagerung den Zustand erhöhter Aufmerksamkeit, insbesondere den sicheren Zustand.According to a further aspect, when the deployment is relocated, the system initiates a safety instruction to an operator of the system and, following the safety instruction, the operator transfers the system to a state of increased alertness, in particular to a safe state. The operator can be a human driver of the transport system or a fleet operator of a fleet of transport systems according to the invention, for example autonomous shuttles, people or cargo movers. Alternatively, the system is designed to reach a state of increased alertness, in particular a safe state, on the system side, and after the feedback on the shift in use, it reaches the state of increased alertness, in particular the safe state.
Nach einem Aspekt erfolgen die Rückmeldung und/oder Sicherheitsanweisungen in Abhängigkeit von vordefinierten Unsicherheitsschwellen, zum Beispiel grün, orange, rot, Warnung.According to one aspect, the feedback and/or safety instructions take place depending on predefined uncertainty thresholds, for example green, orange, red, warning.
In einer weiteren Ausführungsform des Transportsystems umfasst die Auswerteeinheit eine Schnittstelle zum Einlesen eines computerlesbaren Datenträgers, auf dem das erfindungsgemäße Computerprogramm gespeichert ist. Die Auswerteeinheit führt das Computerprogramm aus, wenn der Datenträger eingelesen wird.In a further embodiment of the transport system, the evaluation unit comprises an interface for reading in a computer-readable data carrier on which the computer program according to the invention is stored. The evaluation unit executes the computer program when the data carrier is read.
In einer weiteren Ausführungsform des Transportsystems umfasst die Auswerteeinheit eine Funkschnittstelle zum Empfangen des erfindungsgemäßen Datenträgersignals. Die Auswerteeinheit führt das Computerprogramm aus, wenn das Datenträgersignal empfangen wird.In a further embodiment of the transport system, the evaluation unit comprises a radio interface for receiving the data carrier signal according to the invention. The evaluation unit executes the computer program when the data carrier signal is received.
Die Erfindung wird in den folgenden Ausführungsbeispielen verdeutlicht. Es zeigen:
-
1 eine schematische Darstellung eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens, -
2 eine graphische Darstellung eines Ausführungsbeispiels der erfindungsgemäßen Wahrnehmung einer Einsatzverlagerung und -
3 ein Ausführungsbeispiel eines erfindungsgemäßen Transportsystems.
-
1 a schematic representation of an embodiment of the method according to the invention, -
2 a graphic representation of an exemplary embodiment of the perception of a deployment shift according to the invention and -
3 an embodiment of a transport system according to the invention.
In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsähnliche Bezugsteile. Übersichtshalber werden in den einzelnen Figuren nur die jeweils relevanten Bezugsteile hervorgehoben.In the figures, the same reference symbols denote the same or functionally similar reference parts. For the sake of clarity, only the relevant reference parts are highlighted in the individual figures.
In
In einem Verfahrensschritt V2 inferiert das Maschinenlernmodell M auf Einzelbilder von Bildfolgen in einer Einsatzphase. Die Bildfolgen stammen aus zweiten Domänen D2 mit einer jeweiligen Domänenverschiebung a relativ zu der ersten Domäne. Eine der zweiten Domänen D2 umfasst beispielsweise Aufnahmen aus Dämmerungssituationen zwischen Anfang und/oder Ende eines Tages im Wechsel zur Nacht. Auf diesen Einzelbildern werden epistemische Unsicherheiten c bestimmt, beispielsweise mittels eines Schiebefensteralgorithmus jeweils für die letzten 10 Einzelbilder. Die Unsicherheiten c werden durch Sequenzierung von Vorwärtspfaden des Maschinenlernmodells entlang mehrerer Einzelbildern einer Bildfolge bestimmt, beispielsweise mittels Monte Carlo Dropout.In a method step V2, the machine learning model M infers on individual images of image sequences in an application phase. The image sequences come from second domains D2 with a respective domain shift a relative to the first domain. One of the second domains D2 includes, for example, recordings from twilight situations between the beginning and/or end of a day changing to night. Epistemic uncertainties c are determined on these individual images, for example by means of a sliding window algorithm for the last 10 individual images. The uncertainties c are determined by sequencing forward paths of the machine learning model along several individual images in an image sequence, for example using Monte Carlo dropout.
In einem Verfahrensschritt V3 werden die voran bestimmten epistemischen Unsicherheit c als Maß für die Leistungsfähigkeit P des Maschinenlernmodells M bezüglich der Klassifizierung und Lokalisierung von Fußgängern verwertet. Eine hohe Unsicherheit c bedeutet eine geringe Leistungsfähigkeit P. Eine geringe Unsicherheit c bedeutet eine hohe Leistungsfähigkeit P.In a method step V3, the previously determined epistemic uncertainties c are used as a measure of the performance P of the machine learning model M with regard to the classification and localization of pedestrians. A high level of uncertainty c means low performance P. A low level of uncertainty c means high performance P.
In einem Verfahrensschritt V4 wird die Einsatzverlagerung als eine gegebene Abnahme der Leistungsfähigkeit P detektiert, siehe auch
In einem Verfahrensschritt V5 wird bei der Einsatzverlagerung an das System S, in dem das Maschinenlernmodell M in der Einsatzphase eingesetzt wird, beispielsweise an das automatisierte Transportsystem ATS, rückgemeldet, dass das Maschinenlernmodell M außerhalb der ersten Domäne D1 inferiert. Die Rückmeldungen als auch die Sicherheitsanweisungen an das System S oder an einen Bediener des Systems S erfolgen beispielsweise in Abhängigkeit von Unterschreiten definierter Schwellen der Leistungsfähigkeit P, siehe auch
Beispielsweise kann bei 100 % Leistungsfähigkeit P die Rückmeldung lauten, dass das System S oder das eingesetzte Maschinenlernmodell M sicher inferiert. Die Rückmeldung kann visuell beispielsweise in grün angezeigt werden. Bei 75 % Leistungsfähigkeit P kann die Rückmeldung lauten, dass das System S oder das Maschinenlernmodell M nicht mehr sicher inferiert und dass eine Geschwindigkeit verringert werden muss. Diese Rückmeldung kann visuell beispielsweise in orange angezeigt werden. Bei 50 % Leistungsfähigkeit P kann die Rückmeldung lauten, dass das System S oder das Maschinenlernmodell M kritisch eingesetzt wird mit katastrophalen Falschvorhersagen und dass das System S anzuhalten ist. Diese Rückmeldung kann visuell beispielsweise in Rot angezeigt werden.For example, at 100% performance P, the feedback can be that the system S or the machine learning model M used infers reliably. The feedback can be displayed visually in green, for example. At 75% performance P, the feedback can be that the system S or the machine learning model M no longer infers safely and that a speed must be reduced. This feedback can be displayed visually in orange, for example. At 50% performance P, the feedback may be that the system S or the machine learning model M is being used critically with catastrophic mispredictions and that the system S is to be stopped. This feedback can be displayed visually, for example in red.
In
BezugszeichenlisteReference List
- MM
- Maschinenlernmodellmachine learning model
- D1D1
- erste Domänefirst domain
- D2D2
- zweite Domänesecond domain
- aa
- Domänenverschiebungdomain shift
- cc
- epistemische Unsicherheitepistemic uncertainty
- PP
- Leistungsfähigkeitefficiency
- tt
- ZeitTime
- WW
- Schiebefenstersliding window
- SS
- Systemsystem
- ATSATS
- automatisiertes Transportsystemautomated transport system
- Uu
- UmfelderfassungssensorEnvironment detection sensor
- V1-V5V1-V5
- Verfahrensschritteprocess steps
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- DE 102019211672 A1 [0006, 0007]DE 102019211672 A1 [0006, 0007]
- DE 102020200998 A1 [0006, 0008]DE 102020200998 A1 [0006, 0008]
- US 20200133281 A1 [0009]US20200133281A1 [0009]
- US 9406017 B2 [0010]US 9406017 B2 [0010]
Claims (10)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102022201702.1A DE102022201702A1 (en) | 2022-02-18 | 2022-02-18 | Computer-implemented method for protecting a machine learning model against deployment relocation, computer program, data carrier signal and automated transport system for transporting people and/or objects |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102022201702.1A DE102022201702A1 (en) | 2022-02-18 | 2022-02-18 | Computer-implemented method for protecting a machine learning model against deployment relocation, computer program, data carrier signal and automated transport system for transporting people and/or objects |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102022201702A1 true DE102022201702A1 (en) | 2023-08-24 |
Family
ID=87518943
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102022201702.1A Withdrawn DE102022201702A1 (en) | 2022-02-18 | 2022-02-18 | Computer-implemented method for protecting a machine learning model against deployment relocation, computer program, data carrier signal and automated transport system for transporting people and/or objects |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102022201702A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102024200652A1 (en) * | 2024-01-25 | 2025-07-31 | ZF Mobility Solutions GmbH | Computer-implemented method for operating an ego vehicle and ego vehicle |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9406017B2 (en) | 2012-12-24 | 2016-08-02 | Google Inc. | System and method for addressing overfitting in a neural network |
| US20200133281A1 (en) | 2019-12-27 | 2020-04-30 | Intel Corporation | Safety system for a vehicle |
| DE102019211672A1 (en) | 2019-08-02 | 2021-02-04 | Zf Friedrichshafen Ag | Training method for an artificial neural network |
| DE102020200998A1 (en) | 2020-01-28 | 2021-07-29 | Zf Friedrichshafen Ag | Processing of sensor data |
-
2022
- 2022-02-18 DE DE102022201702.1A patent/DE102022201702A1/en not_active Withdrawn
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9406017B2 (en) | 2012-12-24 | 2016-08-02 | Google Inc. | System and method for addressing overfitting in a neural network |
| DE102019211672A1 (en) | 2019-08-02 | 2021-02-04 | Zf Friedrichshafen Ag | Training method for an artificial neural network |
| US20200133281A1 (en) | 2019-12-27 | 2020-04-30 | Intel Corporation | Safety system for a vehicle |
| DE102020200998A1 (en) | 2020-01-28 | 2021-07-29 | Zf Friedrichshafen Ag | Processing of sensor data |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102024200652A1 (en) * | 2024-01-25 | 2025-07-31 | ZF Mobility Solutions GmbH | Computer-implemented method for operating an ego vehicle and ego vehicle |
| DE102024200652B4 (en) * | 2024-01-25 | 2025-11-20 | ZF Mobility Solutions GmbH | Computer-implemented method for operating an ego vehicle and ego vehicle |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102017217733A1 (en) | Checking a neural network | |
| DE102014106506A1 (en) | Method for carrying out a diagnosis of a camera system of a motor vehicle, camera system and motor vehicle | |
| DE112020005663T5 (en) | OBJECT RECOGNITION WITH TRAINING FROM MULTIPLE DATASETS | |
| DE102020103769A1 (en) | Adversarial attack on the algorithm for detecting black box objects | |
| DE102019114577A1 (en) | SYSTEMS, DEVICES AND METHODS FOR EMBEDDED CODING OF CONTEXT-RELATED INFORMATION USING A NEURONAL NETWORK WITH VECTOR SPACE MODELING | |
| DE102020131657A1 (en) | Diagnosing a perceptual system based on scene continuity | |
| DE102022110766A1 (en) | IMPROVED MACHINE LEARNING | |
| EP4244829A1 (en) | Method for detecting an environment of a first sensor system | |
| DE102018005865A1 (en) | Method for testing an assistance system for a vehicle | |
| DE102022201702A1 (en) | Computer-implemented method for protecting a machine learning model against deployment relocation, computer program, data carrier signal and automated transport system for transporting people and/or objects | |
| DE102019213599A1 (en) | Method for determining a classified swarm trajectory | |
| DE102020214203A1 (en) | Method for determining a lane change intention of another motor vehicle located in the immediate vicinity of a motor vehicle, and assistance system | |
| DE102020200876B4 (en) | Method for processing sensor data from a sensor system in a vehicle | |
| DE102016120066A1 (en) | A computer implemented method for controlling an object recognition system | |
| WO2023131603A1 (en) | Method for optimizing the environment sensing for a driving assistance system by means of an additional reference sensor system | |
| DE102021207613A1 (en) | Process for quality assurance of a system | |
| DE102021000652A1 (en) | Procedure for the prediction of parameters relevant to traffic management | |
| DE102017116016A1 (en) | A motor vehicle sensor device having a plurality of sensor units and a neural network for generating an integrated representation of an environment | |
| DE102021202332A1 (en) | IDENTIFICATION OF CORNER CASES OF OPERATIONAL SCENARIOS | |
| DE102015008539A1 (en) | Method for merging a plurality of information sources for object detection and method for operating a driver assistance device | |
| DE102019218127B4 (en) | Method and device for the optimal provision of AI systems | |
| DE102022107820A1 (en) | Method and processor circuit for checking the plausibility of a detection result of object recognition in an artificial neural network and motor vehicle | |
| DE102021202334A1 (en) | FILTERING OPERATIONAL SCENARIOS WHEN OPERATING A VEHICLE | |
| DE102022207416B3 (en) | Computer-implemented method for detecting occlusions of an imaging sensor | |
| EP4323862A1 (en) | Method for quality assurance of a system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R163 | Identified publications notified | ||
| R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |