[go: up one dir, main page]

DE102022201702A1 - Computer-implemented method for protecting a machine learning model against deployment relocation, computer program, data carrier signal and automated transport system for transporting people and/or objects - Google Patents

Computer-implemented method for protecting a machine learning model against deployment relocation, computer program, data carrier signal and automated transport system for transporting people and/or objects Download PDF

Info

Publication number
DE102022201702A1
DE102022201702A1 DE102022201702.1A DE102022201702A DE102022201702A1 DE 102022201702 A1 DE102022201702 A1 DE 102022201702A1 DE 102022201702 A DE102022201702 A DE 102022201702A DE 102022201702 A1 DE102022201702 A1 DE 102022201702A1
Authority
DE
Germany
Prior art keywords
machine learning
learning model
deployment
domain
shift
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102022201702.1A
Other languages
German (de)
Inventor
Mark Schutera
Hendrik Vogt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102022201702.1A priority Critical patent/DE102022201702A1/en
Publication of DE102022201702A1 publication Critical patent/DE102022201702A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

Computerimplementiertes Verfahren zum Absichern eines Maschinenlernmodells (M) gegen eine Einsatzverlagerung, umfassend die Schritte: für Einzelbilder, auf denen das Maschinenlernmodell (M) in einer Einsatzphase inferiert, umfassend Einzelbilder aus zweiten Domänen (D2) mit einer jeweiligen Domäneverschiebung (a) relativ zu der ersten Domäne (D1), jeweils Bestimmen einer epistemischen Unsicherheit (c), wobei Vorwärtspfade des Maschinenlernmodells (M) entlang mehreren der Einzelbildern sequenziert werden (V2); Verwerten der epistemischen Unsicherheit (c) als Maß für die Leistungsfähigkeit (P) des Maschinenlernmodells (M) (V3); Wahrnehmen der Einsatzverlagerung als eine gegebene Abnahme der Leistungsfähigkeit (V4); bei der Einsatzverlagerung Rückmelden an ein System (S), in dem das Maschinenlernmodell (M) in der Einsatzphase eingesetzt wird, dass das Maschinenlernmodell (M) außerhalb der ersten Domäne (D1) inferiert (V5).Computer-implemented method for protecting a machine learning model (M) against a deployment shift, comprising the steps: for frames on which the machine learning model (M) infers in a deployment phase, comprising frames from second domains (D2) with a respective domain shift (a) relative to the first domain (D1), in each case determining an epistemic uncertainty (c), forward paths of the machine learning model (M) being sequenced along a plurality of the individual images (V2); Using the epistemic uncertainty (c) as a measure of the performance (P) of the machine learning model (M) (V3); perceiving the deployment shift as a given decrease in performance (V4); during the deployment shift, feedback to a system (S) in which the machine learning model (M) is deployed in the deployment phase, that the machine learning model (M) infers (V5) outside of the first domain (D1).

Description

Die Erfindung betrifft ein computerimplementiertes Verfahren zum Absichern eines Maschinenlernmodells gegen eine Einsatzverlagerung, ein Computerprogramm, ein Datenträgersignal und ein automatisierte Transportsystem zum Transportieren von Personen und/oder Gegenständen.The invention relates to a computer-implemented method for protecting a machine learning model against a shift in use, a computer program, a data carrier signal and an automated transport system for transporting people and/or objects.

Folgende Definitionen, Beschreibungen und Ausführungen behalten ihre jeweilige Bedeutung für und finden Anwendung auf den gesamten offenbarten Erfindungsgegenstand.The following definitions, descriptions, and implementations retain their respective meaning and apply to the entire subject matter disclosed.

Üblicherweise wird ein Maschinenlernmodell, zum Beispiel ein künstliches neuronales Netzwerk, beispielsweise ein Faltungsnetzwerk, mit Trainingsdaten geschult, wobei während diesem Trainingsprozess, Gewichte von Verbindungen von Neuronen eingestellt werden, beispielsweise mittels Gradient Descent Verfahren, um eine Verlustfunktion des Maschinenlernmodells zu minimieren. Damit werden Vorhersagen auf den Trainingsdaten aus den Trainingsdaten gelernt. Nach dem Training wird das Maschinenlernmodell mit Validierungsdaten validiert, das heißt Vorhersagefehler des Maschinenlernmodells werden minimiert. Zum Beispiel kann ein Datensatz aufgeteilt werden in Trainingsdaten und Validierungsdaten, wobei das Verhältnis beispielsweise 70:30, 80:20 oder 90:10 betragen kann. Nach dem Validierungsprozess wird das Maschinenlernmodell mit Testdaten auf Generalisierung getestet, um eine Überanpassung, auch overfitting, an die Trainingsdaten zu vermeiden.A machine learning model, for example an artificial neural network, for example a convolutional network, is usually trained with training data, with weights of connections of neurons being adjusted during this training process, for example using gradient descent methods, in order to minimize a loss function of the machine learning model. With this, predictions on the training data are learned from the training data. After the training, the machine learning model is validated with validation data, i.e. prediction errors of the machine learning model are minimized. For example, a data set can be divided into training data and validation data, where the ratio can be, for example, 70:30, 80:20 or 90:10. After the validation process, the machine learning model is tested for generalization with test data to avoid overfitting to the training data.

Nach dem Trainingsprozess werden die Gewichte, gegebenenfalls auch weitere Parameter, des Maschinenlernmodells eingefroren für einen Einsatz des Maschinenlernmodell, das heißt zur Bereitstellung in einem Produkt oder System. Der Einsatz basiert auf der Annahme, dass die Daten, die das Maschinenlernmodell während des Trainings, Validierens und/oder Testens prozessiert hat, und die Daten, die das Maschinenlernmodell während Inferenz in dem Einsatz prozessiert, aus derselben Domäne sind.After the training process, the weights, possibly also other parameters, of the machine learning model are frozen for use of the machine learning model, ie for provision in a product or system. The deployment is based on the assumption that the data that the machine learning model processed during training, validation and/or testing and the data that the machine learning model processes during inference in the deployment are from the same domain.

In realen Anwendungen, beispielsweise dem autonomen Fahren, ist jedoch zu einem bestimmten Zeitpunkt mit Domänenverschiebungen, auch domain shifts oder distributional shifts, das sind Änderungen der gemeinsamen Verteilung von Eingangsdaten, zu rechnen. Da sich der Erfindungsgegenstand auf den Einsatz, auch deployment genannt, eines Maschinenlernmodells bezieht, wird der Effekt der Domänenverschiebungen im Folgenden Einsatzverlagerung, auch deployment shift, genannt. Das Problem der Einsatzverlagerung tritt auf, wenn das Produkt oder System ignoriert, dass es eine erste Domäne, in der das eingesetzte Maschinenlernmodell trainiert, validiert und/oder getestet wurde, verlassen hat, was zu einem katastrophalen Abfall der Leistungsfähigkeit des Maschinenlernmodells in dem Einsatz führt, auch catastrophic deployment shift, catastrophic dropping in deployment performance oder out of domain performance dropping under deployment genannt. Ein catastrophic dropping in deployment performance tritt beispielsweise ein, wenn ein in einem Fahrzeug eingesetztes Maschinenlernmodell zum Klassifizieren von Objekten, das auf Tagbildern trainiert, validiert und/oder getestet wurde, nun in die Nachtdomäne gelangt und dort andere Fahrzeuge nicht erkennen kann. Die erste Domäne wird auch source domain genannt, beispielsweise gehören die Tagbilder zur source domain. Die Nachtdomäne wird in diesem Beispiel auch target domain genannt. Wenn die Domänenverschiebung zwischen source und target domain zu groß ist, ist der Zustand des Systems sicherheitskritisch.However, in real applications, such as autonomous driving, domain shifts, also known as domain shifts or distributional shifts, i.e. changes in the shared distribution of input data, are to be expected at a certain point in time. Since the subject matter of the invention relates to the use, also referred to as deployment, of a machine learning model, the effect of domain shifts is referred to below as deployment shift. The deployment shift problem occurs when the product or system ignores that it left an initial domain in which the deployed machine learning model was trained, validated, and/or tested, resulting in a catastrophic drop in the performance of the machine learning model in the deployment , also called catastrophic deployment shift, catastrophic dropping in deployment performance or out of domain performance dropping under deployment. A catastrophic dropping in deployment performance occurs, for example, when a machine learning model used in a vehicle to classify objects, which was trained, validated and/or tested on daytime images, now enters the night domain and cannot recognize other vehicles there. The first domain is also called the source domain, for example the tag images belong to the source domain. The night domain is also called target domain in this example. If the domain shift between source and target domain is too large, the state of the system is critical to security.

Im Stand der Technik sind Verfahren bekannt, Domänenverschiebungen im Trainingsprozess zu lernen. Domänenverschiebungen im Trainingsprozess zu lernen erfordert aber einen hohen Aufwand, Zeit und hohe Kosten, um neue Bereiche in den Trainingsdaten zu kennzeichnen, auch labelling genannt. Abhilfe können hier die Lehren der DE 10 2019 211 672 A1 oder DE 10 2020 200 998 A1 schaffen.Methods are known in the prior art for learning domain shifts in the training process. However, learning about domain shifts in the training process requires a great deal of effort, time and high costs in order to label new areas in the training data. The teachings of the DE 10 2019 211 672 A1 or DE 10 2020 200 998 A1 create.

Die DE 10 2019 211 672 A1 offenbart ein Trainingsverfahren für ein künstliches neuronales Netzwerk, wobei das Verfahren als self-supervised continuous domain adaptation bezeichnet werden kann und wobei kontinuierlich Trainingsdaten aus Domänen mit relativ kleinen Domänenverschiebungen prozessiert werden, um beispielsweise die Domänenverschiebung von Tag zu Nacht kontinuierlich zu lernen.The DE 10 2019 211 672 A1 discloses a training method for an artificial neural network, where the method can be referred to as self-supervised continuous domain adaptation and where training data from domains with relatively small domain shifts are processed continuously, for example to continuously learn the domain shift from day to night.

Die DE 10 2020 200 998 A1 bezieht sich auf ein sogenanntes catastrophic forgetting im Trainingsprozess und offenbart eine sogenannte self-supervised continuous domain adaptation without catastrophic forgetting, wobei das catastrophic forgetting umgangen wird durch einen gemeinsamen Merkmalsraum zur Merkmalsextraktion und Domänenklassifizierung als Hinweis für eine domänenspezifische, weiterführende Klassifizierung.The DE 10 2020 200 998 A1 refers to a so-called catastrophic forgetting in the training process and discloses a so-called self-supervised continuous domain adaptation without catastrophic forgetting, whereby the catastrophic forgetting is circumvented by a common feature space for feature extraction and domain classification as an indication for a domain-specific, further classification.

Die US 2020/0133281 A1 offenbart ein Sicherheitssystem für ein Fahrzeug, wobei Unsicherheitsdaten ermittelt werden, die auf Unsicherheit in einer oder mehreren Vorhersagen eines Fahrmodells während des Betriebs eines Fahrzeugs hinweisen.The US 2020/0133281 A1 discloses a safety system for a vehicle wherein uncertainty data is determined indicative of uncertainty in one or more predictions of a driving model during operation of a vehicle.

Die US 9 406 017 B2 offenbart ein System zum Trainieren eines künstlichen neuronalen Netzwerks. Ein Schalter ist mit Gewichten in mindestens einigen Schichten des Netzwerks verbunden. In jeder Trainingsepoche schaltet der Schalter wahlweise jedes der Gewichte entsprechend einer vorkonfigurierten Wahrscheinlichkeit aus. Dieses Verfahren ist als Dropout bekannt.The U.S. 9,406,017 B2 discloses a system for training an artificial neural network. A switch is connected to weights in at least some layers of the network. In each training epoch, the switch selectively turns off each of the weights according to a preconfigured probability. This process is known as dropout.

Allerdings ist eine kontinuierliche Validierung nicht immer möglich und das Problem der Erkennung und Bekanntmachung von Einsatzverlagerungen damit nicht gelöst. Aufgabe der Erfindung war es, wie ein bereits trainiertes, validiertes und/oder getestetes Maschinenlernmodell in einem Einsatz gegen Einsatzverlagerung abgesichert werden kann.However, continuous validation is not always possible and this does not solve the problem of recognizing and notifying shifts in deployment. The object of the invention was how a machine learning model that has already been trained, validated and/or tested can be secured against a shift in use in an application.

Die Gegenstände der Ansprüche 1 und 6 bis 8 lösen jeweils diese Aufgabe. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Definitionen, den Unteransprüchen, den Zeichnungen und der Beschreibung bevorzugter Ausführungsbeispiele.The objects of claims 1 and 6 to 8 each solve this problem. Advantageous refinements of the invention result from the definitions, the dependent claims, the drawings and the description of preferred exemplary embodiments.

Nach einem Aspekt stellt die Erfindung ein computerimplementiertes Verfahren bereit zum Absichern eines Maschinenlernmodells gegen eine Einsatzverlagerung. Das Verfahren umfasst die Schritte:

  • • Bereitstellen des Maschinenlernmodells, das in einer ersten Domäne auf Klassifizierung, Lokalisierung und/oder Verfolgung von Objekten und/oder Bildsegmentierung trainiert, validiert und/oder getestet wurde;
  • • für Einzelbilder, auf denen das Maschinenlernmodell in einer Einsatzphase inferiert, umfassend Einzelbilder aus zweiten Domänen mit einer jeweiligen Domäneverschiebung relativ zu der ersten Domäne, jeweils Bestimmen einer epistemischen Unsicherheit, wobei Vorwärtspfade des Maschinenlernmodells entlang mehreren der Einzelbildern sequenziert werden;
  • • Verwerten der epistemischen Unsicherheit als Maß für die Leistungsfähigkeit des Maschinenlernmodells bezüglich der Klassifizierung, Lokalisierung und/oder Verfolgung von Objekten und/oder Bildsegmentierung auf den Einzelbildern, wobei eine hohe Unsicherheit einer geringen Leistungsfähigkeit und eine geringe Unsicherheit einer hohen Leistungsfähigkeit entsprechen;
  • • Wahrnehmen der Einsatzverlagerung als eine gegebene Abnahme der Leistungsfähigkeit, wobei die Einsatzverlagerung einem Einsatz des Maschinenlernmodells außerhalb der ersten Domäne entspricht;
  • • bei der Einsatzverlagerung Rückmelden an ein System, in dem das Maschinenlernmodell in der Einsatzphase eingesetzt wird, dass das Maschinenlernmodell außerhalb der ersten Domäne inferiert.
In one aspect, the invention provides a computer-implemented method for securing a machine learning model against deployment relocation. The procedure includes the steps:
  • • Providing the machine learning model that has been trained, validated and/or tested in a first domain for classification, localization and/or tracking of objects and/or image segmentation;
  • • for frames on which the machine learning model infers in a deployment phase, comprising frames from second domains with a respective domain shift relative to the first domain, each determining an epistemic uncertainty, wherein forward paths of the machine learning model are sequenced along several of the frames;
  • • exploiting the epistemic uncertainty as a measure of the performance of the machine learning model with regard to the classification, localization and/or tracking of objects and/or image segmentation on the individual images, with high uncertainty corresponding to low performance and low uncertainty corresponding to high performance;
  • • Perceiving the deployment shift as a given decrease in performance, the deployment shift corresponding to deployment of the machine learning model outside of the first domain;
  • • In deployment shifting, feedback to a system in which the machine learning model is deployed in the deployment phase that the machine learning model is inferring outside of the first domain.

Nach einem weiteren Aspekt stellt die Erfindung ein Computerprogramm bereit. Das Computerprogramm umfasst Befehle, die einen Computer veranlassen, das erfindungsgemäße Verfahren auszuführen, wenn der Computer das Computerprogramm ausführt.According to a further aspect, the invention provides a computer program. The computer program includes instructions that cause a computer to carry out the method according to the invention when the computer runs the computer program.

Die Befehle des erfindungsgemäßen Computerprogramms umfassen Maschinenbefehle, Quelltext oder Objektcode geschrieben in Assemblersprache, einer objektorientierten Programmiersprache, beispielsweise C++, oder in einer prozeduralen Programmiersprache, beispielsweise C. Das Computerprogramm ist nach einem Aspekt der Erfindung eine Hardware unabhängiges Anwendungsprogramm, das beispielsweise über einen Datenträger oder das Datenträgersignal, nach einem Aspekt mittels Software Over The Air Technologie, für eine beliebige Hardware bereitgestellt wird. Der Datenträger umfasst flüchtige Speicher, beispielsweise RAM, DRAM, SRAM, und nichtflüchtige Speicher, beispielsweise ROM, Flash-EEPROM. Die Datenträger sind beispielsweise Flash-Speicherkarten, USB-Sticks. Nach einem weiteren Aspekt ist das Computerprogramm eine Hardware abhängiges Programm, beispielsweise eine Firmware der Auswerteeinheit des Transportsystems.The instructions of the computer program according to the invention include machine instructions, source text or object code written in assembly language, an object-oriented programming language, for example C++, or in a procedural programming language, for example C. According to one aspect of the invention, the computer program is a hardware-independent application program which, for example, has a data carrier or the data carrier signal is provided for any hardware, according to one aspect using software over the air technology. The data carrier includes volatile memory, for example RAM, DRAM, SRAM, and non-volatile memory, for example ROM, flash EEPROM. The data carriers are, for example, flash memory cards, USB sticks. According to a further aspect, the computer program is a hardware-dependent program, for example firmware for the evaluation unit of the transport system.

Nach einem weiteren Aspekt stellt die Erfindung ein Datenträgersignal bereit, das das erfindungsgemäße Computerprogramm überträgt.According to a further aspect, the invention provides a data carrier signal which transmits the computer program according to the invention.

Hinsichtlich des Datenträgersignals und dessen Bereitstellung mittels Software Over The Air Technologie umfasst die Auswerteeinheit des automatisierten Transportsystems oder das Transportsystem eine Middleware, über die sich das übertragene Computerprogramm als Anwendung auf einem Betriebssystem der Auswerteeinheit oder einem Betriebssystem des Transportsystems anmeldet. Middleware ist ein anwendungsneutrales Programm, das zwischen Anwendungen und Betriebssystemen von Hardwaremodulen vermittelt. Mittels der Middleware können Anwendungen oder auch Applikationen genannt unabhängig von einem Hardwaremodul, beispielsweise der Auswerteeinheit, verwendet werden.With regard to the data carrier signal and its provision using software over the air technology, the evaluation unit of the automated transport system or the transport system includes middleware via which the transmitted computer program registers as an application on an operating system of the evaluation unit or an operating system of the transport system. Middleware is an appl neutral program that mediates between applications and operating systems of hardware modules. Using the middleware, applications or also called applications can be used independently of a hardware module, for example the evaluation unit.

Nach einem weiteren Aspekt stellt die Erfindung ein automatisiertes Transportsystem bereit zum Transportieren von Personen und/oder Gegenständen. Das Transportsystem umfasst wenigstens einen Umfelderfassungssensor und eine Auswerteeinheit. Während eines Betriebs des Transportsystems

  • • inferiert ein Maschinenlernmodell, das in einer ersten Domäne auf Klassifizierung, Lokalisierung und/oder Verfolgung von Objekten und/oder Bildsegmentierung trainiert, validiert und/oder getestet wurde, auf Daten des Umfelderfassungssensors;
  • • sichert die Auswerteeinheit das Maschinenlernmodell gemäß des erfindungsgemäßen Verfahrens gegen eine Einsatzverlagerung ab.
According to a further aspect, the invention provides an automated transport system for transporting people and/or objects. The transport system comprises at least one environment detection sensor and an evaluation unit. During operation of the transport system
  • • infers a machine learning model, which was trained, validated and/or tested in a first domain for classification, localization and/or tracking of objects and/or image segmentation, on data from the environment detection sensor;
  • • the evaluation unit secures the machine learning model according to the method according to the invention against a shift in use.

Absichern ist ein technischer Prozess, in dem basierend auf realen oder simulierten Daten, beispielsweise Daten, die mit Sensoren erfasst werden, beispielsweise mit Umfeldsensoren von Fahrzeugen, beispielsweise Kamera, Lidar, Radar, Mikrofon, Geruchssensoren, der Nachweis der Sicherheit, der Verifikation und/oder der Validierung des Systems, in dem das Maschinenlernmodell eingesetzt wird, beispielsweise ein automatisiertes Fahrzeug, in definierten Bereichen oder Einsatzgebieten, auch operational design domain, durch festgelegte Verarbeitungsschritte erfolgt. Beispielsweise befasst sich das Projekt „Verification Validation Methods“, siehe https://www.vvm-projekt.de/projekt, mit Testverfahren und Systematiken sowie Methoden, um den Sicherheitsnachweis für automatisierte Fahrzeuge zu führen.Securing is a technical process in which, based on real or simulated data, e.g. data collected by sensors, e.g. vehicle environment sensors, e.g. camera, lidar, radar, microphone, odor sensors, proof of security, verification and/or or the validation of the system in which the machine learning model is used, for example an automated vehicle, in defined areas or areas of application, also operational design domain, is carried out through defined processing steps. For example, the "Verification Validation Methods" project, see https://www.vvm-projekt.de/projekt, deals with test procedures and systematics as well as methods to provide safety verification for automated vehicles.

Lokalisieren von Objekten kann eine Abstandsbestimmung umfassen. Verfolgung von Objekten bedeutet, Objekte über die Zeit zu verfolgen, auch tracking genannt.Locating objects can include a distance determination. Tracking objects means following objects over time, also called tracking.

Die Einzelbilder können Einzelbilder von Bildfolgen oder Einzelbilder ohne direkten Sequenzcharakter sein. Einzelbilder aus Bildfolgen bedeutet, dass das Maschinenlernmodell kontinuierlich über die Zeit inferiert.The individual images can be individual images of image sequences or individual images without a direct sequence character. Single images from image sequences means that the machine learning model continuously infers over time.

Epistemische Unsicherheit, auch als Modellunsicherheit bezeichnet, wird so verstanden, dass er sich auf Unsicherheit bezieht, die von mangelndem Wissen bei der Darstellung von Modellparametern stammt, insbesondere in dem Szenario beschränkter Daten. Im Gegensatz dazu wird der Begriff aleatorische Unsicherheit, auch als Eingabeunsicherheit bezeichnet, so verstanden, dass er sich auf Unsicherheit bezieht, die von zu der Beobachtung gehörendem Rauschen stammt. Die Ursache für diesen Typ von Unsicherheit kann Rauschen von einem oder mehreren Sensoren sein.Epistemic uncertainty, also known as model uncertainty, is understood to refer to uncertainty stemming from lack of knowledge in representing model parameters, particularly in the data-constrained scenario. In contrast, the term aleatoric uncertainty, also referred to as input uncertainty, is understood to refer to uncertainty arising from noise associated with the observation. This type of uncertainty can be caused by noise from one or more sensors.

Im Stand der Technik ist es bekannt, in Trainingsprozessen von Maschinenlernmodellen epistemische Unsicherheiten zu modellieren, beispielsweise mittels Monte Carlo Dropout, wobei mehrere Vorwärtspfade des Maschinenlernmodells pro Einzelbild x jeweils mit unterschiedlichen, auf Monte Carlo Simulation basierenden, Dropout-Masken fi(x)∈{f0(x),f1(x),...,fT(x)} prozessiert werden. Der prädiktive posteriorer Mittelwert p, auch predictive posterior mean genannt, ist dann gegeben als p = 1 T i = 0 T f i ( x ) .

Figure DE102022201702A1_0001
Die Unsicherheit c ist gegeben als c = 1 T i = 0 T [ f i ( x ) p ] 2 .
Figure DE102022201702A1_0002
Beispielsweise kann in Keras, einer in Python geschriebenen Open Source Deep-Learning-Bibliothek mit einer anwendungsspezifischen Programmierschnittstelle unter anderem für TensorFlow, Monte Carlo Dropout beispielsweise unter anderem mit den Befehlen

 Dropout (p) (input_tensor, training=True)
 mc_model = get_model(mc=True, act="relu")
 mc_predictions=[]
 for i in tqdm.tqdm(range(500)):
      y_p=mc_odel.predict(x_test, batch_size=1000)

      mc_predictions.append(y_p)
      accs=[]
      for y_p in mc_predictions:

      acc=accuracy_score(y_test.argmax(axis=1), y_p.argmax(axis=1))
      accs.append(acc)
 print ("MC accuracy:{:.1 %}".format(sum(accs)/len(accs)))
 implementiert werden.
In the prior art, it is known to model epistemic uncertainties in training processes of machine learning models, for example using Monte Carlo dropout, with several forward paths of the machine learning model per frame x each with different dropout masks f i (x)∈ based on Monte Carlo simulation {f 0 (x),f 1 (x),...,f T (x)} are processed. The predictive posterior mean p, also called predictive posterior mean, is then given as p = 1 T i = 0 T f i ( x ) .
Figure DE102022201702A1_0001
The uncertainty c is given as c = 1 T i = 0 T [ f i ( x ) p ] 2 .
Figure DE102022201702A1_0002
For example, in Keras, an open source deep learning library written in Python with an application-specific programming interface for TensorFlow, among others, Monte Carlo Dropout can be used, for example, with the commands
 Dropout (p) (input_tensor, training=True)
 mc_model = get_model(mc=True, act="relu")
 mc_predictions=[]
 for i in tqdm.tqdm(range(500)):
      y_p=mc_odel.predict(x_test, batch_size=1000)

      mc_predictions.append(y_p)
      accs=[]
      for y_p in mc_predictions:

      acc=accuracy_score(y_test.argmax(axis=1), y_p.argmax(axis=1))
      accs.append(acc)
print ("MC accuracy:{:.1 %}".format(sum(accs)/len(accs)))
 to be implemented.

Im Unterschied dazu wird in dem Einsatz die Unsicherheit über die Zeit bestimmt durch Sequenzierung der Vorwärtspfade entlang mehrerer Einzelbilder der jeweiligen Bildfolgen.In contrast to this, the uncertainty over time is determined in the application by sequencing the forward paths along several individual images of the respective image sequences.

Zur Bestimmung der Leistungsfähigkeit eines Maschinenlernmodells sind im Stand der Technik verschiedene Metriken bekannt, beispielsweise precision, recall, receiver operating curve oder accuracy in Keras. Die Erfindung bestimmt leitet die Leistungsfähigkeit eines Maschinenlernmodells in einem Einsatz des Maschinenlernmodells aus epistemischen Unsicherheiten. Damit kann eine Einsatzverlagerung, beispielsweise out of domain performance drops under deployment, überwacht werden. Die epistemische Unsicherheit kann an jedem Einzelbild aus den zweiten Domänen, auf denen das Maschinenlernmodell inferiert, ohne Referenzdaten, das heißt ohne ground truth, bestimmt werden. Zusätzliche Kennzeichnungen oder Labeln der Daten, wie bei der Bestimmung von precision, recall, receiver operating curve oder accuracy erforderlich, entfällt damit. Damit stellt die Erfindung eine online-Funktion bereit, die das Maschinenlernmodell im online-Fall in Form eines safety envelopes einkapselt.Various metrics are known in the prior art for determining the performance of a machine learning model, for example precision, recall, receiver operating curve or accuracy in Keras. The invention determines the performance of a machine learning model in a deployment of the machine learning model from epistemic uncertainties. This allows a shift in deployment, for example out of domain performance drops under deployment, to be monitored. The epistemic uncertainty can be determined for each frame from the second domains on which the machine learning model infers without reference data, i.e. without ground truth. Additional markings or labels of the data, as required when determining precision, recall, receiver operating curve or accuracy, are therefore no longer necessary. The invention thus provides an online function that encapsulates the machine learning model in the online case in the form of a safety envelope.

Nach einem Aspekt werden die epistemischen Unsicherheiten im Livebetrieb, das heißt online, beispielsweise während Einsatzfahrten des automatisierten Transportsystems, bestimmt. Nach einem weiteren Aspekt werden die epistemischen Unsicherheiten offline bestimmt, insbesondere wenn das Maschinenlernmodell und die Daten offline zugänglich sind. Dies kann erforderlich sein, wenn das System beispielsweise über wenig Rechenleistung verfügt.According to one aspect, the epistemic uncertainties are determined in live operation, i.e. online, for example during operational trips of the automated transport system. According to another aspect, the epistemic uncertainties are determined offline, especially when the machine learning model and data are accessible offline. This may be necessary if, for example, the system has little computing power.

Wird das Maschinenlernmodell beispielsweise in automatisierten Transportsystemen für Perzeption, das heißt Umfeldwahrnehmung, eingesetzt, ermöglicht die Erfindung ein sogenanntes Defensive Driving Systemverhalten in Bereichen, in denen die Perzeption bisher unbemerkte, reduzierte Leistungsfähigkeit aufweist. Die Erfindung ermöglicht es, die bisher unbemerkte, reduzierte Leistungsfähigkeit bei Einsatzverlagerung zu detektieren und bei entsprechender Detektion das System durch Rückmeldungen und/oder Sicherheitsanweisungen zu beeinflussen. Beispielsweise kann ein Bediener des automatisierten Transportsystems oder das automatisierte Transportsystem die Sicherheitsanweisung erhalten, langsamer zu fahren oder in einen sicheren Zustand, beispielsweise in Form von fail operational, zu wechseln. Damit stellt die Erfindung einen sogenannten saftey envelope für die Perzeption basierend auf Bestimmung von epistemischen Unsicherheiten in einem Einsatz bereit.If the machine learning model is used, for example, in automated transport systems for perception, ie environment perception, the invention enables so-called defensive driving system behavior in areas in which perception has previously unnoticed, reduced performance. The invention makes it possible to detect the hitherto unnoticed reduced performance when the deployment is shifted and, if detected accordingly, to influence the system through feedback and/or safety instructions. For example, an operator of the automated transport system or the automated transport system can receive the safety instruction to drive more slowly or to switch to a safe state, for example in the form of fail operational. The invention thus provides a so-called saftey envelope for perception based on the determination of epistemic uncertainties in a mission.

Weitere von der Erfindung umfasst Einsatzfelder für Maschinenlernmodelle sind beispielsweise Klassifikation von Objekten und/oder Bildsegmentierung in bildgebenden Verfahren im medizinischen Bereich, beispielsweise zur Diagnose von Krankheiten, beispielsweise basierend auf Röntgenaufnahmen. Das System kann beispielsweise ein Röntgengerät sein.Further fields of application for machine learning models covered by the invention are, for example, classification of objects and/or image segmentation in imaging methods in the medical field, for example for diagnosing diseases, for example based on X-ray images. The system can be an X-ray machine, for example.

Automatisierte Transportsystem dienen dem Transport von Gegenständen, Gütern, Frachten und/oder Personen. Automatisierte Transportsysteme umfassen innerbetriebliche Transportsysteme, beispielsweise fahrerlose Transportfahrzeuge, beispielsweise Kleinteileladungsträger. Automatisierte Transportsysteme umfassen ferner arealgebundene Transportsysteme, beispielsweise Terminal-Zugmaschinen für den Einsatz in Häfen oder Portalhubwägen. Automatisierte Transportsysteme umfassen des Weiteren private Transportsysteme, beispielsweise Personenkraftwagen oder Nutzfahrzeuge. Automatisierte Transportsysteme umfassen auch Transportsysteme des öffentlichen Nah- und/oder Fernverkehrs, beispielsweise Züge, Busse oder Shuttles. Automatisiert bedeutet, dass das Transportsystem ausgeführt ist, eine Fahraufgabe automatisiert durchzuführen. Automatisiert umfasst teilweise automatisiertes Durchführen der Fahraufgabe mit Mitverantwortung eines menschlichen Fahrers bis hin zu autonomen, das heißt fahrerlosem, Durchführen der Fahraufgabe. Beispielsweise umspannt der Begriff automatisiert alle Stufen der Norm SAE J3016. System bezeichnet die Komponenten und Funktionalitäten auf Systemebene als auch das automatisierte Transportsystem, beispielsweise ein automatisiertes Fahrzeug, als solches.Automated transport systems are used to transport objects, goods, freight and/or people. Automated transport systems include internal transport systems, for example driverless transport vehicles, for example small parts load carriers. Automated transport systems also include area-bound transport systems, such as terminal tractors for use in ports or straddle carriers. Automated transport systems also include private transport systems, for example passenger cars or commercial vehicles. Automated transport systems also include transport systems for local and/or long-distance public transport, such as trains, buses or shuttles. Automated means that the transport system is designed to carry out a driving task automatically. Automated includes partially automated execution of the driving task with joint responsibility of a human driver up to autonomous, i.e. driverless, execution of the driving task. For example, the term automatically encompasses all levels of the SAE J3016 standard. System designates the components and functionalities at system level as well as the automated transport system, for example an automated vehicle, as such.

Nach einem Aspekt der Erfindung ist das automatisierte Transportsystem ein autonomes Shuttle, das Personen und/oder Güter im urbanen Umfeld transportiert. Trainingsdaten wurden gesammelt, gekennzeichnet und das eingesetzte Maschinenlernmodell wurde trainiert, validiert und getestet und schließlich für den Einsatz eingefroren. Während des Einsatzes läuft das Shuttle und das eingesetzte Maschinenlernmodell Gefahr eines Leistungseinbruchs durch eine Einsatzverlagerung, was im bekannten Stand der Technik nur dann bemerkt wird, wenn das System ein katastrophales Fehlverhalten aufweist. Dagegen ermöglicht die Erfindung, bei kontinuierlicher Inferenz von Maschinenlernmodellen Einsatzverlagerungen zu überwachen.According to one aspect of the invention, the automated transport system is an autonomous shuttle that transports people and/or goods in an urban environment. Training data was collected, labeled and the deployed machine learning model was trained, validated and tested and finally frozen for deployment. During the mission, the shuttle and the machine learning model used run the risk of a drop in performance due to mission shifting, which is only noticed in the known prior art if the system exhibits a catastrophic malfunction. In contrast, the invention makes it possible to monitor deployment shifts with continuous inference of machine learning models.

Der Umfelderfassungssensor des automatisierten Transportsystems ist beispielsweise eine Kamera, ein Radar, Lidar, Akustiksensor, Infrarot-, Ultraschallsensor, Geruchssensor. Nach einem Aspekt umfasst das automatisierte Transportsystem mehrere der voran genannten Umfelderfassungssensoren, einzelnd und/oder in einer Kombination.The environment detection sensor of the automated transport system is, for example, a camera, radar, lidar, acoustic sensor, infrared sensor, ultrasonic sensor, odor sensor. According to one aspect, the automated transport system includes a plurality of the environment detection sensors mentioned above, individually and/or in a combination.

Die Auswerteeinheit des automatisierten Transportsystems kann ein Computer oder ein Computermodul sein umfassend beispielsweise anwendungsspezifische integrierte Schaltkreise, abgekürzt ASICs, integrierte Schaltkreise mit ladbaren logischen Schaltungen, abgekürzt FPGAs, Zentralcomputer, abgekürzt CPUs, Hardware Beschleuniger, beispielsweise Graphikprozessoren, abgekürzt GPUs, Tensor-Prozessier-Einheiten, abgekürzt TCUs. Die Auswerteeinheit ist nach einem Aspekt ein System on Chip, abgekürzt SoC. Das SoC ist beispielsweise in ein Bordnetzwerk des automatisierten Transportsystems eingebettet.The evaluation unit of the automated transport system can be a computer or a computer module comprising, for example, application-specific integrated circuits, ASICs for short, integrated circuits with loadable logic circuits, FPGAs for short, central computers, CPUs for short, hardware accelerators, for example graphics processors, GPUs for short, tensor processing units , abbreviated TCUs. According to one aspect, the evaluation unit is a system on chip, or SoC for short. For example, the SoC is embedded in an on-board network of the automated transport system.

Nach einem weiteren Aspekt werden die epistemischen Unsicherheiten

  • • jeweils der letzten n Einzelbilder bestimmt, wobei n eine einstellbare Zahl ist, oder
  • • für jedes k-te Einzelbild bestimmt, wobei k eine einstellbare Zahl ist.
According to a further aspect, the epistemic uncertainties
  • • determines the last n frames, where n is an adjustable number, or
  • • determined for every kth frame, where k is an adjustable number.

Die Bestimmung der epistemischen Unsicherheiten der jeweils letzten n Einzelbilder erhöht die die Robustheit gegenüber Ausreißern. Die epistemischen Unsicherheiten der letzten n Einzelbilder werden nach einem Aspekt mit einem Schiebefensteralgorithmus, auch sliding window genannt, bestimmt. Wird die epistemische Unsicherheit nur für jedes k-te Einzelbild bestimmt, kann Rechenleistung eingespart werden. Dabei ist der Wert von k abhängig von der Geschwindigkeit der Einsatzverlagerung. Beispielsweise kann k für langsame Einsatzverlagerungen relativ groß gewählt werden.Determining the epistemic uncertainties of the last n individual images increases the robustness to outliers. The epistemic uncertainties of the last n frames are determined according to one aspect with a sliding window algorithm, also called sliding window. If the epistemic uncertainty is only determined for every kth frame, computing power can be saved. The value of k depends on the speed at which the insert is shifted. For example, k can be chosen to be relatively large for slow deployment shifts.

Nach einem weiteren Aspekt werden die epistemischen Unsicherheiten mit Monte Carlo Dropout bestimmt. Erfindungsgemäß können beliebige Verfahren zur Bestimmung der epistemischen Unsicherheit angewendet werden.According to a further aspect, the epistemic uncertainties are determined using Monte Carlo dropouts. According to the invention, any method for determining the epistemic uncertainty can be used.

Nach einem weiteren Aspekt leitet bei der Einsatzverlagerung das System eine Sicherheitsanweisung ein zum Überführen des Systems in einen Zustand erhöhter Aufmerksamkeit. Ein Zustand erhöhter Aufmerksamkeit umfasst einen Zustand mit defensiver Wahrnehmung, auch defensive perception genannt, indem beispielsweise das Maschinenlernmodell, beispielsweise ein künstliches neuronales Netzwerk für die Umfelderkennung, mit höherer Performanz und höheren Ressourcenaufwänden, insbesondere hinsichtlich Rechenleistung und/oder Speicherbedarf, übergangsweise für die Umfelderkennung eingesetzt wird. Zustand erhöhter Aufmerksamkeit umfasst ferner, dass die Geschwindigkeit des Transportsystems reduziert wird. Zustand erhöhter Aufmerksamkeit umfasst insbesondere einen sicheren Zustand, beispielsweise in Form eines fail safe oder fail operational Zustandes.According to a further aspect, when the deployment is shifted, the system initiates a safety instruction to transfer the system to a state of heightened alertness. A state of increased attention includes a state with defensive perception, also called defensive perception, in which, for example, the machine learning model, for example an artificial neural network for environment recognition, with higher performance and higher resource requirements, in particular with regard to computing power and/or memory requirements, is used temporarily for environment recognition becomes. State of heightened alertness further includes reducing the speed of the transportation system. State of increased alertness includes in particular a safe state, for example in the form of a fail safe or fail operational state.

Nach einem weiteren Aspekt leitet bei der Einsatzverlagerung das System eine Sicherheitsanweisung an einen Bediener des Systems ein und der Bediener führt der Sicherheitsanweisung folgend das System in einen Zustand erhöhter Aufmerksamkeit, insbesondere in einen sicheren Zustand, über. Der Bediener kann ein menschlicher Fahrer des Transportsystems sein oder ein Flottenbetreiber einer Flotte von erfindungsgemäßen Transportsystemen, beispielsweise von autonomen Shuttlen, people oder cargo movern. Alternativ ist das System ausgeführt, systemseitig einen Zustand erhöhter Aufmerksamkeit, insbesondere einen sicheren Zustand, zu erreichen, und erreicht nach der Rückmeldung der Einsatzverlagerung den Zustand erhöhter Aufmerksamkeit, insbesondere den sicheren Zustand.According to a further aspect, when the deployment is relocated, the system initiates a safety instruction to an operator of the system and, following the safety instruction, the operator transfers the system to a state of increased alertness, in particular to a safe state. The operator can be a human driver of the transport system or a fleet operator of a fleet of transport systems according to the invention, for example autonomous shuttles, people or cargo movers. Alternatively, the system is designed to reach a state of increased alertness, in particular a safe state, on the system side, and after the feedback on the shift in use, it reaches the state of increased alertness, in particular the safe state.

Nach einem Aspekt erfolgen die Rückmeldung und/oder Sicherheitsanweisungen in Abhängigkeit von vordefinierten Unsicherheitsschwellen, zum Beispiel grün, orange, rot, Warnung.According to one aspect, the feedback and/or safety instructions take place depending on predefined uncertainty thresholds, for example green, orange, red, warning.

In einer weiteren Ausführungsform des Transportsystems umfasst die Auswerteeinheit eine Schnittstelle zum Einlesen eines computerlesbaren Datenträgers, auf dem das erfindungsgemäße Computerprogramm gespeichert ist. Die Auswerteeinheit führt das Computerprogramm aus, wenn der Datenträger eingelesen wird.In a further embodiment of the transport system, the evaluation unit comprises an interface for reading in a computer-readable data carrier on which the computer program according to the invention is stored. The evaluation unit executes the computer program when the data carrier is read.

In einer weiteren Ausführungsform des Transportsystems umfasst die Auswerteeinheit eine Funkschnittstelle zum Empfangen des erfindungsgemäßen Datenträgersignals. Die Auswerteeinheit führt das Computerprogramm aus, wenn das Datenträgersignal empfangen wird.In a further embodiment of the transport system, the evaluation unit comprises a radio interface for receiving the data carrier signal according to the invention. The evaluation unit executes the computer program when the data carrier signal is received.

Die Erfindung wird in den folgenden Ausführungsbeispielen verdeutlicht. Es zeigen:

  • 1 eine schematische Darstellung eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens,
  • 2 eine graphische Darstellung eines Ausführungsbeispiels der erfindungsgemäßen Wahrnehmung einer Einsatzverlagerung und
  • 3 ein Ausführungsbeispiel eines erfindungsgemäßen Transportsystems.
The invention is illustrated in the following exemplary embodiments. Show it:
  • 1 a schematic representation of an embodiment of the method according to the invention,
  • 2 a graphic representation of an exemplary embodiment of the perception of a deployment shift according to the invention and
  • 3 an embodiment of a transport system according to the invention.

In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsähnliche Bezugsteile. Übersichtshalber werden in den einzelnen Figuren nur die jeweils relevanten Bezugsteile hervorgehoben.In the figures, the same reference symbols denote the same or functionally similar reference parts. For the sake of clarity, only the relevant reference parts are highlighted in the individual figures.

In 1 wird in einem Verfahrensschritt V1 ein Maschinenlernmodell M bereitgestellt, beispielsweise ein Faltungsnetzwerk, das in einer ersten Domäne D1, beispielsweise auf Tagaufnahmen, trainiert, validiert und getestet wurde für Klassifikation und Lokalisierung von Fußgängern im urbanen Verkehrsumfeld. Lokalisierung umfasst auch eine Abstandsbestimmung eines Bezugspunktes des Systems S, in dem das Maschinenlernmodell M eingesetzt wird, beispielsweise eines Punktes auf einer Außenhaut des in 3 gezeigten automatisierten Transportsystems ATS, zu einem Bezugspunkt des Objektes, hier des Fußgängers.In 1 a machine learning model M is provided in a method step V1, for example a convolution network, which was trained, validated and tested in a first domain D1, for example on daytime recordings, for the classification and localization of pedestrians in the urban traffic environment. Localization also includes a distance determination of a reference point of the system S in which the machine learning model M is used, for example a point on an outer skin of the in 3 shown automated transport system ATS, to a reference point of the object, here the pedestrian.

In einem Verfahrensschritt V2 inferiert das Maschinenlernmodell M auf Einzelbilder von Bildfolgen in einer Einsatzphase. Die Bildfolgen stammen aus zweiten Domänen D2 mit einer jeweiligen Domänenverschiebung a relativ zu der ersten Domäne. Eine der zweiten Domänen D2 umfasst beispielsweise Aufnahmen aus Dämmerungssituationen zwischen Anfang und/oder Ende eines Tages im Wechsel zur Nacht. Auf diesen Einzelbildern werden epistemische Unsicherheiten c bestimmt, beispielsweise mittels eines Schiebefensteralgorithmus jeweils für die letzten 10 Einzelbilder. Die Unsicherheiten c werden durch Sequenzierung von Vorwärtspfaden des Maschinenlernmodells entlang mehrerer Einzelbildern einer Bildfolge bestimmt, beispielsweise mittels Monte Carlo Dropout.In a method step V2, the machine learning model M infers on individual images of image sequences in an application phase. The image sequences come from second domains D2 with a respective domain shift a relative to the first domain. One of the second domains D2 includes, for example, recordings from twilight situations between the beginning and/or end of a day changing to night. Epistemic uncertainties c are determined on these individual images, for example by means of a sliding window algorithm for the last 10 individual images. The uncertainties c are determined by sequencing forward paths of the machine learning model along several individual images in an image sequence, for example using Monte Carlo dropout.

In einem Verfahrensschritt V3 werden die voran bestimmten epistemischen Unsicherheit c als Maß für die Leistungsfähigkeit P des Maschinenlernmodells M bezüglich der Klassifizierung und Lokalisierung von Fußgängern verwertet. Eine hohe Unsicherheit c bedeutet eine geringe Leistungsfähigkeit P. Eine geringe Unsicherheit c bedeutet eine hohe Leistungsfähigkeit P.In a method step V3, the previously determined epistemic uncertainties c are used as a measure of the performance P of the machine learning model M with regard to the classification and localization of pedestrians. A high level of uncertainty c means low performance P. A low level of uncertainty c means high performance P.

In einem Verfahrensschritt V4 wird die Einsatzverlagerung als eine gegebene Abnahme der Leistungsfähigkeit P detektiert, siehe auch 2.In a method step V4, the shift in use is detected as a given decrease in performance P, see also 2 .

In einem Verfahrensschritt V5 wird bei der Einsatzverlagerung an das System S, in dem das Maschinenlernmodell M in der Einsatzphase eingesetzt wird, beispielsweise an das automatisierte Transportsystem ATS, rückgemeldet, dass das Maschinenlernmodell M außerhalb der ersten Domäne D1 inferiert. Die Rückmeldungen als auch die Sicherheitsanweisungen an das System S oder an einen Bediener des Systems S erfolgen beispielsweise in Abhängigkeit von Unterschreiten definierter Schwellen der Leistungsfähigkeit P, siehe auch 2.In a method step V5, when the deployment is shifted to the system S in which the machine learning model M is deployed in the deployment phase, for example to the automated transport system ATS, feedback is given that the machine learning model M is inferring outside of the first domain D1. The feedback as well as the safety instructions to the system S or to an operator of the system S occur, for example, as a function of defined thresholds of the performance P being undershot, see also 2 .

Beispielsweise kann bei 100 % Leistungsfähigkeit P die Rückmeldung lauten, dass das System S oder das eingesetzte Maschinenlernmodell M sicher inferiert. Die Rückmeldung kann visuell beispielsweise in grün angezeigt werden. Bei 75 % Leistungsfähigkeit P kann die Rückmeldung lauten, dass das System S oder das Maschinenlernmodell M nicht mehr sicher inferiert und dass eine Geschwindigkeit verringert werden muss. Diese Rückmeldung kann visuell beispielsweise in orange angezeigt werden. Bei 50 % Leistungsfähigkeit P kann die Rückmeldung lauten, dass das System S oder das Maschinenlernmodell M kritisch eingesetzt wird mit katastrophalen Falschvorhersagen und dass das System S anzuhalten ist. Diese Rückmeldung kann visuell beispielsweise in Rot angezeigt werden.For example, at 100% performance P, the feedback can be that the system S or the machine learning model M used infers reliably. The feedback can be displayed visually in green, for example. At 75% performance P, the feedback can be that the system S or the machine learning model M no longer infers safely and that a speed must be reduced. This feedback can be displayed visually in orange, for example. At 50% performance P, the feedback may be that the system S or the machine learning model M is being used critically with catastrophic mispredictions and that the system S is to be stopped. This feedback can be displayed visually, for example in red.

In 2 werden die epistemischen Unsicherheiten c in einem Schiebefenster W mittels eines Schiebefensteralgorithmus bestimmt.In 2 the epistemic uncertainties c are determined in a sliding window W using a sliding window algorithm.

3 zeigt ein autonomes Personenshuttle der SAE J3016 Stufe 4 als Beispiel eines automatisierten Transportsystems ATS. Das Personenshuttle umfasst Umfelderfassungssensoren U, beispielsweise Kamera, Radar, Lidar, Mikrofon, mit denen es sein Umfeld wahrnimmt. Die Erfindung stellt einen Sicherheitsmantel für das Wahrnehmungssystem des Personenshuttles bereit. 3 shows an autonomous passenger shuttle of SAE J3016 level 4 as an example of an automated transport system ATS. The passenger shuttle includes environment detection sensors U, for example camera, radar, lidar, microphone, with which it perceives its environment. The invention provides a safety jacket for the passenger shuttle's sensing system.

BezugszeichenlisteReference List

MM
Maschinenlernmodellmachine learning model
D1D1
erste Domänefirst domain
D2D2
zweite Domänesecond domain
aa
Domänenverschiebungdomain shift
cc
epistemische Unsicherheitepistemic uncertainty
PP
Leistungsfähigkeitefficiency
tt
ZeitTime
WW
Schiebefenstersliding window
SS
Systemsystem
ATSATS
automatisiertes Transportsystemautomated transport system
Uu
UmfelderfassungssensorEnvironment detection sensor
V1-V5V1-V5
Verfahrensschritteprocess steps

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • DE 102019211672 A1 [0006, 0007]DE 102019211672 A1 [0006, 0007]
  • DE 102020200998 A1 [0006, 0008]DE 102020200998 A1 [0006, 0008]
  • US 20200133281 A1 [0009]US20200133281A1 [0009]
  • US 9406017 B2 [0010]US 9406017 B2 [0010]

Claims (10)

Computerimplementiertes Verfahren zum Absichern eines Maschinenlernmodells (M) gegen eine Einsatzverlagerung, umfassend die Schritte: • Bereitstellen des Maschinenlernmodells (M), das in einer ersten Domäne (D1) auf Klassifizierung, Lokalisierung und/oder Verfolgung von Objekten und/oder Bildsegmentierung trainiert, validiert und/oder getestet wurde (V1); • für Einzelbilder, auf denen das Maschinenlernmodell (M) in einer Einsatzphase inferiert, umfassend Einzelbilder aus zweiten Domänen (D2) mit einer jeweiligen Domäneverschiebung (a) relativ zu der ersten Domäne (D1), jeweils Bestimmen einer epistemischen Unsicherheit (c), wobei Vorwärtspfade des Maschinenlernmodells (M) entlang mehreren der Einzelbildern sequenziert werden (V2); • Verwerten der epistemischen Unsicherheit (c) als Maß für die Leistungsfähigkeit (P) des Maschinenlernmodells (M) bezüglich der Klassifizierung, Lokalisierung und/oder Verfolgung von Objekten und/oder Bildsegmentierung auf den Einzelbildern, wobei eine hohe Unsicherheit (c) einer geringen Leistungsfähigkeit (P) und eine geringe Unsicherheit (c) einer hohen Leistungsfähigkeit (P) entsprechen (V3); • Wahrnehmen der Einsatzverlagerung als eine gegebene Abnahme der Leistungsfähigkeit (P), wobei die Einsatzverlagerung einem Einsatz des Maschinenlernmodells (M) außerhalb der ersten Domäne (D1) entspricht (V4); • bei der Einsatzverlagerung Rückmelden an ein System (S), in dem das Maschinenlernmodell (M) in der Einsatzphase eingesetzt wird, dass das Maschinenlernmodell (M) außerhalb der ersten Domäne (D1) inferiert (V5).Computer-implemented method for protecting a machine learning model (M) against a deployment shift, comprising the steps: • Providing the machine learning model (M), which was trained, validated and/or tested (V1) in a first domain (D1) for classification, localization and/or tracking of objects and/or image segmentation; • for frames on which the machine learning model (M) infers in a deployment phase, comprising frames from second domains (D2) with a respective domain shift (a) relative to the first domain (D1), each determining an epistemic uncertainty (c), where forward paths of the machine learning model (M) are sequenced (V2) along a plurality of the frames; • Utilizing the epistemic uncertainty (c) as a measure of the performance (P) of the machine learning model (M) with regard to the classification, localization and/or tracking of objects and/or image segmentation on the frames, with a high uncertainty (c) a low performance (P) and low uncertainty (c) correspond to high performance (P) (V3); • Perceiving the deployment shift as a given decrease in performance (P), the deployment shift corresponding to deployment of the machine learning model (M) outside the first domain (D1) (V4); • When shifting deployment, feedback to a system (S) in which the machine learning model (M) is deployed in the deployment phase that the machine learning model (M) infers (V5) outside of the first domain (D1). Verfahren nach Anspruch 1, wobei die epistemischen Unsicherheiten (c) • jeweils der letzten n Einzelbilder bestimmt werden, wobei n eine einstellbare Zahl ist, oder • für jedes k-te Einzelbild bestimmt werden, wobei k eine einstellbare Zahl ist.procedure after claim 1 , where the epistemic uncertainties (c) • are determined for each of the last n frames, where n is an adjustable number, or • are determined for every k-th frame, where k is an adjustable number. Verfahren nach einem der voran gehenden Ansprüche, wobei die epistemischen Unsicherheiten (c) mit Monte Carlo Dropout bestimmt werden.Method according to one of the preceding claims, wherein the epistemic uncertainties (c) are determined with Monte Carlo dropout. Verfahren nach einem der voran gehenden Ansprüche, wobei bei der Einsatzverlagerung das System (S) eine Sicherheitsanweisung einleitet zum Überführen des Systems (S) in einen Zustand erhöhter Aufmerksamkeit.Method according to one of the preceding claims, wherein when the deployment is shifted, the system (S) initiates a safety instruction to transfer the system (S) to a state of heightened alertness. Verfahren nach einem der voran gehenden Ansprüche, wobei bei der Einsatzverlagerung das System (S) • eine Sicherheitsanweisung an einen Bediener des Systems (S) einleitet und der Bediener der Sicherheitsanweisung folgend das System (S) in einen Zustand erhöhter Aufmerksamkeit überführt, oder • ausgeführt ist, systemseitig einen Zustand erhöhter Aufmerksamkeit zu erreichen, und nach der Rückmeldung der Einsatzverlagerung den Zustand erhöhter Aufmerksamkeit erreicht.Method according to one of the preceding claims, in which the system (S) • initiates a safety instruction to an operator of the system (S) and the operator, following the safety instruction, transfers the system (S) to a state of heightened alertness, or • is designed to reach a state of heightened alertness on the system side, and reaches the state of heightened alertness after the response to the shift in use. Computerprogramm umfassend Befehle, die einen Computer veranlassen, das Verfahren nach einem der vorangehenden Schritte auszuführen, wenn der Computer das Computerprogramm ausführt.Computer program comprising instructions that cause a computer to carry out the method according to one of the preceding steps when the computer runs the computer program. Datenträgersignal, das das Computerprogramm nach Anspruch 6 überträgt.Disk signal that the computer program according to claim 6 transmits. Automatisiertes Transportsystem (ATS) zum Transportieren von Personen und/oder Gegenständen, das Transportsystem (ATS) umfassend wenigstens einen Umfelderfassungssensor (U) und eine Auswerteeinheit, wobei während eines Betriebs des Transportsystems (ATS) • ein Maschinenlernmodell (M), das in einer ersten Domäne (D1) auf Klassifizierung, Lokalisierung und/oder Verfolgung von Objekten und/oder Bildsegmentierung trainiert, validiert und/oder getestet wurde, auf Daten des Umfelderfassungssensors (U) inferiert; • die Auswerteeinheit das Maschinenlernmodell (M) gemäß des Verfahrens nach einem der Ansprüche 1 bis 7 gegen eine Einsatzverlagerung absichert.Automated transport system (ATS) for transporting people and/or objects, the transport system (ATS) comprising at least one environment detection sensor (U) and an evaluation unit, wherein during operation of the transport system (ATS) • a machine learning model (M), which in a first domain (D1) has been trained, validated and/or tested for classification, localization and/or tracking of objects and/or image segmentation, infers data from the environment detection sensor (U); • the evaluation unit, the machine learning model (M) according to the method according to one of Claims 1 until 7 secured against a shift in use. Transportsystem (ATS) nach Anspruch 8, wobei die Auswerteeinheit eine Schnittstelle umfasst zum Einlesen eines computerlesbaren Datenträgers, auf dem das Computerprogramm nach Anspruch 6 gespeichert ist, und die Auswerteeinheit das Computerprogramm ausführt, wenn der Datenträger eingelesen wird.Transport System (ATS) according to claim 8 , The evaluation unit comprises an interface for reading in a computer-readable data carrier on which the computer program claim 6 is stored, and the evaluation unit executes the computer program when the data carrier is read. Transportsystem (ATS) nach Anspruch 8, wobei die Auswerteeinheit eine Funkschnittstelle umfasst zum Empfangen des Datenträgersignals nach Anspruch 7 und die Auswerteeinheit das Computerprogramm ausführt, wenn das Datenträgersignal empfangen wird.Transport System (ATS) according to claim 8 , wherein the evaluation unit comprises a radio interface for receiving the data carrier signal claim 7 and the evaluation unit executes the computer program when the data carrier signal is received.
DE102022201702.1A 2022-02-18 2022-02-18 Computer-implemented method for protecting a machine learning model against deployment relocation, computer program, data carrier signal and automated transport system for transporting people and/or objects Withdrawn DE102022201702A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022201702.1A DE102022201702A1 (en) 2022-02-18 2022-02-18 Computer-implemented method for protecting a machine learning model against deployment relocation, computer program, data carrier signal and automated transport system for transporting people and/or objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022201702.1A DE102022201702A1 (en) 2022-02-18 2022-02-18 Computer-implemented method for protecting a machine learning model against deployment relocation, computer program, data carrier signal and automated transport system for transporting people and/or objects

Publications (1)

Publication Number Publication Date
DE102022201702A1 true DE102022201702A1 (en) 2023-08-24

Family

ID=87518943

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022201702.1A Withdrawn DE102022201702A1 (en) 2022-02-18 2022-02-18 Computer-implemented method for protecting a machine learning model against deployment relocation, computer program, data carrier signal and automated transport system for transporting people and/or objects

Country Status (1)

Country Link
DE (1) DE102022201702A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102024200652A1 (en) * 2024-01-25 2025-07-31 ZF Mobility Solutions GmbH Computer-implemented method for operating an ego vehicle and ego vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9406017B2 (en) 2012-12-24 2016-08-02 Google Inc. System and method for addressing overfitting in a neural network
US20200133281A1 (en) 2019-12-27 2020-04-30 Intel Corporation Safety system for a vehicle
DE102019211672A1 (en) 2019-08-02 2021-02-04 Zf Friedrichshafen Ag Training method for an artificial neural network
DE102020200998A1 (en) 2020-01-28 2021-07-29 Zf Friedrichshafen Ag Processing of sensor data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9406017B2 (en) 2012-12-24 2016-08-02 Google Inc. System and method for addressing overfitting in a neural network
DE102019211672A1 (en) 2019-08-02 2021-02-04 Zf Friedrichshafen Ag Training method for an artificial neural network
US20200133281A1 (en) 2019-12-27 2020-04-30 Intel Corporation Safety system for a vehicle
DE102020200998A1 (en) 2020-01-28 2021-07-29 Zf Friedrichshafen Ag Processing of sensor data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102024200652A1 (en) * 2024-01-25 2025-07-31 ZF Mobility Solutions GmbH Computer-implemented method for operating an ego vehicle and ego vehicle
DE102024200652B4 (en) * 2024-01-25 2025-11-20 ZF Mobility Solutions GmbH Computer-implemented method for operating an ego vehicle and ego vehicle

Similar Documents

Publication Publication Date Title
DE102017217733A1 (en) Checking a neural network
DE102014106506A1 (en) Method for carrying out a diagnosis of a camera system of a motor vehicle, camera system and motor vehicle
DE112020005663T5 (en) OBJECT RECOGNITION WITH TRAINING FROM MULTIPLE DATASETS
DE102020103769A1 (en) Adversarial attack on the algorithm for detecting black box objects
DE102019114577A1 (en) SYSTEMS, DEVICES AND METHODS FOR EMBEDDED CODING OF CONTEXT-RELATED INFORMATION USING A NEURONAL NETWORK WITH VECTOR SPACE MODELING
DE102020131657A1 (en) Diagnosing a perceptual system based on scene continuity
DE102022110766A1 (en) IMPROVED MACHINE LEARNING
EP4244829A1 (en) Method for detecting an environment of a first sensor system
DE102018005865A1 (en) Method for testing an assistance system for a vehicle
DE102022201702A1 (en) Computer-implemented method for protecting a machine learning model against deployment relocation, computer program, data carrier signal and automated transport system for transporting people and/or objects
DE102019213599A1 (en) Method for determining a classified swarm trajectory
DE102020214203A1 (en) Method for determining a lane change intention of another motor vehicle located in the immediate vicinity of a motor vehicle, and assistance system
DE102020200876B4 (en) Method for processing sensor data from a sensor system in a vehicle
DE102016120066A1 (en) A computer implemented method for controlling an object recognition system
WO2023131603A1 (en) Method for optimizing the environment sensing for a driving assistance system by means of an additional reference sensor system
DE102021207613A1 (en) Process for quality assurance of a system
DE102021000652A1 (en) Procedure for the prediction of parameters relevant to traffic management
DE102017116016A1 (en) A motor vehicle sensor device having a plurality of sensor units and a neural network for generating an integrated representation of an environment
DE102021202332A1 (en) IDENTIFICATION OF CORNER CASES OF OPERATIONAL SCENARIOS
DE102015008539A1 (en) Method for merging a plurality of information sources for object detection and method for operating a driver assistance device
DE102019218127B4 (en) Method and device for the optimal provision of AI systems
DE102022107820A1 (en) Method and processor circuit for checking the plausibility of a detection result of object recognition in an artificial neural network and motor vehicle
DE102021202334A1 (en) FILTERING OPERATIONAL SCENARIOS WHEN OPERATING A VEHICLE
DE102022207416B3 (en) Computer-implemented method for detecting occlusions of an imaging sensor
EP4323862A1 (en) Method for quality assurance of a system

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee