[go: up one dir, main page]

DE102023200766A1 - Computer-implemented method for generating labels for a data set and use of a labeled data set generated in such a way - Google Patents

Computer-implemented method for generating labels for a data set and use of a labeled data set generated in such a way Download PDF

Info

Publication number
DE102023200766A1
DE102023200766A1 DE102023200766.5A DE102023200766A DE102023200766A1 DE 102023200766 A1 DE102023200766 A1 DE 102023200766A1 DE 102023200766 A DE102023200766 A DE 102023200766A DE 102023200766 A1 DE102023200766 A1 DE 102023200766A1
Authority
DE
Germany
Prior art keywords
data
data set
groups
generated
feature space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102023200766.5A
Other languages
German (de)
Inventor
Mark Schutera
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102023200766.5A priority Critical patent/DE102023200766A1/en
Publication of DE102023200766A1 publication Critical patent/DE102023200766A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

Computerimplementiertes Verfahren zum Erzeugen von Labeln für einen Datensatz, wobei der Datensatz Messgrößen eines Messgrößen-Aufnehmers als Daten (1) umfasst und mittels des erzeugten gelabelten Datensatzes ein Maschinenlernmodell für Mustererkennung trainierbar ist, das Verfahren umfassend die Schritte: Empfangen des Datensatzes (V1); Abbilden der Daten (1) des Datensatzes auf Codes (2) in einen Merkmalsraum mittels eines Kodierers (3), wobei in dem Merkmalsraum die Codes (2) durch die jeweiligen Daten (1) in Bezug auf Charakteristika der Daten (1) bestimmt sind und der Kodierer (3) ausgeführt ist, die Charakteristika der Daten (1) zu erkennen und die Daten (1) entsprechend abzubilden (V2); Visualisieren des Merkmalsraums für eine menschliche Wahrnehmung von Informationen, wobei mittels Dimensionalitätsreduktion der Codes (2) Gruppen (1.0-1.9) von Daten (1) mit ähnlichen Charakteristika in einem dimensionsreduzierten Raum (4) erzeugt werden (V3); gruppenweises Erzeugen von Labels, wobei von einem Menschen eine Datenprobe (1) aus wenigstens einer der Gruppe (1.0-1.9) von Daten (1) ausgewählt wird und der Datenprobe (1) ein Label zugewiesen wird und damit alle Datenproben (1) dieser Gruppe (1.0-1.9) entsprechend gelabelt sind (V4).

Figure DE102023200766A1_0000
Computer-implemented method for generating labels for a data set, wherein the data set comprises measured variables of a measured variable sensor as data (1) and a machine learning model for pattern recognition can be trained using the generated labeled data set, the method comprising the steps of: receiving the data set (V1); mapping the data (1) of the data set to codes (2) in a feature space by means of an encoder (3), wherein in the feature space the codes (2) are determined by the respective data (1) in relation to characteristics of the data (1) and the encoder (3) is designed to recognize the characteristics of the data (1) and to map the data (1) accordingly (V2); visualizing the feature space for human perception of information, wherein groups (1.0-1.9) of data (1) with similar characteristics are generated in a dimensionally reduced space (4) by means of dimensionality reduction of the codes (2) (V3); generating labels in groups, wherein a data sample (1) is selected by a human from at least one of the groups (1.0-1.9) of data (1) and a label is assigned to the data sample (1), thus labeling all data samples (1) of this group (1.0-1.9) accordingly (V4).
Figure DE102023200766A1_0000

Description

Die Erfindung betrifft ein computerimplementiertes Verfahren zum Erzeugen von Labeln für einen Datensatz und eine Verwendung eines derart erzeugten gelabelten Datensatzes.The invention relates to a computer-implemented method for generating labels for a data set and a use of a labeled data set generated in this way.

Folgende Definitionen, Beschreibungen und Ausführungen behalten ihre jeweilige Bedeutung für und finden Anwendung auf den gesamten offenbarten Erfindungsgegenstand.The following definitions, descriptions and statements retain their respective meaning for and apply to the entire disclosed subject matter.

Gelabelte Daten, das sind beschriftete oder etikettierte Daten, die mit Kennzeichen versehen sind, beispielswiese in Form von Metainformationen, sind für jedes maschinelle Lernprojekt von zentraler Bedeutung. Bei der maschinellen Umfeldwahrnehmung von Fahrsystemen, beispielsweise beim autonomen Fahren, besteht ein Bedarf an Labeln, insbesondere an detaillierten Labeln. Eine bloße Objekt-Klasseninformation wie Auto oder Fußgänger ist nicht ausreichend. Zusätzliche semantische Objekt-Informationen wie „Tür offen“, „zu Fuß“, „bewusst“, „nicht bewusst“, „Blickkontakt“ oder Metainformationen wie „Nacht“, „Tag“, „Sonne“, „Regen“ werden gefordert. Dies verlangt nach einem Labeling mit einem hohen Durchsatz, auch High-throughput labeling genannt.Labeled data, i.e. labeled or tagged data that is provided with identifiers, for example in the form of meta information, is of central importance for every machine learning project. In the machine perception of the environment of driving systems, for example in autonomous driving, there is a need for labels, especially detailed labels. Mere object class information such as car or pedestrian is not sufficient. Additional semantic object information such as "door open", "on foot", "conscious", "unconscious", "eye contact" or meta information such as "night", "day", "sun", "rain" are required. This requires labeling with a high throughput, also known as high-throughput labeling.

Die US 11,436,428 B2 offenbart ein Verfahren zum Erhöhen der Datenqualität eines Datensatzes für eine halbüberwachte maschinelle Lernanalyse.The US 11,436,428 B2 discloses a method for increasing the data quality of a dataset for semi-supervised machine learning analysis.

Der Erfindung lag die Aufgabe zugrunde, wie ein Labeling mit hohem Durchsatz ermöglicht werden kann zum Trainieren eines Maschinenlernmodells.The invention was based on the task of how high-throughput labeling can be enabled for training a machine learning model.

Die Gegenstände des unabhängigen und des nebengeordneten Anspruchs lösen jeweils diese Aufgabe durch Erzeugen eines insbesondere latenten Merkmalsraums für Datenproben des Datensatzes. Aus den Daten erzeugte Codes in dem Merkmalsraum werden in einen dimensionsreduzierten Raum abgebildet und in dem dimensionsreduzierten Raum geclustert. Die Cluster werden clusterweise gelabelt. Die erfindungsgemäße Lösung stellt damit ein durchsatzstarkes Labeling bereit, das ein Cluster-Labeling innerhalb des gemeinsamen latenten Merkmalsraums eines Modells ermöglicht. Es werden umfangreiche beschriftete Daten erzeugt, die für die autonome Entwicklung und den Einsatz von maschinellen Wahrnehmungsmodellen benötigt werden. In Kombination mit einem Auswahltool wird ein hoher Durchsatz bei der Beschriftung von Klassifikationsmerkmalen ermöglicht.The subject matter of the independent and the subordinate claim each solves this problem by generating a latent feature space for data samples of the data set. Codes generated from the data in the feature space are mapped into a dimension-reduced space and clustered in the dimension-reduced space. The clusters are labeled cluster by cluster. The solution according to the invention thus provides high-throughput labeling that enables cluster labeling within the common latent feature space of a model. Extensive labeled data is generated that is required for the autonomous development and use of machine perception models. In combination with a selection tool, high throughput is enabled when labeling classification features.

Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Definitionen, den Unteransprüchen, den Zeichnungen und der Beschreibung bevorzugter Ausführungsbeispiele.Advantageous embodiments of the invention emerge from the definitions, the subclaims, the drawings and the description of preferred embodiments.

Mit dem hier offenbarten computerimplementierten Verfahren werden Labeln für einen Datensatz erzeugt. Der Datensatz umfasst Messgrößen eines Messgrößen-Aufnehmers als Daten. Computerimplementiert bedeutet, dass das Verfahren wenigstens teilweise mit einer programmierbaren Vorrichtung durchgeführt wird.The computer-implemented method disclosed here generates labels for a data set. The data set includes measured variables of a measured variable sensor as data. Computer-implemented means that the method is carried out at least partially with a programmable device.

Messgrößen können beispielsweise Pixelwerte eines Bildes, beispielsweise Helligkeitswerte, oder Schallfeldgrößen, Amplituden oder Frequenzen von elektrischen Signalen sein.Measurement quantities can be, for example, pixel values of an image, such as brightness values, or sound field quantities, amplitudes or frequencies of electrical signals.

Ein Messgrößen-Aufnehmer ist ein technisches Bauteil, beispielsweise ein Sensor oder Detektor. Die Daten sind also gemessene Daten. Der Messgrößen-Aufnehmer ist ein realer oder ein simulierter Messgrößen-Aufnehmer. Die Ausgaben des simulierten Messgrößen-Aufnehmers, das heißt die simulierten gemessenen Daten, wechselwirken bei der Durchführung des Verfahrens mit einem Menschen, beispielsweise bei dem Auswählen von Datenproben aus einer Gruppe von Daten, und symbolisieren damit eine Wechselwirkung mit der externen physischen Realität. Die Daten können also real gemessene Daten oder simulierte gemessene Daten sein.A measurement sensor is a technical component, such as a sensor or detector. The data is therefore measured data. The measurement sensor is a real or a simulated measurement sensor. The outputs of the simulated measurement sensor, i.e. the simulated measured data, interact with a person when carrying out the procedure, for example when selecting data samples from a group of data, and thus symbolize an interaction with the external physical reality. The data can therefore be real measured data or simulated measured data.

Mittels des erzeugten gelabelten Datensatzes ist ein Maschinenlernmodell für Mustererkennung trainierbar. Das Maschinenlernmodell kann beispielsweise ein künstliches neuronales Netzwerk sein. Mustererkennung umfasst Klassifizierung und Segmentierung. Beispielsweise wird das Maschinenlernmodell trainiert, in digitalen Bildern Verkehrszeichen zu klassifizieren oder Videoaufnahmen von Verkehrsszenen semantisch zu segmentieren, beispielsweise in Videoaufnahmen Fußgänger und Fahrzeuge zu segmentieren.Using the generated labeled data set, a machine learning model for pattern recognition can be trained. The machine learning model can be an artificial neural network, for example. Pattern recognition includes classification and segmentation. For example, the machine learning model is trained to classify traffic signs in digital images or to semantically segment video recordings of traffic scenes, for example to segment pedestrians and vehicles in video recordings.

Ein Schritt des Verfahrens ist das Empfangen des Datensatzes. Der Datensatz wird mittels eines Empfangsmoduls empfangen. Das Empfangsmodul kann in Form eines Softwarecodeabschnitts realisiert sein, beispielsweise in Form eines Lesebefehls, durch den, wenn er geladen oder ausgeführt wird, der Datensatz aus einem digitalen Speicher gelesen wird. Das Empfangsmodul kann auch in Form von Hardware realisiert sein, beispielweise in Form eines technischen Bauteils zum Empfangen und/oder Auslesen von Daten.One step of the method is receiving the data set. The data set is received by means of a receiving module. The receiving module can be implemented in the form of a software code section, for example in the form of a read command, which, when loaded or executed, reads the data set from a digital memory. The receiving module can also be implemented in the form of hardware, for example in the form of a technical component for receiving and/or reading data.

Ein weiterer Schritt des Verfahrens ist das Abbilden der Daten des Datensatzes auf Codes in einen Merkmalsraum mittels eines Kodierers. Nach einem Aspekt ist der Merkmalsraum ein latenter Merkmalsraum. Ein latenter Merkmalsraum ist eine Einbettung einer Menge von Elementen innerhalb einer Mannigfaltigkeit, bei der Elemente mit ähnlicher Charakteristik im latenten Merkmalsraum näher beieinander liegen. Die Charakteristik eines Datensatzes ist eine beliebige Eigenschaft des Datensatzes. Ein Beispiel für eine Charakteristik eines Datensatzes ist eine Schrittweite zwischen zwei Zeitpunkten, eine Schrittweite zwischen zwei Hüllen einer Trajektorie, eine Richtungsänderung einer Trajektorie, eine Größe einer Hülle, welche ein Objekt umfasst oder dergleichen. Nach einem weiteren Aspekt umfasst der Merkmalsraum gecroppte Objekt oder im Fall einer Klassifizierung das gesamte Bild als Eingangswert. Die Codes sind Elemente des Merkmalsraums, nach einem Aspekt des latenten Merkmalsraums, beispielsweise Vektoren. In dem Merkmalsraum, nach einem Aspekt in dem latenten Merkmalsraum, sind die Codes durch die jeweiligen Daten in Bezug auf Charakteristika der Daten bestimmt. Der Kodierer ist ausgeführt, die Charakteristika der Daten zu erkennen und die Daten entsprechend abzubilden. Der Merkmalsraum, nach einem Aspekt der latente Merkmalsraum, kann hochdimensional sein, beispielsweise 128-dimensional.A further step of the procedure is to map the data of the data set to codes in a feature space using an encoder. After In one aspect, the feature space is a latent feature space. A latent feature space is an embedding of a set of elements within a manifold in which elements with similar characteristics are closer to each other in the latent feature space. The characteristic of a data set is any property of the data set. An example of a characteristic of a data set is a step size between two points in time, a step size between two hulls of a trajectory, a change in direction of a trajectory, a size of a hull that encompasses an object, or the like. In another aspect, the feature space includes cropped objects or, in the case of classification, the entire image as input value. The codes are elements of the feature space, in one aspect of the latent feature space, for example vectors. In the feature space, in one aspect in the latent feature space, the codes are determined by the respective data in relation to characteristics of the data. The encoder is designed to recognize the characteristics of the data and to map the data accordingly. The feature space, in one aspect the latent feature space, can be high-dimensional, for example 128-dimensional.

Ein weiterer Schritt des Verfahrens ist das Visualisieren des Merkmalsraums, nach einem Aspekt des latenten Merkmalsraums, für eine menschliche Wahrnehmung von Informationen. Durch das Visualisieren des Merkmalsraums, nach einem Aspekt des latenten Merkmalsraums, werden die Codes derart angezeigt, nämlich geclustert, dass der Mensch in die Lage versetzt wird, die Gruppen schnell und effizient zu erfassen. Die Gruppen werden auch Cluster genannt. Dabei steht nicht die Vermittlung bestimmter Inhalte oder deren Vermittlung in besonderer Aufmachung im Blickpunkt, sondern die Präsentation der Gruppen in einer Weise, die auf die physischen Gegebenheiten der menschlichen Wahrnehmung und Aufnahme von Informationen Rücksicht nimmt und dabei darauf gerichtet ist, die Wahrnehmung der gezeigten Informationen durch den Menschen in bestimmter Weise überhaupt erst zweckmäßig zu gestalten, insbesondere dadurch, dass die Gruppen möglichst getrennt voneinander dargestellt werden. Eine derartige Präsentation, das heißt der Schritt des Visualisierens des Merkmalsraums, nach einem Aspekt des latenten Merkmalsraums, dient der Lösung eines technischen Problems mit technischen Mitteln. Dabei werden die Gruppen von Daten mit ähnlichen Charakteristika mittels Dimensionalitätsreduktion der Codes in einem dimensionsreduzierten Raum erzeugt, der der menschlichen Wahrnehmung zugänglich ist.A further step in the process is visualising the feature space according to an aspect of the latent feature space for human perception of information. By visualising the feature space according to an aspect of the latent feature space, the codes are displayed, namely clustered, in such a way that people are able to understand the groups quickly and efficiently. The groups are also called clusters. The focus here is not on conveying certain content or conveying it in a special way, but on presenting the groups in a way that takes into account the physical conditions of human perception and absorption of information and is aimed at making the perception of the information shown by people in a certain way in the first place, in particular by displaying the groups as separately from one another as possible. Such a presentation, i.e. the step of visualising the feature space according to an aspect of the latent feature space, serves to solve a technical problem using technical means. The groups of data with similar characteristics are generated by dimensionality reduction of the codes in a dimensionally reduced space that is accessible to human perception.

Die Dimensionalitätsreduktion erfolgt mit einem Rechenmodell, einem statistischen Verfahren oder einem trainierten Maschinenlernmodell. Das Rechenmodell, das statistische Verfahren oder das trainierte Maschinenlernmodell bestimmen dabei, welche Dimensionen des hochdimensionalen Merkmalsraums, nach einem Aspekt des latenten Merkmalsraums, miteinander zusammengeführt werden können, um den dimensionsreduzierten Raum zu erhalten.The dimensionality reduction is carried out using a computational model, a statistical method or a trained machine learning model. The computational model, the statistical method or the trained machine learning model determine which dimensions of the high-dimensional feature space can be merged according to an aspect of the latent feature space in order to obtain the dimensionally reduced space.

Ein weiterer Schritt ist das gruppenweise Erzeugen von Labels. Dabei wird von einem Menschen eine Datenprobe, auch sample genannt, aus wenigstens einer der Gruppe von Daten ausgewählt. Dieser Datenprobe wird ein Label zugewiesen. Dieses Label erhalten dann alle Datenproben dieser Gruppe automatisch. Die Handlung des Auswählens der Datenprobe durch den Menschen oder Nutzer wird auch als human in the loop bezeichnet. Nach einem Aspekt ist für das Auswählen der Datenprobe eine Benutzerschnittstelle zu dem Datensatz, auch human machine interface, vorgesehen.A further step is the group-wise generation of labels. In this process, a human selects a data sample from at least one of the groups of data. This data sample is assigned a label. All data samples in this group then automatically receive this label. The action of selecting the data sample by the human or user is also referred to as human in the loop. In one aspect, a user interface to the data set, also known as a human machine interface, is provided for selecting the data sample.

Beispielsweise werden alle Datenprobe dieser Gruppe mit einem Auswahlwerkzeug automatisch ausgewählt und mit diesem Label versehen, beispielsweise mit einem Lasso Tool oder einem ähnlichen Maskierungswerkzeug. Das Lasso Tool ist eine Software, die auf der aktiven Ebene eines Bildes arbeitet und durch Klicken und Ziehen verwendet wird, um die Kanten einer Auswahl nachzuzeichnen. Der von einem Cursorpfad umschlossene Bereich bleibt ausgewählt und für verschiedene Transformationsoperationen, zum Beispiel Einfärben, Verschieben, Skalieren, Ausschneiden, Kopieren oder Einfügen, offen, bis an einer anderen Stelle des Bildes geklickt wird. An diesem Punkt wird die mit dem Lasso markierte Auswahl mit der Ebene verschmolzen, aus der sie ausgewählt wurde.For example, all data samples in that group will be automatically selected and labeled with that label using a selection tool, such as a lasso tool or similar masking tool. The lasso tool is software that works on the active layer of an image and is used to trace the edges of a selection by clicking and dragging. The area enclosed by a cursor path remains selected and open to various transformation operations, such as coloring, moving, scaling, cutting, copying, or pasting, until clicked elsewhere in the image, at which point the lassoed selection is merged with the layer from which it was selected.

Damit sind alle Datenproben dieser Gruppe entsprechend gelabelt. Damit wird ein High-throughput labeling realisiert.This means that all data samples in this group are labeled accordingly. This enables high-throughput labeling.

Nach einem Aspekt umfasst der Datensatz Messgrößen wenigstens eines Umfelderkennungssensors eines Fahrsystems. Der Umfelderkennungssensor kann beispielsweise ein Kamerasensor, ein Radarsensor, ein Lidarsensor, ein Akustiksensor, ein Geruchssensor oder ein Beschleunigungssensor sein. Umfeld kann das Fahrzeugäußere oder das Fahrzeug-innere Umfeld sein. Der Umfelderkennungssensor kann nach einem Aspekt einen Fahrzeug-Außenraum erkennen oder wahrnehmen, also das äußere Umfeld des Fahrzeuges. Beispielsweise ist der Umfelderkennungssensor ein Radarsystem mit einer Reichweite von mehreren hundert Metern bezogen auf einen Anbringungspunkt des Radarsystems an dem Fahrzeug. Nach einem weiteren Aspekt kann der Umfelderkennungssensor einen Fahrzeug-Innenraum erkennen oder wahrnehmen, beispielsweise eine Kabine eines Shuttles. Beispielsweise ist der Umfelderkennungssensor eine Innenraumkamera. Die Messgrößen sind in diesem Fall unstrukturierte Daten, beispielsweise Pixelwerte, Punktwolken oder Audiosignale. Durch die Kodierung von Bildaufnahmen eines Kamerasensors in dem Merkmalsraum, nach einem Aspekt dem latenten Merkmalsraum, werden dann als Gruppen beispielsweise Tagaufnahmen und Nachtaufnahmen in einem dimensionsreduzierten Raum erhalten. Wird nun beispielsweise eine Tagaufnahme aus der Gruppe der Tagaufnahmen ausgewählt und händisch als Tagaufnahme gelabelt, dann erhalten alle Aufnahmen in der Gruppe der Tagaufnahmen automatisch das Label Tagaufnahme. Damit wird das Labeling effizienter relativ zum Labeln jeder einzelnen Tagaufnahme. Entsprechendes gilt für die Gruppe der Nachtaufnahmen.According to one aspect, the data set includes measured variables of at least one environment detection sensor of a driving system. The environment detection sensor can be, for example, a camera sensor, a radar sensor, a lidar sensor, an acoustic sensor, an odor sensor or an acceleration sensor. Environment can be the vehicle exterior or the vehicle interior. According to one aspect, the environment detection sensor can detect or perceive a vehicle exterior, i.e. the external environment of the vehicle. For example, the environment detection sensor is a radar system with a range of several hundred meters in relation to a point of attachment of the radar system on the vehicle. According to another aspect, the environment detection sensor can detect or perceive a vehicle interior, for example a cabin of a shuttle. For example, the environment detection sensor is an interior camera. In this case, the measured variables are unstructured data, for example pixel values, point clouds or audio signals. By coding image recordings from a camera sensor in the feature space, according to one aspect the latent feature space, groups of daytime and nighttime shots are obtained in a dimension-reduced space. If, for example, a daytime shot is selected from the group of daytime shots and manually labeled as a daytime shot, then all shots in the group of daytime shots automatically receive the label daytime shot. This makes labeling more efficient compared to labeling each individual daytime shot. The same applies to the group of nighttime shots.

Nach einem weiteren Aspekt umfasst der Datensatz Messgrößen, die in einem Feldbus eines Fahrsystems aufgenommen wurden. Über den Feldbus sind Messgrößen-Aufnehmer und Aktuatoren untereinander oder mit einem Steuergerät verbunden. Messgrößen sind beispielsweise Lenkwinkel, Schlupfwinkel. Messgrößen aus einem Feldbus haben ein Feldbus spezifisches Format und sind ein Beispiel von strukturierten Daten. Der Feldbus ist beispielsweise ein CAN-Bus.According to another aspect, the data set includes measured variables that were recorded in a field bus of a driving system. The field bus connects measured variable sensors and actuators to each other or to a control unit. Measured variables are, for example, steering angle and slip angle. Measured variables from a field bus have a field bus-specific format and are an example of structured data. The field bus is, for example, a CAN bus.

Nach einem weiteren Aspekt wird der Datensatz aus einem Cloud-Speicher empfangen, beispielsweise über eine Funkschnittstelle. In einem Cloud-Speicher können Daten mehrerer Peripherieeinheiten zentral gesammelt werden und damit ein großes Volumen an Daten bereitgestellt werden. Beispielsweise können Daten von Umfelderkennungssensoren von Flotten-Fahrzeugen in dem Cloud-Speicher gespeichert werden. Auf großen Datenmengen ist das High-throughput labeling besonders effektiv.According to another aspect, the data set is received from a cloud storage, for example via a radio interface. In a cloud storage, data from several peripheral units can be collected centrally and thus a large volume of data can be made available. For example, data from environment detection sensors of fleet vehicles can be stored in the cloud storage. High-throughput labeling is particularly effective on large amounts of data.

Nach einem weiteren Aspekt ist der Kodierer ein Maschinenlernmodell, das trainiert ist, Charakteristika von Daten zu extrahieren. Beispielsweise ist der Kodierer ein Backbone eines trainierten Autoencoders oder der Backbone eines trainierten künstlichen neuronalen Netzwerks, beispielsweise der Backbone des ImageNET. Durch das Prozessieren von Daten durch mehrere Schichten von trainierten Maschinenlernmodellen werden die Daten auf einen Merkmalsraum, nach einem Aspekt auf einen latenten Merkmalsraum, abgebildet. Dabei kann der Kodierer auf beliebigen Daten trainiert sein.According to another aspect, the encoder is a machine learning model that is trained to extract characteristics from data. For example, the encoder is a backbone of a trained autoencoder or the backbone of a trained artificial neural network, for example the backbone of the ImageNET. By processing data through several layers of trained machine learning models, the data is mapped to a feature space, according to one aspect to a latent feature space. The encoder can be trained on any data.

Nach einem weiteren Aspekt ist der Kodierer auf dem Datensatz trainiert, das heißt auf dem empfangenen Datensatz. Durch das Trainieren des Kodierers zum Erzeugen des Merkmalsraums, nach einem Aspekt des latenten Merkmalsraums, auf den Daten, die gelabelt werden sollen, wird die Trennung der Gruppen in dem dimensionsreduzierten Raum verbessert.According to another aspect, the encoder is trained on the dataset, that is, on the received dataset. By training the encoder to generate the feature space, according to an aspect of the latent feature space, on the data to be labeled, the separation of the groups in the dimensionally reduced space is improved.

Nach einem weiteren Aspekt werden die Gruppen mittels einer Anzeigevorrichtung angezeigt, beispielsweise mittels eines Monitors. Die Anzeigevorrichtung ist eine technische Komponente des Verfahrens.According to a further aspect, the groups are displayed by means of a display device, for example by means of a monitor. The display device is a technical component of the method.

Nach einem weiteren Aspekt werden die Gruppen von Daten mit ähnlichen Charakteristika in einem zweidimensionalen Raum erzeugt. In dem zweidimensionalen Raum sind die Gruppen besonders schnell und effizient wahrnehmbar von einem Menschen.According to another aspect, the groups of data with similar characteristics are generated in a two-dimensional space. In the two-dimensional space, the groups are particularly quickly and efficiently perceived by a human.

Nach einem weiteren Aspekt erfolgt die Dimensionalitätsreduktion mittels t-verteilter stochastischer Nachbarschaftseinbettung, auch t-distributed stochastic neighbor embedding genannt, abgekürzt t-SNE, oder einheitlicher Mannigfaltigkeitsannäherung und Projektion, auch Uniform Manifold Approximation and Projection genannt, abgekürzt UMAP, oder einer anderem Technik aus dem Bereich dimensionality reduction, beispielsweise nonlinear dimensionality reduction, beispielsweise Sammon's mapping, locally-linear mapping oder relational perspective map.According to a further aspect, the dimensionality reduction is carried out by means of t-distributed stochastic neighbor embedding, abbreviated t-SNE, or uniform manifold approximation and projection, abbreviated UMAP, or another technique from the field of dimensionality reduction, for example nonlinear dimensionality reduction, for example Sammon's mapping, locally-linear mapping or relational perspective map.

t-SNE ist eine nichtlineare Dimensionalitätsreduktionstechnik, die sich für die Einbettung hochdimensionaler Daten zur Visualisierung in einen niedrigdimensionalen zwei- oder dreidimensionalen Raum eignet. Insbesondere wird jedes hochdimensionale Objekt durch einen zwei- oder dreidimensionalen Punkt modelliert, und zwar so, dass ähnliche Objekte durch nahe gelegene Punkte und unähnliche Objekte durch weit entfernte Punkte mit hoher Wahrscheinlichkeit modelliert werden.t-SNE is a nonlinear dimensionality reduction technique suitable for embedding high-dimensional data into a low-dimensional two- or three-dimensional space for visualization. In particular, each high-dimensional object is modeled by a two- or three-dimensional point, in such a way that similar objects are modeled by nearby points and dissimilar objects are modeled by faraway points with high probability.

UMAP ist ein Dimensionsreduktionsverfahren, das ähnlich wie t-SNE zur Visualisierung, aber auch zur allgemeinen nichtlinearen Dimensionsreduktion eingesetzt werden kann.UMAP is a dimension reduction method that, similar to t-SNE, can be used for visualization, but also for general nonlinear dimension reduction.

Nach einem weiteren Aspekt werden für wenigstens eine der erzeugten Gruppen Untergruppen erzeugt und Labels für die Untergruppen erzeugt. Eine Datenprobe aus wenigstens einer der Untergruppe wird ausgewählt und der Datenprobe wird ein Label zugewiesen. Damit sind alle Datenproben dieser Untergruppe entsprechend gelabelt. Bezogen auf das Beispiel von Gruppen von Tagaufnahmen und Nachtaufnahmen kann beispielsweise die Gruppe der Tagaufnahmen in die Untergruppen Sonnenschein, bewölkt, Regen aufgeteilt werden. Durch Labeln jeweils einer Datenprobe aus einer dieser Untergruppen werden dann automatisch alle Tagaufnahmen mit Sonnenschein als Tagaufnahme mit Sonnenschein gelabelt und entsprechend Tagaufnahme mit Wolken und Tagaufnahme mit Regen.According to a further aspect, subgroups are created for at least one of the groups created and labels are created for the subgroups. A data sample from at least one of the subgroups is selected and a label is assigned to the data sample. This means that all data samples of this subgroup are labeled accordingly. Based on the example of groups of daytime shots and nighttime shots, for example, the group of daytime shots can be divided into the subgroups sunshine, cloudy, rain. By labeling one data sample from each of these subgroups, all daytime shots with sunshine are then automatically labeled as daytime shots. labeled with sunshine and accordingly day shot with clouds and day shot with rain.

Mit der hier offenbarten Verwendung eines erfindungsgemäß erzeugten gelabelten Datensatzes kann ein künstliches neuronales Netzwerk für Klassifizierung und/oder Segmentierung von Bildern oder Videoaufnahmen, für Klassifizierung von Audiodaten oder zur Mustererkennung in Messgrößen, die in einem Feldbus eines Fahrsystems aufgenommen wurden, trainiert werden.With the use of a labeled data set generated according to the invention disclosed here, an artificial neural network can be trained for classification and/or segmentation of images or video recordings, for classification of audio data or for pattern recognition in measured variables recorded in a field bus of a driving system.

Die Erfindung wird in den folgenden Figuren beispielhaft erläutert. Es zeigen:

  • 1 ein Ausführungsbeispiel eines Codes,
  • 2 ein Ausführungsbeispiel eines Kodierers,
  • 3 ein Ausführungsbeispiel einer Projektion von Codes aus einem latenten Merkmalsraum in einen zweidimensionalen Raum und
  • 4 ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens.
The invention is explained by way of example in the following figures. They show:
  • 1 an example of a code,
  • 2 an embodiment of an encoder,
  • 3 an embodiment of a projection of codes from a latent feature space into a two-dimensional space and
  • 4 an embodiment of a method according to the invention.

In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsähnliche Teile. In den jeweiligen Figuren werden übersichtshalber die für das jeweilige Verständnis relevanten Bezugsteile angegeben.In the figures, identical reference symbols refer to identical or functionally similar parts. For the sake of clarity, the relevant reference parts for the respective understanding are indicated in the respective figures.

1 zeigt als Beispiel einer Datenprobe 1 eines Datensatzes ein digitales Bild, das mit einem Kamerasensor aufgenommen wurde. Ein Kodierer, beispielsweise wie in 2 gezeigt, extrahiert die wichtigsten Merkmale des Originalbildes und erzeugt einen Code 2 in einem latenten Merkmalsraum. Der Kodierer komprimiert beispielsweise das Originalbild. Ein Dekodierer erzeugt aus den Informationen des Codes 2 wieder das Originalbild. 1 shows as an example of a data sample 1 of a data set a digital image taken with a camera sensor. An encoder, for example as in 2 shown, extracts the most important features of the original image and creates a code 2 in a latent feature space. The encoder compresses the original image, for example. A decoder creates the original image again from the information of the code 2.

Der in 2 gezeigte Kodierer ist beispielsweise ein Backbone eines künstlichen neuronalen Netzwerks. Die Daten 1 werden in eine Eingangsschicht des künstlichen neuronalen Netzwerks eingespeist. Nach einer bestimmten Zwischenschicht in dem künstlichen neuronalen Netzwerk werden die dort erhaltenen, von dem künstlichen neuronalen Netzwerk prozessierten Daten 1 als Codes 2 ausgelesen.The 2 The encoder shown is, for example, a backbone of an artificial neural network. The data 1 is fed into an input layer of the artificial neural network. After a certain intermediate layer in the artificial neural network, the data 1 received there and processed by the artificial neural network are read out as codes 2.

3 zeigt eine UMAP-Projektion der Codes 2 des latenten Merkmalsraums des MNIST-Datensatzes. Der MNIST Datensatz umfasst 28x28x1 Pixel große Bilder von den Ziffern 0 bis 9. Beispielsweise bildet der in 2 gezeigte Kodierer 3 diese Bilder auf den latenten Merkmalsraum ab. Durch die UMAP-Projektion wird die Dimensionalität des latenten Merkmalsraums auf die Dimension zwei reduziert und es wird der gezeigte dimensionsreduzierte zweidimensionale Raum 4 erhalten. Dieser dimensionsreduzierte Raum 4 wird beispielsweise auf einer Anzeigevorrichtung 5, beispielsweise einem Monitor, einem Menschen angezeigt. Als Ergebnis der UMAP-Projektion bilden sich die Gruppen 1.0-1.9 von Daten heraus in dem dimensionsreduzierten Raum 4. Jede dieser Gruppen 1.0-1.9 entspricht einer Ziffernklasse des MNIST-Datensatzes. Beispielsweise umfasst die Gruppe 1.3 die Ziffern 3. Das High-throughput Labeling wird dadurch erreicht, dass beispielsweise eine der Ziffern 3 aus der Gruppe 1.3 ausgewählt wird und als Ziffer 3 gelabelt wird. Mittels eines Auswahlwerkzeuges werden dann alle Ziffern der Gruppe 1.3 automatisch als Ziffern 3 gelabelt. 3 shows a UMAP projection of the codes 2 of the latent feature space of the MNIST dataset. The MNIST dataset contains 28x28x1 pixel images of the digits 0 to 9. For example, the 2 shown encoder 3 maps these images onto the latent feature space. The UMAP projection reduces the dimensionality of the latent feature space to dimension two and the dimension-reduced two-dimensional space 4 shown is obtained. This dimension-reduced space 4 is displayed to a person on a display device 5, for example a monitor. As a result of the UMAP projection, the groups 1.0-1.9 of data are formed in the dimension-reduced space 4. Each of these groups 1.0-1.9 corresponds to a digit class of the MNIST data set. For example, group 1.3 includes the digits 3. High-throughput labeling is achieved by, for example, selecting one of the digits 3 from group 1.3 and labeling it as digit 3. Using a selection tool, all digits in group 1.3 are then automatically labeled as digits 3.

In einem Verfahrensschritt V1 des in 4 gezeigten Ausführungsbeispiels eines erfindungsgemäßen Verfahrens werden Daten 1 eines Datensatz empfangen, beispielsweise aus einem Cloud-Speicher. In einem Verfahrensschritt V2 werden die Daten 1 auf Codes 2 in einen latenten Merkmalsraum mittels des Kodierers 3 abgebildet. In einem Verfahrensschritt V3 wird der latente Merkmalsraum mittels Dimensionalitätsreduktion als zweidimensionaler Raum 4 auf einer Anzeigevorrichtung 5 visualisiert, wobei als Ergebnis der Dimensionalitätsreduktion Gruppen von Daten erzeugt werden. In einem Verfahrensschritt V4 werden gruppenweise Labels erzeugt.In a process step V1 of the 4 In the embodiment of a method according to the invention shown, data 1 of a data set is received, for example from a cloud storage. In a method step V2, the data 1 is mapped onto codes 2 in a latent feature space by means of the encoder 3. In a method step V3, the latent feature space is visualized as a two-dimensional space 4 on a display device 5 by means of dimensionality reduction, groups of data being generated as a result of the dimensionality reduction. In a method step V4, labels are generated in groups.

BezugszeichenReference symbol

11
Daten, Datenprobedata, data sample
1.0-1.01.0-1.0
Gruppegroup
22
Codecode
33
KodiererEncoder
44
dimensionsreduzierter Raumdimensionally reduced space
55
AnzeigevorrichtungDisplay device
V1-V4V1-V4
VerfahrensschritteProcess steps

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA accepts no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 11436428 B2 [0004]US 11436428 B2 [0004]

Claims (11)

Computerimplementiertes Verfahren zum Erzeugen von Labeln für einen Datensatz, wobei der Datensatz Messgrößen eines Messgrößen-Aufnehmers als Daten (1) umfasst und mittels des erzeugten gelabelten Datensatzes ein Maschinenlernmodell für Mustererkennung trainierbar ist, das Verfahren umfassend die Schritte: • Empfangen des Datensatzes (V1); • Abbilden der Daten (1) des Datensatzes auf Codes (2) in einen Merkmalsraum mittels eines Kodierers (3), wobei in dem Merkmalsraum die Codes (2) durch die jeweiligen Daten (1) in Bezug auf Charakteristika der Daten (1) bestimmt sind und der Kodierer (3) ausgeführt ist, die Charakteristika der Daten (1) zu erkennen und die Daten (1) entsprechend abzubilden (V2); • Visualisieren des Merkmalsraums für eine menschliche Wahrnehmung von Informationen, wobei mittels Dimensionalitätsreduktion der Codes (2) Gruppen (1.0-1.9) von Daten (1) mit ähnlichen Charakteristika in einem dimensionsreduzierten Raum (4) erzeugt werden (V3); • gruppenweises Erzeugen von Labels, wobei von einem Menschen eine Datenprobe (1) aus wenigstens einer der Gruppe (1.0-1.9) von Daten (1) ausgewählt wird und der Datenprobe (1) ein Label zugewiesen wird und damit alle Datenproben (1) dieser Gruppe (1.0-1.9) entsprechend gelabelt sind (V4).Computer-implemented method for generating labels for a data set, wherein the data set comprises measured variables of a measured variable sensor as data (1) and a machine learning model for pattern recognition can be trained using the generated labeled data set, the method comprising the steps: • Receiving the data set (V1); • Mapping the data (1) of the data set to codes (2) in a feature space using an encoder (3), wherein in the feature space the codes (2) are determined by the respective data (1) in relation to characteristics of the data (1) and the encoder (3) is designed to recognize the characteristics of the data (1) and to map the data (1) accordingly (V2); • Visualizing the feature space for human perception of information, wherein groups (1.0-1.9) of data (1) with similar characteristics are generated in a dimensionally reduced space (4) by means of dimensionality reduction of the codes (2) (V3); • generating labels in groups, whereby a human selects a data sample (1) from at least one of the groups (1.0-1.9) of data (1) and assigns a label to the data sample (1), thereby labeling all data samples (1) of this group (1.0-1.9) accordingly (V4). Verfahren nach Anspruch 1, wobei der Datensatz Messgrößen wenigstens eines Umfelderkennungssensors eines Fahrsystems umfasst.Procedure according to Claim 1 , wherein the data set comprises measured variables of at least one environment detection sensor of a driving system. Verfahren nach einem der vorangehenden Ansprüche, wobei der Datensatz Messgrößen umfasst, die in einem Feldbus eines Fahrsystems aufgenommen wurden.Method according to one of the preceding claims, wherein the data set comprises measured variables recorded in a field bus of a driving system. Verfahren nach einem der vorangehenden Ansprüche, wobei der Datensatz aus einem Cloud-Speicher empfangen wird.Method according to one of the preceding claims, wherein the data set is received from a cloud storage. Verfahren nach einem der vorangehenden Ansprüche, wobei der Kodierer (3) ein Maschinenlernmodell ist, das trainiert ist, Charakteristika von Daten (1) zu extrahieren.Method according to one of the preceding claims, wherein the encoder (3) is a machine learning model trained to extract characteristics from data (1). Verfahren nach Anspruch 5, wobei der Kodierer (3) auf dem Datensatz trainiert wurde.Procedure according to Claim 5 , where the encoder (3) was trained on the dataset. Verfahren nach einem der vorangehenden Ansprüche, wobei die Gruppen (1.0-1.9) mittels einer Anzeigevorrichtung (5) angezeigt werden.Method according to one of the preceding claims, wherein the groups (1.0-1.9) are displayed by means of a display device (5). Verfahren nach einem der vorangehenden Ansprüche, wobei die Gruppen (1.0-1.9) von Daten (1) mit ähnlichen Charakteristika in einem zweidimensionalen Raum (4) erzeugt werden.Method according to one of the preceding claims, wherein the groups (1.0-1.9) of data (1) with similar characteristics are generated in a two-dimensional space (4). Verfahren nach einem der vorangehenden Ansprüche, wobei die Dimensionalitätsreduktion mittels t-verteilter stochastischer Nachbarschaftseinbettung oder einheitlicher Mannigfaltigkeitsannäherung und Projektion erfolgt.Method according to one of the preceding claims, wherein the dimensionality reduction is carried out by means of t-distributed stochastic neighborhood embedding or uniform manifold approximation and projection. Verfahren nach einem der vorangehenden Ansprüche, wobei für wenigstens eine der erzeugten Gruppen (1.0-1.9) Untergruppen erzeugt werden und Labels für die Untergruppen erzeugt werden, wobei eine Datenprobe (1) aus wenigstens einer der Untergruppe ausgewählt wird und der Datenprobe (1) ein Label zugewiesen wird und damit alle Datenproben (1) dieser Untergruppe entsprechend gelabelt sind.Method according to one of the preceding claims, wherein subgroups are generated for at least one of the generated groups (1.0-1.9) and labels are generated for the subgroups, wherein a data sample (1) is selected from at least one of the subgroups and a label is assigned to the data sample (1), and thus all data samples (1) of this subgroup are labeled accordingly. Verwendung eines nach einem der vorangehenden Ansprüche erzeugten gelabelten Datensatzes zum Trainieren eines künstlichen neuronalen Netzwerks für Klassifizierung und/oder Segmentierung von Bildern oder Videoaufnahmen, für Klassifizierung von Audiodaten oder zur Mustererkennung in Messgrößen, die in einem Feldbus eines Fahrsystems aufgenommen wurden.Use of a labeled data set generated according to one of the preceding claims for training an artificial neural network for classification and/or segmentation of images or video recordings, for classification of audio data or for pattern recognition in measured variables recorded in a field bus of a driving system.
DE102023200766.5A 2023-01-31 2023-01-31 Computer-implemented method for generating labels for a data set and use of a labeled data set generated in such a way Ceased DE102023200766A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102023200766.5A DE102023200766A1 (en) 2023-01-31 2023-01-31 Computer-implemented method for generating labels for a data set and use of a labeled data set generated in such a way

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023200766.5A DE102023200766A1 (en) 2023-01-31 2023-01-31 Computer-implemented method for generating labels for a data set and use of a labeled data set generated in such a way

Publications (1)

Publication Number Publication Date
DE102023200766A1 true DE102023200766A1 (en) 2024-08-01

Family

ID=91852998

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023200766.5A Ceased DE102023200766A1 (en) 2023-01-31 2023-01-31 Computer-implemented method for generating labels for a data set and use of a labeled data set generated in such a way

Country Status (1)

Country Link
DE (1) DE102023200766A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102024116309A1 (en) * 2024-06-11 2025-12-11 Airbus Defence and Space GmbH Methods and systems for the similarity classification of radio signals in signal detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220237277A1 (en) * 2020-11-10 2022-07-28 NetraDyne, Inc. Visual login
CN114972180A (en) * 2017-04-13 2022-08-30 英卓美特公司 Method for predicting defects in an assembly unit
US11436428B2 (en) 2017-06-06 2022-09-06 Sightline Innovation Inc. System and method for increasing data quality in a machine learning process

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972180A (en) * 2017-04-13 2022-08-30 英卓美特公司 Method for predicting defects in an assembly unit
US11436428B2 (en) 2017-06-06 2022-09-06 Sightline Innovation Inc. System and method for increasing data quality in a machine learning process
US20220237277A1 (en) * 2020-11-10 2022-07-28 NetraDyne, Inc. Visual login

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102024116309A1 (en) * 2024-06-11 2025-12-11 Airbus Defence and Space GmbH Methods and systems for the similarity classification of radio signals in signal detection

Similar Documents

Publication Publication Date Title
DE112019001310B4 (en) Systems and methods for reducing the amount of data storage in machine learning
DE102017100396A1 (en) Classifiers for high and low fidelity used on street scene images
DE112010002232T5 (en) Semantic scene segmentation using random multinominal logit (RML)
DE102019209560A1 (en) Apparatus and method for training a neural network
DE102011086512A1 (en) Method for fog detection
EP2368216A1 (en) Method and device for analyzing surrounding objects and/or surrounding scenes, such as for object and scene class segmenting
DE102023100731A1 (en) Method and system for automatic annotation of sensor data
DE102018217091A1 (en) Process, artificial neural network, device, computer program and machine-readable storage medium for the semantic segmentation of image data
DE102021114287A1 (en) Microscopy system and method for generating stylized contrast images
DE102023200766A1 (en) Computer-implemented method for generating labels for a data set and use of a labeled data set generated in such a way
EP4078238A1 (en) Method and device for making sensor data more robust against adverse disruptions
DE102020003008A1 (en) Automatic visual perception by means of an environment sensor arrangement
DE102005062154B4 (en) Generation of large realistic training samples for classifiers from a few examples
DE102018114231A1 (en) Method and system for capturing objects using at least one image of an area of interest (ROI)
DE102020128952A1 (en) Method and assistance device for two-stage image-based scene recognition and motor vehicle
DE102020133626A1 (en) Method for recognizing scenes, assistance devices and motor vehicles which are difficult to classify correctly for a neural network
DE102021214464B3 (en) Evaluation of generators to produce realistic images
DE102022206025A1 (en) Population classification using point cloud features
DE102021206190A1 (en) Procedure for recognizing objects of searched types in camera images
DE102022201161A1 (en) Object classification with a one-level meta-based object detector using class prototypes
EP4296970A1 (en) Computer-implemented method and system for creating a virtual vehicle environment
DE102019217952A1 (en) Method and device for providing a training data set for training an AI function on an unknown data domain
DE102019217951A1 (en) Method and apparatus for determining a domain distance between at least two data domains
DE10136649B4 (en) Method and device for object recognition of moving motor vehicles
DE102023201113A1 (en) Computer-implemented method for training a machine learning algorithm and/or for generating at least one training image

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final