DE102023200766A1 - Computer-implemented method for generating labels for a data set and use of a labeled data set generated in such a way - Google Patents
Computer-implemented method for generating labels for a data set and use of a labeled data set generated in such a way Download PDFInfo
- Publication number
- DE102023200766A1 DE102023200766A1 DE102023200766.5A DE102023200766A DE102023200766A1 DE 102023200766 A1 DE102023200766 A1 DE 102023200766A1 DE 102023200766 A DE102023200766 A DE 102023200766A DE 102023200766 A1 DE102023200766 A1 DE 102023200766A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- data set
- groups
- generated
- feature space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
Computerimplementiertes Verfahren zum Erzeugen von Labeln für einen Datensatz, wobei der Datensatz Messgrößen eines Messgrößen-Aufnehmers als Daten (1) umfasst und mittels des erzeugten gelabelten Datensatzes ein Maschinenlernmodell für Mustererkennung trainierbar ist, das Verfahren umfassend die Schritte: Empfangen des Datensatzes (V1); Abbilden der Daten (1) des Datensatzes auf Codes (2) in einen Merkmalsraum mittels eines Kodierers (3), wobei in dem Merkmalsraum die Codes (2) durch die jeweiligen Daten (1) in Bezug auf Charakteristika der Daten (1) bestimmt sind und der Kodierer (3) ausgeführt ist, die Charakteristika der Daten (1) zu erkennen und die Daten (1) entsprechend abzubilden (V2); Visualisieren des Merkmalsraums für eine menschliche Wahrnehmung von Informationen, wobei mittels Dimensionalitätsreduktion der Codes (2) Gruppen (1.0-1.9) von Daten (1) mit ähnlichen Charakteristika in einem dimensionsreduzierten Raum (4) erzeugt werden (V3); gruppenweises Erzeugen von Labels, wobei von einem Menschen eine Datenprobe (1) aus wenigstens einer der Gruppe (1.0-1.9) von Daten (1) ausgewählt wird und der Datenprobe (1) ein Label zugewiesen wird und damit alle Datenproben (1) dieser Gruppe (1.0-1.9) entsprechend gelabelt sind (V4). Computer-implemented method for generating labels for a data set, wherein the data set comprises measured variables of a measured variable sensor as data (1) and a machine learning model for pattern recognition can be trained using the generated labeled data set, the method comprising the steps of: receiving the data set (V1); mapping the data (1) of the data set to codes (2) in a feature space by means of an encoder (3), wherein in the feature space the codes (2) are determined by the respective data (1) in relation to characteristics of the data (1) and the encoder (3) is designed to recognize the characteristics of the data (1) and to map the data (1) accordingly (V2); visualizing the feature space for human perception of information, wherein groups (1.0-1.9) of data (1) with similar characteristics are generated in a dimensionally reduced space (4) by means of dimensionality reduction of the codes (2) (V3); generating labels in groups, wherein a data sample (1) is selected by a human from at least one of the groups (1.0-1.9) of data (1) and a label is assigned to the data sample (1), thus labeling all data samples (1) of this group (1.0-1.9) accordingly (V4).
Description
Die Erfindung betrifft ein computerimplementiertes Verfahren zum Erzeugen von Labeln für einen Datensatz und eine Verwendung eines derart erzeugten gelabelten Datensatzes.The invention relates to a computer-implemented method for generating labels for a data set and a use of a labeled data set generated in this way.
Folgende Definitionen, Beschreibungen und Ausführungen behalten ihre jeweilige Bedeutung für und finden Anwendung auf den gesamten offenbarten Erfindungsgegenstand.The following definitions, descriptions and statements retain their respective meaning for and apply to the entire disclosed subject matter.
Gelabelte Daten, das sind beschriftete oder etikettierte Daten, die mit Kennzeichen versehen sind, beispielswiese in Form von Metainformationen, sind für jedes maschinelle Lernprojekt von zentraler Bedeutung. Bei der maschinellen Umfeldwahrnehmung von Fahrsystemen, beispielsweise beim autonomen Fahren, besteht ein Bedarf an Labeln, insbesondere an detaillierten Labeln. Eine bloße Objekt-Klasseninformation wie Auto oder Fußgänger ist nicht ausreichend. Zusätzliche semantische Objekt-Informationen wie „Tür offen“, „zu Fuß“, „bewusst“, „nicht bewusst“, „Blickkontakt“ oder Metainformationen wie „Nacht“, „Tag“, „Sonne“, „Regen“ werden gefordert. Dies verlangt nach einem Labeling mit einem hohen Durchsatz, auch High-throughput labeling genannt.Labeled data, i.e. labeled or tagged data that is provided with identifiers, for example in the form of meta information, is of central importance for every machine learning project. In the machine perception of the environment of driving systems, for example in autonomous driving, there is a need for labels, especially detailed labels. Mere object class information such as car or pedestrian is not sufficient. Additional semantic object information such as "door open", "on foot", "conscious", "unconscious", "eye contact" or meta information such as "night", "day", "sun", "rain" are required. This requires labeling with a high throughput, also known as high-throughput labeling.
Die
Der Erfindung lag die Aufgabe zugrunde, wie ein Labeling mit hohem Durchsatz ermöglicht werden kann zum Trainieren eines Maschinenlernmodells.The invention was based on the task of how high-throughput labeling can be enabled for training a machine learning model.
Die Gegenstände des unabhängigen und des nebengeordneten Anspruchs lösen jeweils diese Aufgabe durch Erzeugen eines insbesondere latenten Merkmalsraums für Datenproben des Datensatzes. Aus den Daten erzeugte Codes in dem Merkmalsraum werden in einen dimensionsreduzierten Raum abgebildet und in dem dimensionsreduzierten Raum geclustert. Die Cluster werden clusterweise gelabelt. Die erfindungsgemäße Lösung stellt damit ein durchsatzstarkes Labeling bereit, das ein Cluster-Labeling innerhalb des gemeinsamen latenten Merkmalsraums eines Modells ermöglicht. Es werden umfangreiche beschriftete Daten erzeugt, die für die autonome Entwicklung und den Einsatz von maschinellen Wahrnehmungsmodellen benötigt werden. In Kombination mit einem Auswahltool wird ein hoher Durchsatz bei der Beschriftung von Klassifikationsmerkmalen ermöglicht.The subject matter of the independent and the subordinate claim each solves this problem by generating a latent feature space for data samples of the data set. Codes generated from the data in the feature space are mapped into a dimension-reduced space and clustered in the dimension-reduced space. The clusters are labeled cluster by cluster. The solution according to the invention thus provides high-throughput labeling that enables cluster labeling within the common latent feature space of a model. Extensive labeled data is generated that is required for the autonomous development and use of machine perception models. In combination with a selection tool, high throughput is enabled when labeling classification features.
Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Definitionen, den Unteransprüchen, den Zeichnungen und der Beschreibung bevorzugter Ausführungsbeispiele.Advantageous embodiments of the invention emerge from the definitions, the subclaims, the drawings and the description of preferred embodiments.
Mit dem hier offenbarten computerimplementierten Verfahren werden Labeln für einen Datensatz erzeugt. Der Datensatz umfasst Messgrößen eines Messgrößen-Aufnehmers als Daten. Computerimplementiert bedeutet, dass das Verfahren wenigstens teilweise mit einer programmierbaren Vorrichtung durchgeführt wird.The computer-implemented method disclosed here generates labels for a data set. The data set includes measured variables of a measured variable sensor as data. Computer-implemented means that the method is carried out at least partially with a programmable device.
Messgrößen können beispielsweise Pixelwerte eines Bildes, beispielsweise Helligkeitswerte, oder Schallfeldgrößen, Amplituden oder Frequenzen von elektrischen Signalen sein.Measurement quantities can be, for example, pixel values of an image, such as brightness values, or sound field quantities, amplitudes or frequencies of electrical signals.
Ein Messgrößen-Aufnehmer ist ein technisches Bauteil, beispielsweise ein Sensor oder Detektor. Die Daten sind also gemessene Daten. Der Messgrößen-Aufnehmer ist ein realer oder ein simulierter Messgrößen-Aufnehmer. Die Ausgaben des simulierten Messgrößen-Aufnehmers, das heißt die simulierten gemessenen Daten, wechselwirken bei der Durchführung des Verfahrens mit einem Menschen, beispielsweise bei dem Auswählen von Datenproben aus einer Gruppe von Daten, und symbolisieren damit eine Wechselwirkung mit der externen physischen Realität. Die Daten können also real gemessene Daten oder simulierte gemessene Daten sein.A measurement sensor is a technical component, such as a sensor or detector. The data is therefore measured data. The measurement sensor is a real or a simulated measurement sensor. The outputs of the simulated measurement sensor, i.e. the simulated measured data, interact with a person when carrying out the procedure, for example when selecting data samples from a group of data, and thus symbolize an interaction with the external physical reality. The data can therefore be real measured data or simulated measured data.
Mittels des erzeugten gelabelten Datensatzes ist ein Maschinenlernmodell für Mustererkennung trainierbar. Das Maschinenlernmodell kann beispielsweise ein künstliches neuronales Netzwerk sein. Mustererkennung umfasst Klassifizierung und Segmentierung. Beispielsweise wird das Maschinenlernmodell trainiert, in digitalen Bildern Verkehrszeichen zu klassifizieren oder Videoaufnahmen von Verkehrsszenen semantisch zu segmentieren, beispielsweise in Videoaufnahmen Fußgänger und Fahrzeuge zu segmentieren.Using the generated labeled data set, a machine learning model for pattern recognition can be trained. The machine learning model can be an artificial neural network, for example. Pattern recognition includes classification and segmentation. For example, the machine learning model is trained to classify traffic signs in digital images or to semantically segment video recordings of traffic scenes, for example to segment pedestrians and vehicles in video recordings.
Ein Schritt des Verfahrens ist das Empfangen des Datensatzes. Der Datensatz wird mittels eines Empfangsmoduls empfangen. Das Empfangsmodul kann in Form eines Softwarecodeabschnitts realisiert sein, beispielsweise in Form eines Lesebefehls, durch den, wenn er geladen oder ausgeführt wird, der Datensatz aus einem digitalen Speicher gelesen wird. Das Empfangsmodul kann auch in Form von Hardware realisiert sein, beispielweise in Form eines technischen Bauteils zum Empfangen und/oder Auslesen von Daten.One step of the method is receiving the data set. The data set is received by means of a receiving module. The receiving module can be implemented in the form of a software code section, for example in the form of a read command, which, when loaded or executed, reads the data set from a digital memory. The receiving module can also be implemented in the form of hardware, for example in the form of a technical component for receiving and/or reading data.
Ein weiterer Schritt des Verfahrens ist das Abbilden der Daten des Datensatzes auf Codes in einen Merkmalsraum mittels eines Kodierers. Nach einem Aspekt ist der Merkmalsraum ein latenter Merkmalsraum. Ein latenter Merkmalsraum ist eine Einbettung einer Menge von Elementen innerhalb einer Mannigfaltigkeit, bei der Elemente mit ähnlicher Charakteristik im latenten Merkmalsraum näher beieinander liegen. Die Charakteristik eines Datensatzes ist eine beliebige Eigenschaft des Datensatzes. Ein Beispiel für eine Charakteristik eines Datensatzes ist eine Schrittweite zwischen zwei Zeitpunkten, eine Schrittweite zwischen zwei Hüllen einer Trajektorie, eine Richtungsänderung einer Trajektorie, eine Größe einer Hülle, welche ein Objekt umfasst oder dergleichen. Nach einem weiteren Aspekt umfasst der Merkmalsraum gecroppte Objekt oder im Fall einer Klassifizierung das gesamte Bild als Eingangswert. Die Codes sind Elemente des Merkmalsraums, nach einem Aspekt des latenten Merkmalsraums, beispielsweise Vektoren. In dem Merkmalsraum, nach einem Aspekt in dem latenten Merkmalsraum, sind die Codes durch die jeweiligen Daten in Bezug auf Charakteristika der Daten bestimmt. Der Kodierer ist ausgeführt, die Charakteristika der Daten zu erkennen und die Daten entsprechend abzubilden. Der Merkmalsraum, nach einem Aspekt der latente Merkmalsraum, kann hochdimensional sein, beispielsweise 128-dimensional.A further step of the procedure is to map the data of the data set to codes in a feature space using an encoder. After In one aspect, the feature space is a latent feature space. A latent feature space is an embedding of a set of elements within a manifold in which elements with similar characteristics are closer to each other in the latent feature space. The characteristic of a data set is any property of the data set. An example of a characteristic of a data set is a step size between two points in time, a step size between two hulls of a trajectory, a change in direction of a trajectory, a size of a hull that encompasses an object, or the like. In another aspect, the feature space includes cropped objects or, in the case of classification, the entire image as input value. The codes are elements of the feature space, in one aspect of the latent feature space, for example vectors. In the feature space, in one aspect in the latent feature space, the codes are determined by the respective data in relation to characteristics of the data. The encoder is designed to recognize the characteristics of the data and to map the data accordingly. The feature space, in one aspect the latent feature space, can be high-dimensional, for example 128-dimensional.
Ein weiterer Schritt des Verfahrens ist das Visualisieren des Merkmalsraums, nach einem Aspekt des latenten Merkmalsraums, für eine menschliche Wahrnehmung von Informationen. Durch das Visualisieren des Merkmalsraums, nach einem Aspekt des latenten Merkmalsraums, werden die Codes derart angezeigt, nämlich geclustert, dass der Mensch in die Lage versetzt wird, die Gruppen schnell und effizient zu erfassen. Die Gruppen werden auch Cluster genannt. Dabei steht nicht die Vermittlung bestimmter Inhalte oder deren Vermittlung in besonderer Aufmachung im Blickpunkt, sondern die Präsentation der Gruppen in einer Weise, die auf die physischen Gegebenheiten der menschlichen Wahrnehmung und Aufnahme von Informationen Rücksicht nimmt und dabei darauf gerichtet ist, die Wahrnehmung der gezeigten Informationen durch den Menschen in bestimmter Weise überhaupt erst zweckmäßig zu gestalten, insbesondere dadurch, dass die Gruppen möglichst getrennt voneinander dargestellt werden. Eine derartige Präsentation, das heißt der Schritt des Visualisierens des Merkmalsraums, nach einem Aspekt des latenten Merkmalsraums, dient der Lösung eines technischen Problems mit technischen Mitteln. Dabei werden die Gruppen von Daten mit ähnlichen Charakteristika mittels Dimensionalitätsreduktion der Codes in einem dimensionsreduzierten Raum erzeugt, der der menschlichen Wahrnehmung zugänglich ist.A further step in the process is visualising the feature space according to an aspect of the latent feature space for human perception of information. By visualising the feature space according to an aspect of the latent feature space, the codes are displayed, namely clustered, in such a way that people are able to understand the groups quickly and efficiently. The groups are also called clusters. The focus here is not on conveying certain content or conveying it in a special way, but on presenting the groups in a way that takes into account the physical conditions of human perception and absorption of information and is aimed at making the perception of the information shown by people in a certain way in the first place, in particular by displaying the groups as separately from one another as possible. Such a presentation, i.e. the step of visualising the feature space according to an aspect of the latent feature space, serves to solve a technical problem using technical means. The groups of data with similar characteristics are generated by dimensionality reduction of the codes in a dimensionally reduced space that is accessible to human perception.
Die Dimensionalitätsreduktion erfolgt mit einem Rechenmodell, einem statistischen Verfahren oder einem trainierten Maschinenlernmodell. Das Rechenmodell, das statistische Verfahren oder das trainierte Maschinenlernmodell bestimmen dabei, welche Dimensionen des hochdimensionalen Merkmalsraums, nach einem Aspekt des latenten Merkmalsraums, miteinander zusammengeführt werden können, um den dimensionsreduzierten Raum zu erhalten.The dimensionality reduction is carried out using a computational model, a statistical method or a trained machine learning model. The computational model, the statistical method or the trained machine learning model determine which dimensions of the high-dimensional feature space can be merged according to an aspect of the latent feature space in order to obtain the dimensionally reduced space.
Ein weiterer Schritt ist das gruppenweise Erzeugen von Labels. Dabei wird von einem Menschen eine Datenprobe, auch sample genannt, aus wenigstens einer der Gruppe von Daten ausgewählt. Dieser Datenprobe wird ein Label zugewiesen. Dieses Label erhalten dann alle Datenproben dieser Gruppe automatisch. Die Handlung des Auswählens der Datenprobe durch den Menschen oder Nutzer wird auch als human in the loop bezeichnet. Nach einem Aspekt ist für das Auswählen der Datenprobe eine Benutzerschnittstelle zu dem Datensatz, auch human machine interface, vorgesehen.A further step is the group-wise generation of labels. In this process, a human selects a data sample from at least one of the groups of data. This data sample is assigned a label. All data samples in this group then automatically receive this label. The action of selecting the data sample by the human or user is also referred to as human in the loop. In one aspect, a user interface to the data set, also known as a human machine interface, is provided for selecting the data sample.
Beispielsweise werden alle Datenprobe dieser Gruppe mit einem Auswahlwerkzeug automatisch ausgewählt und mit diesem Label versehen, beispielsweise mit einem Lasso Tool oder einem ähnlichen Maskierungswerkzeug. Das Lasso Tool ist eine Software, die auf der aktiven Ebene eines Bildes arbeitet und durch Klicken und Ziehen verwendet wird, um die Kanten einer Auswahl nachzuzeichnen. Der von einem Cursorpfad umschlossene Bereich bleibt ausgewählt und für verschiedene Transformationsoperationen, zum Beispiel Einfärben, Verschieben, Skalieren, Ausschneiden, Kopieren oder Einfügen, offen, bis an einer anderen Stelle des Bildes geklickt wird. An diesem Punkt wird die mit dem Lasso markierte Auswahl mit der Ebene verschmolzen, aus der sie ausgewählt wurde.For example, all data samples in that group will be automatically selected and labeled with that label using a selection tool, such as a lasso tool or similar masking tool. The lasso tool is software that works on the active layer of an image and is used to trace the edges of a selection by clicking and dragging. The area enclosed by a cursor path remains selected and open to various transformation operations, such as coloring, moving, scaling, cutting, copying, or pasting, until clicked elsewhere in the image, at which point the lassoed selection is merged with the layer from which it was selected.
Damit sind alle Datenproben dieser Gruppe entsprechend gelabelt. Damit wird ein High-throughput labeling realisiert.This means that all data samples in this group are labeled accordingly. This enables high-throughput labeling.
Nach einem Aspekt umfasst der Datensatz Messgrößen wenigstens eines Umfelderkennungssensors eines Fahrsystems. Der Umfelderkennungssensor kann beispielsweise ein Kamerasensor, ein Radarsensor, ein Lidarsensor, ein Akustiksensor, ein Geruchssensor oder ein Beschleunigungssensor sein. Umfeld kann das Fahrzeugäußere oder das Fahrzeug-innere Umfeld sein. Der Umfelderkennungssensor kann nach einem Aspekt einen Fahrzeug-Außenraum erkennen oder wahrnehmen, also das äußere Umfeld des Fahrzeuges. Beispielsweise ist der Umfelderkennungssensor ein Radarsystem mit einer Reichweite von mehreren hundert Metern bezogen auf einen Anbringungspunkt des Radarsystems an dem Fahrzeug. Nach einem weiteren Aspekt kann der Umfelderkennungssensor einen Fahrzeug-Innenraum erkennen oder wahrnehmen, beispielsweise eine Kabine eines Shuttles. Beispielsweise ist der Umfelderkennungssensor eine Innenraumkamera. Die Messgrößen sind in diesem Fall unstrukturierte Daten, beispielsweise Pixelwerte, Punktwolken oder Audiosignale. Durch die Kodierung von Bildaufnahmen eines Kamerasensors in dem Merkmalsraum, nach einem Aspekt dem latenten Merkmalsraum, werden dann als Gruppen beispielsweise Tagaufnahmen und Nachtaufnahmen in einem dimensionsreduzierten Raum erhalten. Wird nun beispielsweise eine Tagaufnahme aus der Gruppe der Tagaufnahmen ausgewählt und händisch als Tagaufnahme gelabelt, dann erhalten alle Aufnahmen in der Gruppe der Tagaufnahmen automatisch das Label Tagaufnahme. Damit wird das Labeling effizienter relativ zum Labeln jeder einzelnen Tagaufnahme. Entsprechendes gilt für die Gruppe der Nachtaufnahmen.According to one aspect, the data set includes measured variables of at least one environment detection sensor of a driving system. The environment detection sensor can be, for example, a camera sensor, a radar sensor, a lidar sensor, an acoustic sensor, an odor sensor or an acceleration sensor. Environment can be the vehicle exterior or the vehicle interior. According to one aspect, the environment detection sensor can detect or perceive a vehicle exterior, i.e. the external environment of the vehicle. For example, the environment detection sensor is a radar system with a range of several hundred meters in relation to a point of attachment of the radar system on the vehicle. According to another aspect, the environment detection sensor can detect or perceive a vehicle interior, for example a cabin of a shuttle. For example, the environment detection sensor is an interior camera. In this case, the measured variables are unstructured data, for example pixel values, point clouds or audio signals. By coding image recordings from a camera sensor in the feature space, according to one aspect the latent feature space, groups of daytime and nighttime shots are obtained in a dimension-reduced space. If, for example, a daytime shot is selected from the group of daytime shots and manually labeled as a daytime shot, then all shots in the group of daytime shots automatically receive the label daytime shot. This makes labeling more efficient compared to labeling each individual daytime shot. The same applies to the group of nighttime shots.
Nach einem weiteren Aspekt umfasst der Datensatz Messgrößen, die in einem Feldbus eines Fahrsystems aufgenommen wurden. Über den Feldbus sind Messgrößen-Aufnehmer und Aktuatoren untereinander oder mit einem Steuergerät verbunden. Messgrößen sind beispielsweise Lenkwinkel, Schlupfwinkel. Messgrößen aus einem Feldbus haben ein Feldbus spezifisches Format und sind ein Beispiel von strukturierten Daten. Der Feldbus ist beispielsweise ein CAN-Bus.According to another aspect, the data set includes measured variables that were recorded in a field bus of a driving system. The field bus connects measured variable sensors and actuators to each other or to a control unit. Measured variables are, for example, steering angle and slip angle. Measured variables from a field bus have a field bus-specific format and are an example of structured data. The field bus is, for example, a CAN bus.
Nach einem weiteren Aspekt wird der Datensatz aus einem Cloud-Speicher empfangen, beispielsweise über eine Funkschnittstelle. In einem Cloud-Speicher können Daten mehrerer Peripherieeinheiten zentral gesammelt werden und damit ein großes Volumen an Daten bereitgestellt werden. Beispielsweise können Daten von Umfelderkennungssensoren von Flotten-Fahrzeugen in dem Cloud-Speicher gespeichert werden. Auf großen Datenmengen ist das High-throughput labeling besonders effektiv.According to another aspect, the data set is received from a cloud storage, for example via a radio interface. In a cloud storage, data from several peripheral units can be collected centrally and thus a large volume of data can be made available. For example, data from environment detection sensors of fleet vehicles can be stored in the cloud storage. High-throughput labeling is particularly effective on large amounts of data.
Nach einem weiteren Aspekt ist der Kodierer ein Maschinenlernmodell, das trainiert ist, Charakteristika von Daten zu extrahieren. Beispielsweise ist der Kodierer ein Backbone eines trainierten Autoencoders oder der Backbone eines trainierten künstlichen neuronalen Netzwerks, beispielsweise der Backbone des ImageNET. Durch das Prozessieren von Daten durch mehrere Schichten von trainierten Maschinenlernmodellen werden die Daten auf einen Merkmalsraum, nach einem Aspekt auf einen latenten Merkmalsraum, abgebildet. Dabei kann der Kodierer auf beliebigen Daten trainiert sein.According to another aspect, the encoder is a machine learning model that is trained to extract characteristics from data. For example, the encoder is a backbone of a trained autoencoder or the backbone of a trained artificial neural network, for example the backbone of the ImageNET. By processing data through several layers of trained machine learning models, the data is mapped to a feature space, according to one aspect to a latent feature space. The encoder can be trained on any data.
Nach einem weiteren Aspekt ist der Kodierer auf dem Datensatz trainiert, das heißt auf dem empfangenen Datensatz. Durch das Trainieren des Kodierers zum Erzeugen des Merkmalsraums, nach einem Aspekt des latenten Merkmalsraums, auf den Daten, die gelabelt werden sollen, wird die Trennung der Gruppen in dem dimensionsreduzierten Raum verbessert.According to another aspect, the encoder is trained on the dataset, that is, on the received dataset. By training the encoder to generate the feature space, according to an aspect of the latent feature space, on the data to be labeled, the separation of the groups in the dimensionally reduced space is improved.
Nach einem weiteren Aspekt werden die Gruppen mittels einer Anzeigevorrichtung angezeigt, beispielsweise mittels eines Monitors. Die Anzeigevorrichtung ist eine technische Komponente des Verfahrens.According to a further aspect, the groups are displayed by means of a display device, for example by means of a monitor. The display device is a technical component of the method.
Nach einem weiteren Aspekt werden die Gruppen von Daten mit ähnlichen Charakteristika in einem zweidimensionalen Raum erzeugt. In dem zweidimensionalen Raum sind die Gruppen besonders schnell und effizient wahrnehmbar von einem Menschen.According to another aspect, the groups of data with similar characteristics are generated in a two-dimensional space. In the two-dimensional space, the groups are particularly quickly and efficiently perceived by a human.
Nach einem weiteren Aspekt erfolgt die Dimensionalitätsreduktion mittels t-verteilter stochastischer Nachbarschaftseinbettung, auch t-distributed stochastic neighbor embedding genannt, abgekürzt t-SNE, oder einheitlicher Mannigfaltigkeitsannäherung und Projektion, auch Uniform Manifold Approximation and Projection genannt, abgekürzt UMAP, oder einer anderem Technik aus dem Bereich dimensionality reduction, beispielsweise nonlinear dimensionality reduction, beispielsweise Sammon's mapping, locally-linear mapping oder relational perspective map.According to a further aspect, the dimensionality reduction is carried out by means of t-distributed stochastic neighbor embedding, abbreviated t-SNE, or uniform manifold approximation and projection, abbreviated UMAP, or another technique from the field of dimensionality reduction, for example nonlinear dimensionality reduction, for example Sammon's mapping, locally-linear mapping or relational perspective map.
t-SNE ist eine nichtlineare Dimensionalitätsreduktionstechnik, die sich für die Einbettung hochdimensionaler Daten zur Visualisierung in einen niedrigdimensionalen zwei- oder dreidimensionalen Raum eignet. Insbesondere wird jedes hochdimensionale Objekt durch einen zwei- oder dreidimensionalen Punkt modelliert, und zwar so, dass ähnliche Objekte durch nahe gelegene Punkte und unähnliche Objekte durch weit entfernte Punkte mit hoher Wahrscheinlichkeit modelliert werden.t-SNE is a nonlinear dimensionality reduction technique suitable for embedding high-dimensional data into a low-dimensional two- or three-dimensional space for visualization. In particular, each high-dimensional object is modeled by a two- or three-dimensional point, in such a way that similar objects are modeled by nearby points and dissimilar objects are modeled by faraway points with high probability.
UMAP ist ein Dimensionsreduktionsverfahren, das ähnlich wie t-SNE zur Visualisierung, aber auch zur allgemeinen nichtlinearen Dimensionsreduktion eingesetzt werden kann.UMAP is a dimension reduction method that, similar to t-SNE, can be used for visualization, but also for general nonlinear dimension reduction.
Nach einem weiteren Aspekt werden für wenigstens eine der erzeugten Gruppen Untergruppen erzeugt und Labels für die Untergruppen erzeugt. Eine Datenprobe aus wenigstens einer der Untergruppe wird ausgewählt und der Datenprobe wird ein Label zugewiesen. Damit sind alle Datenproben dieser Untergruppe entsprechend gelabelt. Bezogen auf das Beispiel von Gruppen von Tagaufnahmen und Nachtaufnahmen kann beispielsweise die Gruppe der Tagaufnahmen in die Untergruppen Sonnenschein, bewölkt, Regen aufgeteilt werden. Durch Labeln jeweils einer Datenprobe aus einer dieser Untergruppen werden dann automatisch alle Tagaufnahmen mit Sonnenschein als Tagaufnahme mit Sonnenschein gelabelt und entsprechend Tagaufnahme mit Wolken und Tagaufnahme mit Regen.According to a further aspect, subgroups are created for at least one of the groups created and labels are created for the subgroups. A data sample from at least one of the subgroups is selected and a label is assigned to the data sample. This means that all data samples of this subgroup are labeled accordingly. Based on the example of groups of daytime shots and nighttime shots, for example, the group of daytime shots can be divided into the subgroups sunshine, cloudy, rain. By labeling one data sample from each of these subgroups, all daytime shots with sunshine are then automatically labeled as daytime shots. labeled with sunshine and accordingly day shot with clouds and day shot with rain.
Mit der hier offenbarten Verwendung eines erfindungsgemäß erzeugten gelabelten Datensatzes kann ein künstliches neuronales Netzwerk für Klassifizierung und/oder Segmentierung von Bildern oder Videoaufnahmen, für Klassifizierung von Audiodaten oder zur Mustererkennung in Messgrößen, die in einem Feldbus eines Fahrsystems aufgenommen wurden, trainiert werden.With the use of a labeled data set generated according to the invention disclosed here, an artificial neural network can be trained for classification and/or segmentation of images or video recordings, for classification of audio data or for pattern recognition in measured variables recorded in a field bus of a driving system.
Die Erfindung wird in den folgenden Figuren beispielhaft erläutert. Es zeigen:
-
1 ein Ausführungsbeispiel eines Codes, -
2 ein Ausführungsbeispiel eines Kodierers, -
3 ein Ausführungsbeispiel einer Projektion von Codes aus einem latenten Merkmalsraum in einen zweidimensionalen Raum und -
4 ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens.
-
1 an example of a code, -
2 an embodiment of an encoder, -
3 an embodiment of a projection of codes from a latent feature space into a two-dimensional space and -
4 an embodiment of a method according to the invention.
In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsähnliche Teile. In den jeweiligen Figuren werden übersichtshalber die für das jeweilige Verständnis relevanten Bezugsteile angegeben.In the figures, identical reference symbols refer to identical or functionally similar parts. For the sake of clarity, the relevant reference parts for the respective understanding are indicated in the respective figures.
Der in
In einem Verfahrensschritt V1 des in
BezugszeichenReference symbol
- 11
- Daten, Datenprobedata, data sample
- 1.0-1.01.0-1.0
- Gruppegroup
- 22
- Codecode
- 33
- KodiererEncoder
- 44
- dimensionsreduzierter Raumdimensionally reduced space
- 55
- AnzeigevorrichtungDisplay device
- V1-V4V1-V4
- VerfahrensschritteProcess steps
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA accepts no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 11436428 B2 [0004]US 11436428 B2 [0004]
Claims (11)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023200766.5A DE102023200766A1 (en) | 2023-01-31 | 2023-01-31 | Computer-implemented method for generating labels for a data set and use of a labeled data set generated in such a way |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023200766.5A DE102023200766A1 (en) | 2023-01-31 | 2023-01-31 | Computer-implemented method for generating labels for a data set and use of a labeled data set generated in such a way |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102023200766A1 true DE102023200766A1 (en) | 2024-08-01 |
Family
ID=91852998
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102023200766.5A Ceased DE102023200766A1 (en) | 2023-01-31 | 2023-01-31 | Computer-implemented method for generating labels for a data set and use of a labeled data set generated in such a way |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102023200766A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102024116309A1 (en) * | 2024-06-11 | 2025-12-11 | Airbus Defence and Space GmbH | Methods and systems for the similarity classification of radio signals in signal detection |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20220237277A1 (en) * | 2020-11-10 | 2022-07-28 | NetraDyne, Inc. | Visual login |
| CN114972180A (en) * | 2017-04-13 | 2022-08-30 | 英卓美特公司 | Method for predicting defects in an assembly unit |
| US11436428B2 (en) | 2017-06-06 | 2022-09-06 | Sightline Innovation Inc. | System and method for increasing data quality in a machine learning process |
-
2023
- 2023-01-31 DE DE102023200766.5A patent/DE102023200766A1/en not_active Ceased
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114972180A (en) * | 2017-04-13 | 2022-08-30 | 英卓美特公司 | Method for predicting defects in an assembly unit |
| US11436428B2 (en) | 2017-06-06 | 2022-09-06 | Sightline Innovation Inc. | System and method for increasing data quality in a machine learning process |
| US20220237277A1 (en) * | 2020-11-10 | 2022-07-28 | NetraDyne, Inc. | Visual login |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102024116309A1 (en) * | 2024-06-11 | 2025-12-11 | Airbus Defence and Space GmbH | Methods and systems for the similarity classification of radio signals in signal detection |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE112019001310B4 (en) | Systems and methods for reducing the amount of data storage in machine learning | |
| DE102017100396A1 (en) | Classifiers for high and low fidelity used on street scene images | |
| DE112010002232T5 (en) | Semantic scene segmentation using random multinominal logit (RML) | |
| DE102019209560A1 (en) | Apparatus and method for training a neural network | |
| DE102011086512A1 (en) | Method for fog detection | |
| EP2368216A1 (en) | Method and device for analyzing surrounding objects and/or surrounding scenes, such as for object and scene class segmenting | |
| DE102023100731A1 (en) | Method and system for automatic annotation of sensor data | |
| DE102018217091A1 (en) | Process, artificial neural network, device, computer program and machine-readable storage medium for the semantic segmentation of image data | |
| DE102021114287A1 (en) | Microscopy system and method for generating stylized contrast images | |
| DE102023200766A1 (en) | Computer-implemented method for generating labels for a data set and use of a labeled data set generated in such a way | |
| EP4078238A1 (en) | Method and device for making sensor data more robust against adverse disruptions | |
| DE102020003008A1 (en) | Automatic visual perception by means of an environment sensor arrangement | |
| DE102005062154B4 (en) | Generation of large realistic training samples for classifiers from a few examples | |
| DE102018114231A1 (en) | Method and system for capturing objects using at least one image of an area of interest (ROI) | |
| DE102020128952A1 (en) | Method and assistance device for two-stage image-based scene recognition and motor vehicle | |
| DE102020133626A1 (en) | Method for recognizing scenes, assistance devices and motor vehicles which are difficult to classify correctly for a neural network | |
| DE102021214464B3 (en) | Evaluation of generators to produce realistic images | |
| DE102022206025A1 (en) | Population classification using point cloud features | |
| DE102021206190A1 (en) | Procedure for recognizing objects of searched types in camera images | |
| DE102022201161A1 (en) | Object classification with a one-level meta-based object detector using class prototypes | |
| EP4296970A1 (en) | Computer-implemented method and system for creating a virtual vehicle environment | |
| DE102019217952A1 (en) | Method and device for providing a training data set for training an AI function on an unknown data domain | |
| DE102019217951A1 (en) | Method and apparatus for determining a domain distance between at least two data domains | |
| DE10136649B4 (en) | Method and device for object recognition of moving motor vehicles | |
| DE102023201113A1 (en) | Computer-implemented method for training a machine learning algorithm and/or for generating at least one training image |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R163 | Identified publications notified | ||
| R012 | Request for examination validly filed | ||
| R016 | Response to examination communication | ||
| R002 | Refusal decision in examination/registration proceedings | ||
| R003 | Refusal decision now final |