[go: up one dir, main page]

DE102023119911B4 - Method and system for the automated validation of functions of a driver assistance system - Google Patents

Method and system for the automated validation of functions of a driver assistance system Download PDF

Info

Publication number
DE102023119911B4
DE102023119911B4 DE102023119911.0A DE102023119911A DE102023119911B4 DE 102023119911 B4 DE102023119911 B4 DE 102023119911B4 DE 102023119911 A DE102023119911 A DE 102023119911A DE 102023119911 B4 DE102023119911 B4 DE 102023119911B4
Authority
DE
Germany
Prior art keywords
data
sensor
sensor device
camera
ground truth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102023119911.0A
Other languages
German (de)
Other versions
DE102023119911A1 (en
Inventor
Moritz Markofsky
Björn Pehnert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dr Ing HCF Porsche AG
Original Assignee
Dr Ing HCF Porsche AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dr Ing HCF Porsche AG filed Critical Dr Ing HCF Porsche AG
Priority to DE102023119911.0A priority Critical patent/DE102023119911B4/en
Publication of DE102023119911A1 publication Critical patent/DE102023119911A1/en
Application granted granted Critical
Publication of DE102023119911B4 publication Critical patent/DE102023119911B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/021Means for detecting failure or malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zur automatisierten Validierung von Funktionen eines Fahrerassistenzsystem (ADAS-System); umfassend:
- Aufnehmen (S10) von ersten Sensordaten (270) durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer ersten Sensoreinrichtung (250) eines Erprobungsfahrzeugs (200) beim Befahren einer Fahrstrecke zum Testen zumindest einer Funktion eines ADAS-Systems (230), wobei die Kamera der ersten Sensoreinrichtung (250) eine Digitalkamera mit Full-HD-Auflösung ist;
- Bearbeiten (S20) der ersten Sensordaten (270) von dem ADAS-System (230) und Erzeugen von Testdaten (280) mittels der bearbeiteten ersten Sensordaten (270);
- Übertragen (S30) der Testdaten (280) an ein Auswertemodul (500) und/oder an eine erste Datenbank (290);
- Aufnehmen (S40) von zweiten Sensordaten (270) durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer zweiten Sensoreinrichtung (350) eines Ground-Truth-Moduls (300) beim Befahren einer Fahrstrecke, wobei die Kamera der zweiten Sensoreinrichtung (350) eine Digitalkamera mit 4K-Auflösung ist, wobei die Sensoren der zweiten Sensoreinrichtung (350) über eine höhere Leistungsfähigkeit hinsichtlich Auflösung, Bildfrequenz, Reichweite und Rechenressourcen als die Sensoren der ersten Sensoreinrichtung (250) verfügen;
- Bearbeiten (S50) der zweiten Sensordaten (370) von einer Softwareapplikation (330) und Erzeugen von Ground-Truth-Daten (380) mittels der bearbeiteten zweiten Sensordaten (370);
- Übertragen (S60) der Ground-Truth-Daten (380) an das Auswertemodul (500) und/oder an eine zweite Datenbank (390);
- Vergleichen (S70) der Testdaten (280) mit den Ground-Truth-Daten (380) durch eine Softwareapplikation (550), die Vergleichsalgorithmen umfasst, wobei die Vergleichsalgorithmen gefaltete neuronale Netze (Convolutional Neural Network, CNN) und/oder histogrammbasierte Algorithmen verwenden;
- Erzeugen (S80) von Auswerteergebnissen (580) zur Validierung der zumindest einen Funktion des ADAS-Systems (230).

Figure DE102023119911B4_0000
Method for the automated validation of functions of a driver assistance system (ADAS system); comprising:
- recording (S10) first sensor data (270) by at least one sensor such as a camera, a lidar system and/or a radar system of a first sensor device (250) of a test vehicle (200) when driving along a route for testing at least one function of an ADAS system (230), wherein the camera of the first sensor device (250) is a digital camera with full HD resolution;
- processing (S20) the first sensor data (270) from the ADAS system (230) and generating test data (280) using the processed first sensor data (270);
- transmitting (S30) the test data (280) to an evaluation module (500) and/or to a first database (290);
- recording (S40) second sensor data (270) by at least one sensor such as a camera, a lidar system and/or a radar system of a second sensor device (350) of a ground truth module (300) when driving along a route, wherein the camera of the second sensor device (350) is a digital camera with 4K resolution, wherein the sensors of the second sensor device (350) have a higher performance in terms of resolution, frame rate, range and computing resources than the sensors of the first sensor device (250);
- processing (S50) the second sensor data (370) by a software application (330) and generating ground truth data (380) using the processed second sensor data (370);
- transmitting (S60) the ground truth data (380) to the evaluation module (500) and/or to a second database (390);
- comparing (S70) the test data (280) with the ground truth data (380) by a software application (550) comprising comparison algorithms, wherein the comparison algorithms comprise convolved neural networks (Convolutional Neural Network, CNN) and/or histogram-based algorithms;
- generating (S80) evaluation results (580) for validating at least one function of the ADAS system (230).
Figure DE102023119911B4_0000

Description

Die Erfindung betrifft ein Verfahren, ein System und ein Computerprogrammprodukt zur automatisierten Validierung von Funktionen eines Fahrerassistenzsystems.The invention relates to a method, a system and a computer program product for the automated validation of functions of a driver assistance system.

Moderne Fahrerassistenzsysteme (Advanced Driver Assistance Systems, ADAS) umfassen eine Reihe von Technologien zur Verbesserung der Fahrzeugsicherheit und des Fahrkomforts. ADAS-Systeme nutzen verschiedene Sensoren, Kameras und Algorithmen, um die Fahrzeugumgebung zu analysieren und den Fahrer in Echtzeit zu unterstützen. Zu diesem Zweck umfasst das ADAS-System eine Vielzahl von Funktionen, die ständig weiterentwickelt werden, um die Fahrzeugsicherheit und den Fahrkomfort weiter zu verbessern.Modern Advanced Driver Assistance Systems (ADAS) include a range of technologies to improve vehicle safety and driving comfort. ADAS systems use various sensors, cameras and algorithms to analyze the vehicle environment and assist the driver in real time. To this end, the ADAS system includes a variety of functions that are constantly being developed to further improve vehicle safety and driving comfort.

Eine typische Funktion ist die adaptive Geschwindigkeitsregelung (Adaptive Cruise Control, ACC), die Radar- oder Lasersensoren verwendet, um einen sicheren Abstand zum vorausfahrenden Fahrzeug zu halten. Sie passt die Geschwindigkeit des Fahrzeugs automatisch an den Verkehrsfluss an, so dass der Fahrer seine Geschwindigkeit nicht ständig anpassen muss. Eine weitere Funktion ist der Spurhalteassistent (Lane Departure Warning, LDW), der mit Hilfe von Kameras oder Sensoren ein unbeabsichtigtes Verlassen der Fahrspur erkennt. Der Fahrer wird durch optische, akustische oder haptische Signale gewarnt und aufgefordert, die Spur zu korrigieren. Eine weitere Funktion ist die automatische Notbremsung (Automatic Emergency Braking, AEB), bei der die Bremsen automatisch betätigt werden, um eine Kollision mit einem Fahrzeug oder einem Fußgänger zu vermeiden.A typical feature is adaptive cruise control (ACC), which uses radar or laser sensors to maintain a safe distance from the vehicle in front. It automatically adjusts the vehicle's speed to the flow of traffic so that the driver does not have to constantly adjust his speed. Another feature is lane departure warning (LDW), which uses cameras or sensors to detect unintentional lane departure. The driver is warned by visual, acoustic or haptic signals and prompted to correct the lane. Another feature is automatic emergency braking (AEB), which automatically applies the brakes to avoid a collision with a vehicle or pedestrian.

Eine weitere wichtige Funktion ist die Verkehrszeichenerkennung (Traffic Sign Recognition, TSR), bei der Kameras und Bilderkennungsalgorithmen genutzt werden, um Verkehrszeichen wie Geschwindigkeitsbegrenzungen, Stoppschilder und Hinweisschilder zu erkennen und zu interpretieren. Die entsprechenden Informationen können im Fahrzeug-Cockpit oder auf dem Head-up-Display anzeigt werden und den Fahrer an wichtige Verkehrsregeln erinnern. Zudem können durch die Verkehrszeichenerkennung andere Funktionen eines ADAS-Systems aktiviert werden. Nähert sich beispielsweise ein mit ADAS ausgestattetes Fahrzeug einem Stoppschild, erkennt der Verkehrszeichenalgorithmus das Schild und übermittelt die entsprechenden Informationen an das Steuersystem des Fahrzeugs. Das Steuersystem kann diese Informationen dann verwenden, um automatisch die Bremsen zu betätigen und das Fahrzeug zum Stillstand zu bringen. In ähnlicher Weise kann das ADAS-System beim Erkennen eines Geschwindigkeitsbegrenzungsschildes die Geschwindigkeit des Fahrzeugs anpassen, um sicherzustellen, dass die vorgeschriebene Höchstgeschwindigkeit eingehalten wird.Another important function is traffic sign recognition (TSR), which uses cameras and image recognition algorithms to detect and interpret traffic signs such as speed limits, stop signs and information signs. The relevant information can be displayed in the vehicle cockpit or on the head-up display, reminding the driver of important traffic rules. Traffic sign recognition can also activate other functions of an ADAS system. For example, when an ADAS-equipped vehicle approaches a stop sign, the traffic sign algorithm detects the sign and transmits the relevant information to the vehicle's control system. The control system can then use this information to automatically apply the brakes and bring the vehicle to a stop. Similarly, when a speed limit sign is detected, the ADAS system can adjust the vehicle's speed to ensure that the posted speed limit is observed.

Der Verkehrszeichenalgorithmus ist ein Algorithmus der maschinellen Bildverarbeitung zur Erkennung und Klassifizierung von Verkehrszeichen in Bildern oder Videoaufnahmen. Der Algorithmus verwendet eine Kombination aus Bildverarbeitungstechniken und Algorithmen des maschinellen Lernens, um Form, Farbe und Inhalt von Verkehrszeichen zu erkennen. Der Algorithmus besteht im Wesentlichen aus folgenden Verfahrensschritten:

  1. a) Vorverarbeitung: Das Bild- oder Videobild wird zunächst vorverarbeitet, um die Bildqualität zu verbessern, Rauschen zu reduzieren sowie Kontrast und Helligkeit des Bildes zu erhöhen.
  2. b) Merkmalsextraktion: Der Algorithmus extrahiert relevante Merkmale aus dem Bild, z.B. Farbe, Form und Textur, die zur Unterscheidung verschiedener Verkehrszeichentypen verwendet werden können.
  3. c) Klassifikation: Die extrahierten Merkmale werden einem maschinellen Lernalgorithmus zugeführt, z.B. einem neuronalen Netz, das mit einem Datensatz von Verkehrszeichenbildern trainiert wird, um die Verkehrszeichen im Eingabebild zu erkennen und zu klassifizieren.
  4. d) Nachbearbeitung: Nach der Erkennung und Klassifizierung der Verkehrszeichen können Nachbearbeitungstechniken eingesetzt werden, um falsch positive Ergebnisse zu entfernen, die Verkehrszeichen über die Zeit zu verfolgen und die Erkennungsgenauigkeit zu verbessern.
The traffic sign algorithm is a machine vision algorithm for detecting and classifying traffic signs in images or video recordings. The algorithm uses a combination of image processing techniques and machine learning algorithms to detect the shape, color and content of traffic signs. The algorithm essentially consists of the following procedural steps:
  1. a) Preprocessing: The image or video image is first preprocessed to improve the image quality, reduce noise and increase the contrast and brightness of the image.
  2. b) Feature extraction: The algorithm extracts relevant features from the image, e.g. color, shape and texture, which can be used to distinguish different traffic sign types.
  3. c) Classification: The extracted features are fed to a machine learning algorithm, e.g. a neural network, which is trained with a dataset of traffic sign images to detect and classify the traffic signs in the input image.
  4. d) Post-processing: After traffic signs are detected and classified, post-processing techniques can be used to remove false positives, track traffic signs over time, and improve detection accuracy.

Der Verkehrszeichenalgorithmus ist daher ein wesentlicher Bestandteil eines Fahrerassistenzsystems, da er in der Lage ist, eine Vielzahl von Verkehrszeichen zu erkennen und eine Reaktion des Fahrerassistenzsystems auszulösen, insbesondere bei Warn-, Regel- und Informationszeichen. Der Algorithmus muss genau und robust sein und unter verschiedenen Licht- und Wetterbedingungen funktionieren, um die korrekte Funktion des Fahrerassistenzsystems zu gewährleisten. Ein gut funktionierender Verkehrszeichenalgorithmus ist daher von entscheidender Bedeutung für die Verbesserung der Sicherheit und Effizienz von Fahrzeugen im Straßenverkehr.The traffic sign algorithm is therefore an essential component of a driver assistance system, as it is able to recognize a wide range of traffic signs and trigger a response from the driver assistance system, especially warning, regulatory and information signs. The algorithm must be accurate and robust and work under different lighting and weather conditions to ensure the correct functioning of the driver assistance system. A well-functioning traffic sign algorithm is therefore crucial for improving the safety and efficiency of vehicles on the road.

Um die Leistung, Funktionalität und Zuverlässigkeit eines ADAS-Systems und/oder einzelner Funktionen eines ADAS-Systems zu überprüfen, wird eine Validierung durchgeführt. Die Validierung eines ADAS-Systems umfasst ein komplexes Verfahren zur Prüfung und Verifizierung seiner Leistung, Funktionalität und Sicherheit. Ziel ist es, sicherzustellen, dass das ADAS-System wie vorgesehen funktioniert, die gesetzlichen Anforderungen erfüllt und den Fahrer zuverlässig unterstützt. Dabei wird jede einzelne Systemkomponente, z.B. die adaptive Geschwindigkeitsregelung, der Spurhalteassistent oder die Kollisionswarnung, sowohl einzeln als auch in Kombination getestet. Bei den Funktionstests wird geprüft, ob das ADAS-System korrekt arbeitet, dem Fahrer präzise Rückmeldungen gibt und auf verschiedene Szenarien angemessen reagiert. Ein wichtiger Aspekt ist dabei die Kalibrierung der Sensoren, um ihre Genauigkeit und Ausrichtung zu überprüfen und sicherzustellen, dass sie konsistente und zuverlässige Daten liefern.Validation is carried out to check the performance, functionality and reliability of an ADAS system and/or individual functions of an ADAS system. Validation of an ADAS system involves a complex procedure for testing and verifying its performance, functionality and safety. The aim is to ensure that the ADAS system functions as intended, meets the legal requirements and reliably supports the driver. Each individual system component, e.g. adaptive cruise control, lane departure warning or collision warning, is tested both individually and in combination. The functional tests check whether the ADAS system is working correctly, giving the driver precise feedback and reacting appropriately to different scenarios. An important aspect is the calibration of the sensors to check their accuracy and alignment and to ensure that they provide consistent and reliable data.

Um die verschiedenen Funktionen eines Fahrerassistenzsystems, wie z.B. den Verkehrszeichenalgorithmus, zu validieren, werden regelmäßig Testfahrten durchgeführt. Dabei werden verschiedene Testfälle verwendet, um sicherzustellen, dass das ADAS-System unter verschiedenen Bedingungen korrekt funktioniert. Diese Testfälle können simuliert oder in realen Umgebungen durchgeführt werden.To validate the various functions of an ADAS system, such as the traffic sign algorithm, test drives are performed regularly. Different test cases are used to ensure that the ADAS system works correctly under different conditions. These test cases can be simulated or performed in real environments.

Im Beispiel des Verkehrszeichenalgorithmus bewertet ein Testfahrer diesen aus Kundensicht. Auf Basis der Bewertung des Testfahrers erfolgt eine statistische Auswertung, die Aussagen über die Leistungsfähigkeit und die Art der Fehler ermöglicht. So wird z.B. überprüft, ob ein angezeigtes Verkehrszeichen, das z.B. über die Fahrzeugkamera erkannt oder aus Kartendaten abgerufen wurde, tatsächlich gültig ist. Diese Datenauswertung erfolgt manuell und ist daher zeit- und arbeitsintensiv. Dies liegt sowohl an der Datenmenge als auch an der Datenkomplexität, da ADAS-Systeme während der Testfahrt eine große Menge an Daten erzeugen, darunter Sensormesswerte, Kamerabilder, Fahrzeugparameter und Fahrereingaben, und zudem komplexe und mehrdimensionale Daten aufzeichnen, darunter Messwerte verschiedener bildgebender Sensoren wie Radar, Lidar und Kameras, die sich in ihrer Auflösung und Aufnahmequalität unterscheiden. Darüber hinaus können bei der manuellen Auswertung menschliche Fehler auftreten, indem kritische Details übersehen oder Informationen falsch interpretiert werden, was zu Ungenauigkeiten und Inkonsistenzen im Auswertungsprozess führt.In the example of the traffic sign algorithm, a test driver evaluates it from the customer's perspective. Based on the test driver's evaluation, a statistical evaluation is carried out that allows statements to be made about the performance and the type of errors. For example, it is checked whether a displayed traffic sign, which was recognized via the vehicle camera or retrieved from map data, is actually valid. This data evaluation is done manually and is therefore time- and labor-intensive. This is due to both the amount of data and the data complexity, as ADAS systems generate a large amount of data during the test drive, including sensor readings, camera images, vehicle parameters and driver inputs, and also record complex and multi-dimensional data, including readings from various imaging sensors such as radar, lidar and cameras, which differ in their resolution and recording quality. In addition, human errors can occur during manual evaluation by overlooking critical details or misinterpreting information, leading to inaccuracies and inconsistencies in the evaluation process.

Die US 2022/90995 A1 offenbart ein System zur Validierung von Straßenobjektdaten unter Verwendung von Ground-Truth-Daten, wobei die Ground-Truth-Daten aus Informationen von Sensorsystemen verschiedener Fahrzeuge ermittelt werden.The US 2022/90995 A1 discloses a system for validating road object data using ground truth data, wherein the ground truth data is determined from information from sensor systems of different vehicles.

Die US 2022/048533 A1 offenbart ein Verfahren und System zur Validierung einer automatischen Steuerungssoftware für ein autonom fahrendes Fahrzeug, wobei die Validierung unter Verwendung von Ground-Truth-Daten erfolgt, die in Echtzeit von anderen am Verkehr teilnehmenden Fahrzeugen bereitgestellt werden.The US 2022/048533 A1 discloses a method and system for validating automatic control software for an autonomously driving vehicle, wherein the validation is performed using ground truth data provided in real time by other vehicles participating in traffic.

Die DE 10 2020 200 650 A1 offenbart ein Verfahren zum Betreiben einer automatisierten Spurführung eines Kraftfahrzeugs zur Führung des Kraftfahrzeugs in einer Fahrspur, wobei die automatisierte Spurführung unter Berücksichtigung von Bilddaten erfolgt, welche mittels eines ersten Sensorsystems ermittelt werden. Eine Evaluierung einer Ausführung der automatisierten Spurführung erfolgt mittels eines zweiten Sensorsystems, wobei anhand der ermittelten Sensordaten des zweiten Sensorsystems bewertet wird, ob die Spurführung korrekt ausgeführt wird.The DE 10 2020 200 650 A1 discloses a method for operating an automated lane guidance system of a motor vehicle for guiding the motor vehicle in a lane, wherein the automated lane guidance takes into account image data which is determined by means of a first sensor system. An evaluation of an execution of the automated lane guidance takes place by means of a second sensor system, wherein it is assessed on the basis of the determined sensor data of the second sensor system whether the lane guidance is carried out correctly.

Die DE 10 2021 124 913 A1 offenbart ein Verfahren für die Beurteilung der Leistung von Untersystemen eines Systems, wobei das System ein Softwarestapel eines autonomen Fahrzeugs (AV) ist. Das Verfahren umfasst das Stören eines ersten Attributs eines ersten Untersystems und das Bestimmen einer Änderung eines zweiten Attributs eines zweiten Untersystems des Systems, wobei das zweite Attribut auf die Störung des ersten Attributs anspricht und wenigstens eine Ausgabe des ersten Untersystems an das zweite Untersystem übertragen wird, und das Bestimmen eines Wertes für eine Leistungsmetrik des Systems auf der Grundlage einer Korrelation zwischen dem ersten und dem zweiten Attribut, wobei die Leistungsmetrik eine Zielfunktionsausgabe ist, die eine Qualität des Fahrverhaltens des AVs misst.The DE 10 2021 124 913 A1 discloses a method for evaluating the performance of subsystems of a system, wherein the system is an autonomous vehicle (AV) software stack. The method includes perturbing a first attribute of a first subsystem and determining a change in a second attribute of a second subsystem of the system, the second attribute responsive to the perturbation of the first attribute and at least an output of the first subsystem being transmitted to the second subsystem, and determining a value for a performance metric of the system based on a correlation between the first and second attributes, the performance metric being an objective function output that measures a quality of drivability of the AV.

Die DE 10 2019 115 809 A1 offenbart ein Verfahren zum Steuern eines autonomen Fahrzeugs. Ein Präprozessor verarbeitet von Sensoren in einem aktuellen Zeitschritt aufgenommene Bilddaten, um vorverarbeitete Bilddaten zu erzeugen, die mit zusätzlichen Eingaben verkettet werden, um eine dynamische Szenenausgabe zu erzeugen. Ein neuronales Faltungsnetzwerk (CNN) verarbeitet die dynamische Szenenausgabe, um einen räumlichen Kontextmerkmalsvektor zu erzeugen, der für die Berechnung von Steuerungsbefehlen (z. B. Lenkwinkel, Beschleunigungsrate und/oder Bremsratensteuerbefehl) verwendet wird.The DE 10 2019 115 809 A1 discloses a method for controlling an autonomous vehicle. A preprocessor processes image data acquired by sensors at a current time step to generate preprocessed image data that is concatenated with additional inputs to produce a dynamic scene output. A convolutional neural network (CNN) processes the dynamic scene output to produce a spatial context feature vector that is used for computing control commands (e.g., steering angle, acceleration rate, and/or braking rate control command).

Der Erfindung liegt die Aufgabe zugrunde, Möglichkeiten aufzuzeigen, wie die Validierung eines ADAS-Systems automatisiert durchgeführt werden kann, um den Zeitaufwand für die manuelle Bewertung deutlich zu reduzieren und die Zuverlässigkeit und Genauigkeit der Validierung und damit des ADAS-Systems zu erhöhen.The invention is based on the object of showing possibilities how the validation of an ADAS system can be carried out automatically in order to significantly reduce the time required for manual evaluation and to increase the reliability and accuracy of the validation and thus of the ADAS system.

Diese Aufgabe wird hinsichtlich eines Verfahrens durch die Merkmale des Patentanspruchs 1, hinsichtlich eines Systems durch die Merkmale des Patentanspruchs 4, hinsichtlich eines ADAS-Systems durch die Merkmale des Patentanspruchs 5, und hinsichtlich eines Computerprogrammprodukts durch die Merkmale des Patentanspruchs 6 erfindungsgemäß gelöst. Die weiteren Ansprüche betreffen bevorzugte Ausgestaltungen der Erfindung.This object is achieved with respect to a method by the features of patent claim 1, with respect to a system by the features of patent claim 4, with respect to an ADAS system by the features of patent claim 5, and with regard to a computer program product by the features of patent claim 6. The further claims relate to preferred embodiments of the invention.

Die vorliegende Erfindung ermöglicht eine genaue und zuverlässige Validierung eines modernen Fahrerassistenzsystems (ADAS) durch den automatisierten Vergleich von Ground-Truth-Daten mit Testdaten eines ADAS-Systems mittels geeigneter Vergleichsalgorithmen. Eine genaue Validierung stellt sicher, dass das ADAS-System wie vorgesehen funktioniert, wodurch die allgemeine Verkehrssicherheit erhöht wird. Darüber hinaus kann die Leistungsfähigkeit des ADAS-Systems bewertet werden. Durch den Vergleich der Testdaten mit den Ground-Truth-Daten können Genauigkeit, Zuverlässigkeit und andere Leistungsindikatoren gemessen werden. Diese Bewertung hilft bei der Erkennung von Verbesserungsmöglichkeiten und der Feinabstimmung des ADAS-Systems für eine optimale Leistung.The present invention enables accurate and reliable validation of a modern driver assistance system (ADAS) by automatically comparing ground truth data with test data of an ADAS system using suitable comparison algorithms. Accurate validation ensures that the ADAS system functions as intended, thereby increasing overall road safety. In addition, the performance of the ADAS system can be evaluated. By comparing the test data with the ground truth data, accuracy, reliability and other performance indicators can be measured. This evaluation helps to identify opportunities for improvement and fine-tune the ADAS system for optimal performance.

Gemäß einem ersten Aspekt stellt die Erfindung ein Verfahren zur automatisierten Validierung von Funktionen eines Fahrerassistenzsystem (ADAS-System) bereit. Das Verfahren umfasst die Verfahrensschritte:

  • - Aufnehmen von ersten Sensordaten durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer ersten Sensoreinrichtung eines Erprobungsfahrzeugs beim Befahren einer Fahrstrecke zum Testen zumindest einer Funktion eines ADAS-Systems, wobei die Kamera der ersten Sensoreinrichtung eine Digitalkamera mit Full-HD-Auflösung ist;
  • - Bearbeiten der ersten Sensordaten von dem ADAS-System und Erzeugen von Testdaten mittels der bearbeiteten ersten Sensordaten;
  • - Übertragen der Testdaten an ein Auswertemodul und/oder an eine erste Datenbank;
  • - Aufnehmen von zweiten Sensordaten durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer zweiten Sensoreinrichtung eines Ground-Truth-Moduls beim Befahren einer Fahrstrecke, wobei die Kamera der zweiten Sensoreinrichtung eine Digitalkamera mit 4K-Auflösung ist, wobei die Sensoren der zweiten Sensoreinrichtung über eine höhere Leistungsfähigkeit hinsichtlich Auflösung, Bildfrequenz, Reichweite, Rechenressourcen als die Sensoren der ersten Sensoreinrichtung verfügen;
  • - Bearbeiten der zweiten Sensordaten von einer Softwareapplikation und Erzeugen von Ground-Truth-Daten mittels der bearbeiteten zweiten Sensordaten;
  • - Übertragen der Ground-Truth-Daten an das Auswertemodul und/oder an eine zweite Datenbank;
  • - Vergleichen der Testdaten mit den Ground-Truth-Daten durch eine Softwareapplikation, wobei die Softwareapplikation Vergleichsalgorithmen umfasst, wobei die Vergleichsalgorithmen gefaltete neuronale Netze (Convolutional Neural Network, CNN) und/oder histogrammbasierte Algorithmen verwenden;
  • - Erzeugen von Auswerteergebnissen zur Validierung der zumindest einen Funktion des ADAS-Systems.
According to a first aspect, the invention provides a method for the automated validation of functions of a driver assistance system (ADAS system). The method comprises the following method steps:
  • - Recording first sensor data by at least one sensor such as a camera, a lidar system and/or a radar system of a first sensor device of a test vehicle when driving along a route for testing at least one function of an ADAS system, wherein the camera of the first sensor device is a digital camera with full HD resolution;
  • - Processing the first sensor data from the ADAS system and generating test data using the processed first sensor data;
  • - Transferring the test data to an evaluation module and/or to a first database;
  • - Recording second sensor data by at least one sensor such as a camera, a lidar system and/or a radar system of a second sensor device of a ground truth module when driving along a route, wherein the camera of the second sensor device is a digital camera with 4K resolution, wherein the sensors of the second sensor device have a higher performance in terms of resolution, frame rate, range, computing resources than the sensors of the first sensor device;
  • - processing the second sensor data by a software application and generating ground truth data using the processed second sensor data;
  • - Transferring the ground truth data to the evaluation module and/or to a second database;
  • - comparing the test data with the ground truth data by a software application, wherein the software application comprises comparison algorithms, wherein the comparison algorithms use convolutional neural networks (CNN) and/or histogram-based algorithms;
  • - Generating evaluation results to validate at least one function of the ADAS system.

In einer Weiterbildung ist vorgesehen, dass eine Funktion des ADAS-Systems ein Verkehrszeichenalgorithmus ist.In a further development, one function of the ADAS system is a traffic sign algorithm.

Vorteilhafterweise ist/sind die erste Datenbank und/oder die zweite Datenbank und/oder das Auswertemodul in einer Cloud-Computing-Infrastruktur integriert.Advantageously, the first database and/or the second database and/or the evaluation module is/are integrated in a cloud computing infrastructure.

Gemäß einem zweiten Aspekt stellt die Erfindung ein System zur automatisierten Validierung von Funktionen eines Fahrerassistenzsystem (ADAS-System bereit. According to a second aspect, the invention provides a system for the automated validation of functions of a driver assistance system (ADAS system).

Das System umfasst ein Erprobungsfahrzeug mit einem ADAS-System und einer ersten Sensoreinrichtung mit mindestens einem Sensor wie einer Kamera, einem Lidarsystem und/oder einem Radarsystem, wobei die Kamera der ersten Sensoreinrichtung eine Digitalkamera mit Full-HD-Auflösung ist, ein Ground-Truth-Modul mit einer Softwareapplikation und einer zweiten Sensoreinrichtung und ein Auswertemodul mit einer Softwareapplikation. Die erste Sensoreinrichtung ist ausgebildet, beim Befahren einer Fahrstrecke durch das Erprobungsfahrzeug zum Testen zumindest einer Funktion eines ADAS-Systems erste Sensordaten aufzunehmen. Das ADAS-System ist ausgebildet, die ersten Sensordaten zu bearbeiten zur Erzeugung von Testdaten und die Testdaten an das Auswertemodul zu übertragen. Die zweite Sensoreinrichtung ist ausgebildet, zweite Sensordaten durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem beim Befahren einer Fahrstrecke aufzunehmen, wobei die Kamera der zweiten Sensoreinrichtung eine Digitalkamera mit 4K-Auflösung ist, und wobei die Sensoren der zweiten Sensoreinrichtung über eine höhere Leistungsfähigkeit hinsichtlich Auflösung, Bildfrequenz, Reichweite, Rechenressourcen als die Sensoren der ersten Sensoreinrichtung verfügen. Die Softwareapplikation ist ausgebildet, die zweiten Sensordaten zu bearbeiten zur Erzeugung von Ground-Truth-Daten und die Ground-Truth-Daten an das Auswertemodul zu übertragen. Die Softwareapplikation umfasst Vergleichsalgorithmen und ist ausgebildet, die Testdaten mit den Ground-Truth-Daten zu vergleichen und Auswerteergebnisse zur Validierung der zumindest einen Funktion des ADAS-Systems zu erzeugen, und wobei die Vergleichsalgorithmen gefaltete neuronale Netze (Convolutional Neural Network, CNN) und/oder histogrammbasierte Algorithmen verwenden.The system comprises a test vehicle with an ADAS system and a first sensor device with at least one sensor such as a camera, a lidar system and/or a radar system, the camera of the first sensor device being a digital camera with full HD resolution, a ground truth module with a software application and a second sensor device and an evaluation module with a software application. The first sensor device is designed to record first sensor data when the test vehicle travels a route to test at least one function of an ADAS system. The ADAS system is designed to process the first sensor data to generate test data and to transmit the test data to the evaluation module. The second sensor device is designed to record second sensor data by at least one sensor such as a camera, a lidar system and/or a radar system when traveling a route, the camera of the second sensor device being a digital camera with 4K resolution, and the sensors of the second sensor device having a higher performance in terms of resolution, frame rate, range and computing resources than the sensors of the first sensor device. The software application is designed to process the second sensor data to generate ground truth data and to transmit the ground truth data to the evaluation module. The software application includes comparison algorithms and is designed to compare the test data with the ground truth data and to generate evaluation results for validating the at least one function of the ADAS system, and wherein the comparison algorithms use convolutional neural networks (CNN) and/or histogram-based algorithms.

Gemäß einem dritten Aspekt stellt die Erfindung ein ADAS-System für ein Kraftfahrzeug bereit, dass zur Erkennung von Verkehrszeichen mit einem Hauptverkehrszeichen und einem Zusatzzeichen das Verfahren gemäß dem ersten Aspekt verwendet.According to a third aspect, the invention provides an ADAS system for a motor vehicle which uses the method according to the first aspect for recognizing traffic signs having a main traffic sign and an additional sign.

Gemäß einem vierten Aspekt stellt die Erfindung ein Computerprogrammprodukt bereit, das einen ausführbaren Programmcode umfasst, der derart konfiguriert ist, dass er bei seiner Ausführung das Verfahren gemäß dem ersten Aspekt ausführt.According to a fourth aspect, the invention provides a computer program product comprising an executable program code configured to carry out the method according to the first aspect when executed.

Nachfolgend wird die Erfindung anhand von in der Zeichnung dargestellten Ausführungsbeispielen näher erläutert.The invention is explained in more detail below with reference to embodiments shown in the drawing.

Dabei zeigt:

  • 1 ein Blockdiagramm zur Erläuterung eines Ausführungsbeispiels eines erfindungsgemäßen Systems;
  • 2 ein Flussdiagramm zur Erläuterung der einzelnen Verfahrensschritte eines erfindungsgemäßen Verfahrens;
  • 3 ein Blockdiagramm eines Computerprogrammprodukt gemäß einer Ausführungsform des dritten Aspekts der Erfindung.
It shows:
  • 1 a block diagram for explaining an embodiment of a system according to the invention;
  • 2 a flow chart explaining the individual method steps of a method according to the invention;
  • 3 a block diagram of a computer program product according to an embodiment of the third aspect of the invention.

Weitere Merkmale, Aspekte und Vorteile der Erfindung bzw. ihrer Ausführungsbeispiele werden in der nachfolgenden Beschreibung in Verbindung mit den Patentansprüchen erläutert.Further features, aspects and advantages of the invention or its embodiments are explained in the following description in conjunction with the patent claims.

1 zeigt ein erfindungsgemäßes System 100 zur automatisierten Validierung eines Fahrerassistenzsystems (ADAS-System). Das erfindungsgemäße System 100 umfasst ein Erprobungszeug 200, eine erste Datenbank 290, ein Ground-Truth-Modul 300, eine zweite Datenbank 390, ein Auswertemodul 500 und ein Ausgabemodul 700. Das Erprobungsfahrzeug 100 umfasst ein ADAS-System 230 mit mindestens einer Fahrfunktion wie einem Verkehrszeichenalgorithmus und eine erste Sensoreinrichtung 250. Das Ground-Truth-Modul 300 umfasst eine hochauflösende zweite Sensoreinrichtung 350 zur Erstellung von Ground-Truth-Daten 380. 1 shows a system 100 according to the invention for the automated validation of a driver assistance system (ADAS system). The system 100 according to the invention comprises a test vehicle 200, a first database 290, a ground truth module 300, a second database 390, an evaluation module 500 and an output module 700. The test vehicle 100 comprises an ADAS system 230 with at least one driving function such as a traffic sign algorithm and a first sensor device 250. The ground truth module 300 comprises a high-resolution second sensor device 350 for creating ground truth data 380.

Im Zusammenhang mit der Erfindung bezieht sich der Begriff „Ground Truth“ auf die objektiv bekannten und korrekten Werte oder Bilder, die mit einem bestimmten Datensatz verbunden sind. Die Ground-Truth-Daten 380 stellen genaue und zuverlässige Informationen dar, mit denen die Ergebnisse des ADAS-Systems 230 beim Fahren des Erprobungsfahrzeugs 100 auf einer Teststrecke verglichen und bewertet werden.In the context of the invention, the term "ground truth" refers to the objectively known and correct values or images associated with a specific data set. The ground truth data 380 represents accurate and reliable information with which the results of the ADAS system 230 are compared and evaluated when the test vehicle 100 is driven on a test track.

Die Ground-Truth-Daten 380 dienen als Referenz oder Benchmark, um die Leistung und Genauigkeit eines zu testenden ADAS-Systems (System under Test, SUT) zu bewerten. Für einen Verkehrszeichenalgorithmus, der verschiedene Bildklassifizierungsaufgaben erfüllen muss, liefern die Ground-Truth-Daten 380 die richtige Klasse oder Kategorie für jedes Bild in einem Datensatz und damit auch die Vorhersage des richtigen Verkehrszeichens. Die Erkennung von Verkehrszeichen durch das ADAS-System 230 während der Fahrt auf einer Teststrecke kann mit den Ground-Truth-Daten 380 verglichen werden, um die Genauigkeit und Präzision der Verkehrszeichenerkennung oder andere Leistungsindikatoren des Verkehrszeichenalgorithmus zu messen.The ground truth data 380 serves as a reference or benchmark to evaluate the performance and accuracy of an ADAS system under test (SUT). For a traffic sign algorithm that must perform various image classification tasks, the ground truth data 380 provides the correct class or category for each image in a dataset and thus also the prediction of the correct traffic sign. The detection of traffic signs by the ADAS system 230 while driving on a test track can be compared to the ground truth data 380 to measure the accuracy and precision of the traffic sign detection or other performance indicators of the traffic sign algorithm.

Im Rahmen der vorliegenden Erfindung werden die Ground-Truth-Daten 380 insbesondere durch die hochauflösende zweite Sensorvorrichtung 350 erzeugt. Es ist jedoch auch möglich, dass die Ground-Truth-Daten 380 aus anderen relevanten Quellen gewonnen werden.In the context of the present invention, the ground truth data 380 are generated in particular by the high-resolution second sensor device 350. However, it is also possible for the ground truth data 380 to be obtained from other relevant sources.

Das ADAS-System 230, die erste Sensoreinrichtung 250, die erste Datenbank 290, das Ground-Truth-Modul 300, die zweite Sensoreinrichtung 300, die zweite Datenbank 390, das Auswertemodul 500 und das Ausgabemodul 700 können jeweils mit einem Prozessor und/oder einer Speichereinheit ausgestattet sein. Sie können aber auch in einer gemeinsamen Recheneinheit, insbesondere in dem Erprobungsfahrzeug 200, integriert sein.The ADAS system 230, the first sensor device 250, the first database 290, the ground truth module 300, the second sensor device 300, the second database 390, the evaluation module 500 and the output module 700 can each be equipped with a processor and/or a memory unit. However, they can also be integrated in a common computing unit, in particular in the test vehicle 200.

Unter einem „Modul“ kann im Zusammenhang mit der Erfindung beispielsweise ein Prozessor und/oder eine Prozessoreinheit und/oder eine Speichereinheit zum Speichern von Programmbefehlen verstanden werden. Der Prozessor ist speziell dafür eingerichtet, die Programmbefehle auszuführen, um das erfindungsgemäße Verfahren oder einen Schritt des erfindungsgemäßen Verfahrens auszuführen oder zu realisieren. Insbesondere kann ein Modul in einer Cloud-Computing-Infrastruktur integriert sein. Es kann aber auch vorgesehen sein, dass eine Rechnereinheit, wie z. B. ein Prozessor, mehrere Module umfasst.In the context of the invention, a "module" can be understood as, for example, a processor and/or a processor unit and/or a memory unit for storing program instructions. The processor is specially designed to execute the program instructions in order to carry out or implement the method according to the invention or a step of the method according to the invention. In particular, a module can be integrated into a cloud computing infrastructure. However, it can also be provided that a computer unit, such as a processor, comprises several modules.

Unter einem „Prozessor“ kann im Zusammenhang mit der Erfindung beispielsweise eine Maschine oder eine elektronische Schaltung verstanden werden. Ein Prozessor kann insbesondere ein Hauptprozessor (engl. Central Processing Unit, CPU), ein Mikroprozessor oder ein Mikrocontroller sein, z.B. ein anwendungsspezifischer integrierter Schaltkreis oder ein digitaler Signalprozessor, möglicherweise in Kombination mit einer Speichereinheit zum Speichern von Programmbefehlen etc. Ein Prozessor kann auch ein virtualisierter Prozessor, eine virtuelle Maschine oder eine Soft-CPU sein.In the context of the invention, a “processor” can be understood as meaning, for example, a machine or an electronic circuit. A processor can in particular be a central processing unit (CPU), a microprocessor or a microcontroller. , e.g. an application-specific integrated circuit or a digital signal processor, possibly in combination with a memory unit for storing program instructions, etc. A processor can also be a virtualized processor, a virtual machine or a soft CPU.

Unter einer „Speichereinheit“ oder einem „Speichermodul“ kann im Zusammenhang mit der Erfindung z.B. ein flüchtiger Speicher in Form eines Arbeitsspeichers (engl. Random Access Memory, RAM) oder ein permanenter Speicher wie eine Festplatte oder ein Datenträger oder z.B. ein austauschbares Speichermodul verstanden werden. Das Speichermodul kann auch als eine Cloud-Speicherlösung ausgebildet sein.In the context of the invention, a "memory unit" or a "memory module" can be understood as, for example, a volatile memory in the form of a random access memory (RAM) or a permanent memory such as a hard disk or a data carrier or, for example, an exchangeable memory module. The memory module can also be designed as a cloud storage solution.

Unter „Daten“ sind im Zusammenhang mit der Erfindung sowohl Rohdaten als auch bereits aufbereitete Daten aus Messergebnissen von Sensoren wie Kameras sowie aus anderen Datenquellen zu verstehen.In the context of the invention, “data” means both raw data and already processed data from measurement results from sensors such as cameras and from other data sources.

Insbesondere können die erste Datenbank 290, die zweite Datenbank 390 und das Auswertemodul 500 in einer Cloud-Computing-Infrastruktur integriert sein. Ebenso können Komponenten des Ground-Truth-Moduls 300, wie beispielsweise eine Recheneinheit zur Erzeugung der Ground-Truth-Daten 380, in der Cloud-Computing-Infrastruktur untergebracht sein. Dadurch kann ein schnelles Berechnungsergebnis erzielt werden, da Cloud-basierte Lösungen den Vorteil hoher und damit schneller Rechenleistung bieten.In particular, the first database 290, the second database 390 and the evaluation module 500 can be integrated in a cloud computing infrastructure. Components of the ground truth module 300, such as a computing unit for generating the ground truth data 380, can also be housed in the cloud computing infrastructure. This makes it possible to achieve a fast calculation result, since cloud-based solutions offer the advantage of high and therefore fast computing power.

Der Begriff Cloud Computing-Infrastruktur bezieht sich auf die Gesamtheit der Hardware-, Software-, Netzwerk- und Speicherressourcen, die zur Unterstützung von Cloud Computing-Diensten eingesetzt werden. Die Cloud Computing-Infrastruktur bietet eine Plattform für die Bereitstellung einer breiten Palette von Diensten, darunter Datenspeicherung und -verwaltung, Anwendungsentwicklung und -bereitstellung sowie virtuelle Rechenressourcen. Sie umfasst Dienste zur Bereitstellung von Rechenressourcen wie Rechenleistung und Speicher zur Unterstützung von Cloud-basierten Anwendungen. Um Daten und Anwendungen vor unberechtigtem Zugriff zu schützen, werden Sicherheitstechnologien wie Firewalls, Verschlüsselung und Werkzeuge für das Identitäts- und Zugriffsmanagement eingesetzt. Eine Cloud Computing-Infrastruktur kann die Rechenleistung und die Geschwindigkeit der Datenverarbeitung deutlich erhöhen.The term cloud computing infrastructure refers to the set of hardware, software, network, and storage resources used to support cloud computing services. Cloud computing infrastructure provides a platform for delivering a wide range of services, including data storage and management, application development and deployment, and virtual computing resources. It includes services for providing computing resources such as processing power and storage to support cloud-based applications. Security technologies such as firewalls, encryption, and identity and access management tools are used to protect data and applications from unauthorized access. Cloud computing infrastructure can significantly increase computing power and the speed of data processing.

Ferner sind Kommunikationsverbindungen für den Austausch und die Übertragung von Daten zwischen den einzelnen Modulen vorgesehen, die insbesondere als drahtlose Kommunikationsverbindung, z.B. als Mobilfunkverbindung, und/oder als Nahfeldkommunikationsverbindung, z.B. Bluetooth®, Ethernet, NFC (near field communication) oder Wi-Fi®, ausgebildet sind. Insbesondere sind für die Kommunikationsverbindung zwischen dem Fahrzeug 200 und einer Cloud-Computing-Infrastruktur 5G oder 6G Funkmodule vorgesehen. Dies gilt ebenso für die Kommunikationsverbindung zwischen dem Ground-Truth-Modul 300 und einer Cloud-Computing-Infrastruktur. Um die Verbindung zur Cloud-Computing-Infrastruktur über eine Mobilfunkverbindung zu schützen, können zudem kryptographische Verschlüsselungsverfahren vorgesehen werden.Furthermore, communication connections are provided for the exchange and transmission of data between the individual modules, which are designed in particular as a wireless communication connection, e.g. as a mobile radio connection, and/or as a near-field communication connection, e.g. Bluetooth®, Ethernet, NFC (near field communication) or Wi-Fi®. In particular, 5G or 6G radio modules are provided for the communication connection between the vehicle 200 and a cloud computing infrastructure. This also applies to the communication connection between the ground truth module 300 and a cloud computing infrastructure. In order to protect the connection to the cloud computing infrastructure via a mobile radio connection, cryptographic encryption methods can also be provided.

Das Erprobungsfahrzeug 200 umfasst die erste Sensoreinrichtung 250, die Daten für das ADAS-System 230 liefert. Die erste Sensoreinrichtung 250 umfasst eine oder mehrere Kameras, die im Fahrzeug 200 angeordnet sind. Diese Kameras verwenden in der Regel unterschiedliche Bildgebungstechnologien und sind an verschiedenen Stellen des Fahrzeugs angeordnet, um eine umfassende Sicht auf die Umgebung zu ermöglichen. Der in Fahrerassistenzsystemen am häufigsten verwendete Kameratyp ist eine nach vorn gerichtete Kamera, die an der Fahrzeugfront angebracht ist und andere Fahrzeuge, Fußgänger und Hindernisse im Fahrweg des Fahrzeugs erkennt und erfasst. Sie wird häufig für Funktionen wie Spurhalteassistent, automatische Notbremsung und adaptive Geschwindigkeitsregelung eingesetzt. Es gibt auch eine nach hinten gerichtete Kamera, die normalerweise am Heck des Fahrzeugs angebracht ist und den Bereich hinter dem Fahrzeug einschließlich anderer Fahrzeuge, Fußgänger und Hindernisse erfasst. Sie wird häufig für Funktionen wie Rückfahrkameras und Querverkehrswarner verwendet. Auch Seitenkameras können eingesetzt werden. Diese Kameras sind in der Regel seitlich am Fahrzeug angebracht und erfassen Bereiche, die der Fahrer über die Spiegel nicht einsehen kann. Sie werden häufig für Funktionen wie die Erkennung verdeckter Bereiche und den Spurwechselassistenten eingesetzt. Zusätzlich können Rundumsichtkameras zum Einsatz kommen. Diese Kameras sind in der Regel an mehreren Seiten des Fahrzeugs angebracht und bieten einen 360-Grad-Blick auf die Umgebung des Fahrzeugs. Sie werden häufig für Funktionen wie Einparkhilfe und Kollisionsvermeidung eingesetzt.The test vehicle 200 includes the first sensor device 250 that provides data for the ADAS system 230. The first sensor device 250 includes one or more cameras arranged in the vehicle 200. These cameras typically use different imaging technologies and are arranged at different locations on the vehicle to provide a comprehensive view of the surroundings. The most common type of camera used in driver assistance systems is a forward-facing camera, which is mounted on the front of the vehicle and detects and captures other vehicles, pedestrians, and obstacles in the vehicle's path. It is often used for functions such as lane departure warning, automatic emergency braking, and adaptive cruise control. There is also a rear-facing camera, which is typically mounted on the rear of the vehicle and captures the area behind the vehicle including other vehicles, pedestrians, and obstacles. It is often used for functions such as rearview cameras and cross-traffic alert. Side cameras can also be used. These cameras are typically mounted on the side of the vehicle and capture areas that the driver cannot see through the mirrors. They are often used for functions such as hidden area detection and lane change assistance. In addition, surround view cameras can be used. These cameras are usually mounted on several sides of the vehicle and provide a 360-degree view of the vehicle's surroundings. They are often used for functions such as parking assistance and collision avoidance.

Die Kameras der ersten Sensoreinrichtung 250 sind typischerweise als RGB-Kameras ausgeführt. Eine RGB-Kamera ist eine Digitalkamera, die Farbinformationen im sichtbaren Bereich des elektromagnetischen Spektrums erfasst und in drei Kanäle aufteilt: Rot, Grün und Blau (RGB). Diese drei Kanäle werden dann kombiniert, um das gesamte Farbspektrum des Bildes zu erzeugen. Die Kameras arbeiten im sichtbaren Spektralbereich, der den für das menschliche Auge wahrnehmbaren Wellenlängenbereich umfasst (ca. 400 bis 700 Nanometer). Einige Kameras können jedoch auch im infraroten oder ultravioletten Spektrum arbeiten, was für Anwendungen wie Nachtsicht oder die Erkennung bestimmter Arten von Gefahren nützlich sein kann. IR-Kameras nutzen die Infrarotbildtechnik, um die Umgebung bei schlechten oder fehlenden Lichtverhältnissen, z. B. nachts oder in Tunneln, zu erfassen. Sie werden häufig für Funktionen wie Nachtsicht und Fußgängererkennung eingesetzt.The cameras of the first sensor device 250 are typically designed as RGB cameras. An RGB camera is a digital camera that captures color information in the visible range of the electromagnetic spectrum and divides it into three channels: red, green and blue (RGB). These three channels are then combined to produce the entire color spectrum of the image. The cameras operate in the visible spectral range, which is the world perceptible to the human eye. However, some cameras can also operate in the infrared or ultraviolet spectrum, which can be useful for applications such as night vision or detecting certain types of hazards. IR cameras use infrared imaging technology to capture the environment in low or no light conditions, such as at night or in tunnels. They are often used for functions such as night vision and pedestrian detection.

Darüber hinaus kann die erste Sensorausstattung 250 ein Lidarsystem und/oder ein Radarsystem umfassen. Ein Lidarsystem (Light Detection and Ranging) ist eine Fernerkundungstechnologie, die Entfernungen misst und hochauflösende 3D-Karten der Umgebung erstellt. Ein Lidarsystem besteht in der Regel aus einem Lasersender, der Laserstrahlen aussendet, in der Regel im Infrarotspektrum. Diese Laserstrahlen werden auf die Umgebung des Fahrzeugs gerichtet. Ein Scanner, z.B. ein rotierender Spiegel, lenkt die Laserstrahlen des Lasersenders in verschiedene Richtungen. Dadurch kann das Lidarsystem ein großes Sichtfeld abdecken. Die von den Objekten in der Umgebung reflektierten Laserstrahlen werden von einem Photodetektor empfangen. Die vom Photodetektor empfangenen Signale werden von einer speziellen Signalverarbeitungseinheit verarbeitet. Sie analysiert die Laufzeitinformationen, die Intensität der reflektierten Laserstrahlen und weitere Daten, um eine detaillierte 3D-Karte der Umgebung einschließlich der Positionen und Formen der Objekte zu erstellen. Lidarsysteme liefern hochauflösende und genaue 3D-Karten und ermöglichen die präzise Erkennung, Lokalisierung und Verfolgung von Objekten. Sie sind effektiv bei der Erkennung und Identifizierung von Objekten wie Fahrzeugen, Fußgängern und Hindernissen unter verschiedenen Fahrbedingungen.In addition, the first sensor equipment 250 may include a lidar system and/or a radar system. A lidar (light detection and ranging) system is a remote sensing technology that measures distances and creates high-resolution 3D maps of the environment. A lidar system typically consists of a laser transmitter that emits laser beams, usually in the infrared spectrum. These laser beams are directed at the environment of the vehicle. A scanner, e.g. a rotating mirror, directs the laser beams of the laser transmitter in different directions. This allows the lidar system to cover a large field of view. The laser beams reflected from the objects in the environment are received by a photodetector. The signals received by the photodetector are processed by a special signal processing unit. It analyzes the time-of-flight information, the intensity of the reflected laser beams and other data to create a detailed 3D map of the environment including the positions and shapes of the objects. Lidar systems provide high-resolution and accurate 3D maps and enable the precise detection, localization and tracking of objects. They are effective in detecting and identifying objects such as vehicles, pedestrians and obstacles under various driving conditions.

Ein Radarsystem (Radio Detection and Ranging, Radar) ist eine Sensortechnologie, die Radiowellen zur Erkennung und Lokalisierung von Objekten verwendet. Ein Radarsystem verfügt über eine Antenne zum Senden und Empfangen von Radiowellen. Sie sendet die Radiowellen vom Radarsender aus und empfängt die von Objekten in der Umgebung zurückgesendeten Wellen. Ein Signalprozessor analysiert die empfangenen Signale und extrahiert relevante Informationen wie Zeitverzögerung, Frequenzverschiebung und Intensität der reflektierten Wellen. Durch die Analyse der Frequenzverschiebung der empfangenen Wellen (Dopplereffekt) und der Zeitverzögerung kann das Radarsystem die relative Geschwindigkeit und Entfernung von Objekten abschätzen. Diese Informationen helfen, die Anwesenheit, den Ort und die Bewegung von Objekten wie Fahrzeugen oder Fußgängern zu bestimmen. Radarsysteme liefern genaue Abstandsmessungen und eine zuverlässige Objekterkennung. Sie sind besonders bei ungünstigen Witterungsbedingungen, die die Sicht einschränken können, nützlich, da Radiowellen im Vergleich zu anderen Sensortechnologien weniger durch Faktoren wie Regen, Nebel oder Staub beeinträchtigt werden.A radio detection and ranging (radar) system is a sensor technology that uses radio waves to detect and locate objects. A radar system has an antenna to transmit and receive radio waves. It sends the radio waves out from the radar transmitter and receives the waves returned by objects in the surrounding area. A signal processor analyzes the received signals and extracts relevant information such as time delay, frequency shift, and intensity of the reflected waves. By analyzing the frequency shift of the received waves (Doppler effect) and the time delay, the radar system can estimate the relative speed and distance of objects. This information helps determine the presence, location, and movement of objects such as vehicles or pedestrians. Radar systems provide accurate distance measurements and reliable object detection. They are especially useful in adverse weather conditions that can limit visibility, as radio waves are less affected by factors such as rain, fog, or dust compared to other sensor technologies.

Sowohl Kameras, Lidarsysteme als auch Radarsysteme haben ihre Stärken und Grenzen, und die Kombination von Informationen aus mehreren Erfassungsmodalitäten wird in ADAS-Systemen genutzt, um die Gesamtwahrnehmung zu verbessern und die Genauigkeit und Zuverlässigkeit der Objekterkennung und -verfolgung zu erhöhen. Darüber hinaus können im Rahmen der Erfindung noch weitere Sensortypen wie Ultraschallsensoren verwendet werden.Cameras, lidar systems and radar systems all have their strengths and limitations, and the combination of information from multiple sensing modalities is used in ADAS systems to improve overall perception and increase the accuracy and reliability of object detection and tracking. In addition, other types of sensors such as ultrasonic sensors can be used within the scope of the invention.

Das zweite Sensorsystem 350 enthält im Wesentlichen die gleichen Sensortypen wie Kameras und/oder ein Lidarsystem und/oder ein Radarsystem. Die Auflösung der einzelnen Sensoren ist jedoch deutlich höher und auch die Anzahl der Sensoren kann größer sein.The second sensor system 350 essentially contains the same types of sensors such as cameras and/or a lidar system and/or a radar system. However, the resolution of the individual sensors is significantly higher and the number of sensors can also be larger.

Die Auflösung einer Kamera bezieht sich auf die Anzahl der Pixel, aus denen das von der Kamera aufgenommene Bild besteht. Eine Kamera mit einer höheren Auflösung nimmt detailliertere und schärfere Bilder auf als eine Kamera mit einer niedrigeren Auflösung. Die Auflösung einer Kamera wird normalerweise durch die Anzahl der horizontalen und vertikalen Pixel im Bild ausgedrückt, z. B. 1920 x 1080 (auch als Full HD bekannt) oder 3840 x 2160 (auch als 4K bekannt). Für die erste Sensoreinrichtung 250 werden typischerweise Full-HD-Kameras verwendet, da die erforderliche Rechenleistung und die Speicherkapazität für die Bildverarbeitung einer 4K-Kamera im Fahrzeug zu groß sind. Für die zweite Sensoreinrichtung 350 des Ground-Truth-Moduls 300 werden hingegen 4K-Kameras eingesetzt, da hier eine deutlich höhere Auflösung gewünscht ist und das Ground-Truth-Modul 300 über größere Rechenressourcen verfügt, entweder direkt durch entsprechende Prozessoren oder durch die Einbindung in eine Cloud-Computing-Infrastruktur.The resolution of a camera refers to the number of pixels that make up the image captured by the camera. A camera with a higher resolution captures more detailed and sharper images than a camera with a lower resolution. The resolution of a camera is usually expressed by the number of horizontal and vertical pixels in the image, e.g. 1920 x 1080 (also known as Full HD) or 3840 x 2160 (also known as 4K). Full HD cameras are typically used for the first sensor device 250 because the required computing power and storage capacity for image processing of a 4K camera in the vehicle are too large. For the second sensor device 350 of the ground truth module 300, on the other hand, 4K cameras are used because a significantly higher resolution is desired here and the ground truth module 300 has greater computing resources, either directly through corresponding processors or through integration into a cloud computing infrastructure.

Die Bildaufnahmefrequenz einer Fahrzeugkamera für ein ADAS-System 230 bezieht sich auf die Rate, mit der die Kamera Bilder pro Sekunde aufnimmt und speichert. Dieser Parameter wird auch als Bildrate oder Bilder pro Sekunde (FPS) bezeichnet und ist ein wichtiges Kriterium bei der Auswahl einer Kamera für ADAS-Anwendungen. Eine höhere Bildrate bedeutet, dass die Kamera mehr Bilder pro Sekunde aufnehmen und speichern kann, was eine flüssigere und detailliertere Darstellung der Umgebung ermöglicht. Auch hier haben die Kameras der zweiten Sensoreinrichtung 350 eine höhere Bildrate als die Kameras der ersten Sensoreinrichtung 250. Typische Bildraten für Kameras der ersten Sensoreinrichtung 250 für ADAS-Anwendungen liegen zwischen 30 und 60 Bildern pro Sekunde, während die leistungsfähigeren Kameras der zweiten Sensoreinrichtung 350 bis zu 120 Bilder pro Sekunde aufnehmen können. Durch die höhere Bildrate können die Kameras der zweiten Sensoreinrichtung 350 Faktoren wie die Fahrzeuggeschwindigkeit deutlich besser berücksichtigen und damit die Komplexität der Umgebung genauer und mit höherer Auflösung abbilden.The frame rate of a vehicle camera for an ADAS system 230 refers to the rate at which the camera captures and stores images per second. This parameter is also referred to as frame rate or frames per second (FPS) and is an important criterion when selecting a camera for ADAS applications. A higher frame rate means that the camera can capture and store more images per second, enabling a smoother and more detailed representation of the environment. Here too, the cameras of the second sensor device 350 have a higher frame rate than the cameras of the first sensor device 250. Typical frame rates for cameras of the first sensor device 250 for ADAS applications are between 30 and 60 frames per second, while the more powerful cameras of the second sensor device 350 can record up to 120 frames per second. The higher frame rate allows the cameras of the second sensor device 350 to take factors such as vehicle speed into account much better and thus map the complexity of the environment more accurately and with higher resolution.

Höhere Bildraten erhöhen die Anforderungen an die Speicherung und Verarbeitung der aufgenommenen Bilddaten. Wie bereits erwähnt, verfügt das Ground-Truth-Modul 300 über solche Rechenressourcen, während ein herkömmliches ADAS-System 230 nicht mit solchen Rechenressourcen ausgestattet ist, da dies die Gesamtkosten und auch die Komplexität des ADAS-Systems 230 deutlich erhöhen würde. Bei der Auswahl einer Kamera für ein fahrzeugbasiertes ADAS-System 230 muss daher eine Balance zwischen Bildaufnahmefrequenz, Bildqualität und Systemanforderungen gefunden werden, um eine optimale Leistung und Effizienz zu gewährleisten. Für die Validierung des ADAS-Systems 230 bedeutet dies jedoch, dass die Auslegung des im Fahrzeug installierten Kamerasystems nicht ausreicht, um allein auf der Grundlage der von der ersten Sensoreinrichtung 250 gelieferten Daten eine zufriedenstellende Bewertung der Zuverlässigkeit des ADAS-Systems 230 vornehmen zu können.Higher frame rates increase the requirements for storing and processing the captured image data. As already mentioned, the ground truth module 300 has such computing resources, while a conventional ADAS system 230 is not equipped with such computing resources, as this would significantly increase the overall cost and also the complexity of the ADAS system 230. When selecting a camera for a vehicle-based ADAS system 230, a balance must therefore be found between image recording frequency, image quality and system requirements in order to ensure optimal performance and efficiency. For the validation of the ADAS system 230, however, this means that the design of the camera system installed in the vehicle is not sufficient to be able to make a satisfactory assessment of the reliability of the ADAS system 230 based solely on the data provided by the first sensor device 250.

Diese Überlegungen gelten gleichermaßen für Lidar- und Radarsysteme. Die Hauptunterschiede zwischen hochauflösenden Lidar- und Radarsystemen und Systemen mit niedriger Auflösung liegen in der Detailgenauigkeit und der Reichweite. So erfassen hochauflösende Lidarsysteme ein detaillierteres Bild der Umgebung. Sie senden eine größere Anzahl von Laserstrahlen aus und weisen eine höhere Punktdichte in der resultierenden Punktwolke auf, was eine detailliertere Objekterkennung ermöglicht, z.B. die Unterscheidung kleiner Objekte oder die Erfassung komplizierter Objektformen. Im Gegensatz dazu haben Lidar-Systeme mit niedriger Auflösung weniger Laserstrahlen und erzeugen Punktwolken mit weniger Datenpunkten, was zu einem geringeren Detailgrad führt. Hochauflösende Lidar-Systeme bieten daher in der Regel eine höhere Genauigkeit bei der Entfernungsmessung und Objektlokalisierung. Sie können kleinere Entfernungen messen und Objekte mit größerer Genauigkeit erkennen, was zu einer genaueren Darstellung der Umgebung führt. Lidarsysteme mit geringerer Auflösung können aufgrund größerer Messintervalle und begrenzter Punktdichte eine geringere Genauigkeit aufweisen. Allerdings kann die Reichweite hochauflösender Lidarsysteme im Vergleich zu Systemen mit geringerer Auflösung geringer sein. Während sie in der Lage sind, detaillierte Informationen innerhalb einer begrenzten Reichweite zu erfassen, kann ihre Fähigkeit, Objekte in größerer Entfernung zu erkennen, beeinträchtigt sein. Niedrigauflösende Lidarsysteme können dagegen einen größeren Bereich abdecken, allerdings mit geringerer Auflösung und Detailgenauigkeit.These considerations apply equally to lidar and radar systems. The main differences between high-resolution lidar and radar systems and low-resolution systems are the level of detail and range. For example, high-resolution lidar systems capture a more detailed image of the environment. They emit a larger number of laser beams and have a higher point density in the resulting point cloud, allowing for more detailed object detection, e.g. distinguishing small objects or detecting complicated object shapes. In contrast, low-resolution lidar systems have fewer laser beams and produce point clouds with fewer data points, resulting in a lower level of detail. High-resolution lidar systems therefore typically offer higher accuracy in ranging and object localization. They can measure smaller distances and detect objects with greater accuracy, resulting in a more accurate representation of the environment. Lower-resolution lidar systems may have lower accuracy due to larger measurement intervals and limited point density. However, the range of high-resolution lidar systems may be lower compared to lower-resolution systems. While they are capable of capturing detailed information within a limited range, their ability to detect objects at greater distances may be compromised. Low-resolution lidar systems, on the other hand, can cover a larger area, but with lower resolution and detail.

Radarsysteme haben in der Regel eine geringere Auflösung als Lidarsysteme. Hochauflösende Radarsysteme verwenden jedoch fortgeschrittene Signalverarbeitungstechniken und anspruchsvollere Antennenanordnungen, um die Auflösung zu verbessern. Sie können detailliertere Informationen über Objekte liefern, z.B. über deren Größe, Form und Bewegungsmuster. Radarsysteme mit geringerer Auflösung haben weniger Antennenelemente und können feinere Details nicht so gut erfassen. Hochauflösende Radarsysteme bieten daher eine höhere Genauigkeit bei der Erkennung und Verfolgung von Objekten. Sie können genaue Messungen von relativen Geschwindigkeiten, Winkeln und Positionen liefern und ermöglichen so eine bessere Abschätzung der Flugbahn von Objekten. Radarsysteme mit geringerer Auflösung können eine geringere Genauigkeit aufweisen und unterliegen bestimmten Einschränkungen, z. B. eine geringere Genauigkeit bei der Geschwindigkeitsmessung. In Bezug auf die Reichweite können hochauflösende Radarsysteme eine bessere Auflösung und Genauigkeit über größere Entfernungen beibehalten, während Systeme mit geringerer Auflösung eine schlechtere Leistung bei der Erkennung und Verfolgung aufweisen können.Radar systems typically have lower resolution than lidar systems. However, high-resolution radar systems use advanced signal processing techniques and more sophisticated antenna arrays to improve resolution. They can provide more detailed information about objects, such as their size, shape, and movement patterns. Lower-resolution radar systems have fewer antenna elements and cannot capture finer details as well. High-resolution radar systems therefore provide greater accuracy in detecting and tracking objects. They can provide accurate measurements of relative speeds, angles, and positions, allowing a better estimate of the trajectory of objects. Lower-resolution radar systems may have lower accuracy and are subject to certain limitations, such as lower accuracy in measuring speed. In terms of range, high-resolution radar systems can maintain better resolution and accuracy over longer distances, while lower-resolution systems may have poorer detection and tracking performance.

Hochauflösende Lidar- und Radarsysteme bieten im Vergleich zu Systemen mit niedriger Auflösung feinere Details, höhere Genauigkeit und bessere Lokalisierungsmöglichkeiten. Niedrigauflösende Systeme bieten jedoch häufig eine größere Abdeckung und einen größeren Erfassungsbereich und eignen sich daher für bestimmte Anwendungen, bei denen eine hohe Detailgenauigkeit nicht unbedingt erforderlich oder machbar ist. Die Wahl zwischen hoch- und niedrigauflösenden Systemen hängt von den spezifischen Anforderungen der ADAS-Anwendung und dem Kompromiss zwischen Auflösung, Genauigkeit, Reichweite und Kosten ab.High-resolution lidar and radar systems offer finer detail, higher accuracy, and better localization capabilities compared to low-resolution systems. However, low-resolution systems often offer greater coverage and detection range, making them suitable for certain applications where high levels of detail are not necessarily required or feasible. The choice between high-resolution and low-resolution systems depends on the specific requirements of the ADAS application and the trade-off between resolution, accuracy, range, and cost.

Um die Funktionen des ADAS-Systems 230 zu testen, nimmt die erste Sensoreinrichtung 250 beim Befahren einer Teststrecke mit einer Vielzahl von Verkehrsszenarien erste Sensordaten 270 aus der Umgebung des Fahrzeugs 200 auf und sendet sie an das ADAS-System 230, das auf diese ersten Sensordaten 270 reagiert und daraus Testdaten 280 erzeugt. Wie beschrieben, umfasst die erste Sensoreinrichtung 230 mindestens eine Kamera und/oder ein Lidarsystem und/oder ein Radarsystem und/oder einen anderen Sensor zur Wahrnehmung und Datenerfassung. Die ersten Sensordaten 270 können Bilder, Punktwolken, Sensormesswerte oder andere relevante Informationen umfassen. Die aufgenommenen Sensordaten 270 werden an das ADAS-System 230 übertragen oder gesendet. Die ersten Sensordaten 270 werden in der Regel über eine drahtgebundene oder drahtlose Verbindung übertragen, damit das ADAS-System 230 auf die Informationen zugreifen und sie analysieren kann. Die Algorithmen und Verarbeitungskomponenten des ADAS-Systems 230 analysieren die empfangenen ersten Sensordaten 270, um die Umgebung zu interpretieren, Objekte zu identifizieren und Entscheidungen auf der Grundlage der Sensorinformationen zu treffen. Basierend auf der Analyse der ersten Sensordaten 270 erzeugt das ADAS-System 230 Testdaten 280. Diese Testdaten 280 können Ausgaben wie erkannte Objekte, berechnete Abstände, Fahrzeugtrajektorien, Fahrspurinformationen oder andere relevante Informationen enthalten, die das ADAS-System 230 im Rahmen seiner Funktionalität bereitstellt. Die erzeugten Testdaten 280 dienen als Ergebnis oder Antwort des ADAS-Systems 230 und spiegeln dessen Verhalten und Leistung in einem bestimmten Verkehrsszenario wider.In order to test the functions of the ADAS system 230, the first sensor device 250 records first sensor data 270 from the surroundings of the vehicle 200 when driving on a test track with a large number of traffic scenarios and sends them to the ADAS system 230, which reacts to these first sensor data 270 and generates test data 280 therefrom. As described, the first sensor device 230 comprises at least one camera and/or a lidar system and/or a radar system and/or another sensor for perception and data capture. The first sensor data 270 may include images, point clouds, sensor readings, or other relevant information. The captured sensor data 270 is transmitted or sent to the ADAS system 230. The first sensor data 270 is typically transmitted over a wired or wireless connection so that the ADAS system 230 can access and analyze the information. The algorithms and processing components of the ADAS system 230 analyze the received first sensor data 270 to interpret the environment, identify objects, and make decisions based on the sensor information. Based on the analysis of the first sensor data 270, the ADAS system 230 generates test data 280. This test data 280 may include outputs such as detected objects, calculated distances, vehicle trajectories, lane information, or other relevant information that the ADAS system 230 provides as part of its functionality. The generated test data 280 serves as a result or response of the ADAS system 230 and reflects its behavior and performance in a particular traffic scenario.

Die Algorithmen des ADAS-Systems 230 umfassen insbesondere Extraktions- und Klassifikationsalgorithmen, um aus den von der ersten Sensoreinrichtung 250 erfassten ersten Sensordaten 270 wesentliche Merkmale zu extrahieren und zu klassifizieren. Die Extraktions- und Klassifikationsalgorithmen verwenden insbesondere Algorithmen der künstlichen Intelligenz wie neuronale Netze.The algorithms of the ADAS system 230 include, in particular, extraction and classification algorithms to extract and classify essential features from the first sensor data 270 acquired by the first sensor device 250. The extraction and classification algorithms use, in particular, artificial intelligence algorithms such as neural networks.

Ein neuronales Netz besteht aus Neuronen, die in mehreren Schichten angeordnet und auf verschiedene Weise miteinander verbunden sind. Ein Neuron ist in der Lage, an seinem Eingang Informationen von außen oder von einem anderen Neuron zu empfangen, diese in bestimmter Weise zu bewerten und in veränderter Form am Ausgang des Neurons an ein anderes Neuron weiterzugeben oder als Endergebnis auszugeben. Zwischen den Eingangsneuronen und den Ausgangsneuronen befinden sich die Hidden Neuronen. Je nach Art des Netzes kann es mehrere Schichten von Hidden Neurons geben. Sie sorgen für die Weiterleitung und Verarbeitung der Informationen. Output-Neuronen liefern schließlich ein Ergebnis und geben es an die Außenwelt weiter. Durch die unterschiedliche Anordnung und Verschaltung der Neuronen entstehen verschiedene Arten von neuronalen Netzen, wie z.B. ein vorwärtsgerichtetes Netz (engl.: Feedforward Network, FNN), ein rückwärtsgerichtetes Netz (engl.: Recurrent Network, RNN) oder ein konvolutionales neuronales Netz (engl.: Convolutional Neural Network, CNN). Die Netze können durch unüberwachtes oder überwachtes Lernen trainiert werden.A neural network consists of neurons that are arranged in several layers and connected to one another in different ways. A neuron is able to receive information from outside or from another neuron at its input, evaluate it in a certain way and pass it on in a modified form to another neuron at the neuron's output or output it as the final result. The hidden neurons are located between the input neurons and the output neurons. Depending on the type of network, there can be several layers of hidden neurons. They ensure that the information is forwarded and processed. Output neurons finally provide a result and pass it on to the outside world. The different arrangement and interconnection of the neurons creates different types of neural networks, such as a feedforward network (FNN), a recurrent network (RNN) or a convolutional neural network (CNN). The networks can be trained through unsupervised or supervised learning.

Der Extraktionsalgorithmus erkennt beispielsweise, ob die aufgenommen ersten Sensordaten 270 ein Verkehrszeichen oder weitere Informationen enthalten. Aus diesen extrahierten Informationen werden Testdaten 280 erstellt, die erfindungsgemäß an das Auswertemodul 500 übertragen werden. Die Testdaten 280 können aber auch in der Datenbank 290 gespeichert werden, um zu einem späteren Zeitpunkt für eine Auswertung zur Verfügung zu stehen.The extraction algorithm recognizes, for example, whether the first sensor data 270 recorded contains a traffic sign or other information. Test data 280 is created from this extracted information, which is transmitted according to the invention to the evaluation module 500. The test data 280 can also be stored in the database 290 in order to be available for evaluation at a later time.

Die zweite Sensoreinrichtung 350 erfasst ebenfalls die Umgebung des Fahrzeugs 200. Insbesondere ist vorgesehen, dass das Ground-Truth-Modul 300 bzw. die zweite Sensoreinrichtung 350 ebenfalls im Fahrzeug 200 installiert ist, so dass die von der ersten Sensoreinrichtung 250 und der zweiten Sensoreinrichtung 350 erfasste Umgebung jeweils identisch ist. Da die Sensoren der zweiten Sensoreinrichtung 350 im Vergleich zur ersten Sensoreinrichtung 250 über eine deutlich höhere Auflösung verfügen, wird die Umgebung mit einer deutlich höheren Genauigkeit erfasst. Die von der zweiten Sensoreinrichtung 350 aufgenommenen zweiten Sensordaten 370 werden von einer Softwareapplikation 330 weiterverarbeitet zur Erstellung von Ground-Truth-Daten 380. Die Softwareapplikation 330 umfasst eine Vielzahl von Wahrnehmungsalgorithmen, wie beispielsweise Bildverarbeitungsalgorithmen, Extraktionsalgorithmen, Klassifikationsalgorithmen, die insbesondere Algorithmen der künstlichen Intelligenz, wie beispielsweise neuronale Netze, verwenden. Da die aufgenommenen zweiten Sensordaten 370 wesentlich komplexer sind als die ersten Sensordaten 270, weisen auch die verwendeten neuronalen Netze eine höhere Komplexität auf, um diese zweiten Sensordaten 370 verarbeiten zu können. Insbesondere werden diese neuronalen Netze mit entsprechend hochaufgelösten Datensätzen trainiert.The second sensor device 350 also records the surroundings of the vehicle 200. In particular, it is provided that the ground truth module 300 or the second sensor device 350 is also installed in the vehicle 200, so that the surroundings recorded by the first sensor device 250 and the second sensor device 350 are identical in each case. Since the sensors of the second sensor device 350 have a significantly higher resolution than the first sensor device 250, the surroundings are recorded with significantly greater accuracy. The second sensor data 370 recorded by the second sensor device 350 are further processed by a software application 330 to create ground truth data 380. The software application 330 includes a large number of perception algorithms, such as image processing algorithms, extraction algorithms, classification algorithms, which in particular use artificial intelligence algorithms, such as neural networks. Since the recorded second sensor data 370 is significantly more complex than the first sensor data 270, the neural networks used also have a higher complexity in order to be able to process this second sensor data 370. In particular, these neural networks are trained with correspondingly high-resolution data sets.

Zusätzlich zu den erfassten zweiten Sensordaten 370In addition to the recorded second sensor data 370

0 können weitere Datenquellen, wie Kartendaten, historische Daten, Wetterdaten, Verkehrsdaten etc. verwendet werden. Diese Daten werden insbesondere in der Datenbank 390 gespeichert. Zusätzlich können Zielvorgaben, Kennwerte etc. berücksichtigt werden.0, other data sources such as map data, historical data, weather data, traffic data, etc. can be used. This data is stored in particular in the database 390. In addition, target specifications, key figures, etc. can be taken into account.

Die Kartendaten enthalten insbesondere verschiedene Arten von Informationen, die von Fahrzeugsensoren allein nicht erfasst werden können. Diese Daten werden aus verschiedenen Quellen wie GPS-Satelliten, Straßenmarkierungen und anderen Quellen gesammelt. Die Daten beinhalten typischerweise Informationen über die Straßengeometrie wie Krümmung, Neigung und Breite der Straße sowie die Lage von Kreuzungen, Ampeln und Fußgängerüberwegen. Darüber hinaus können die Kartendaten Informationen über die Verkehrsbedingungen, wie z.B. den Verkehrsfluss, enthalten, die in Echtzeit von verschiedenen Quellen erfasst werden, z.B. von straßenseitigen Sensoren und von GPS-fähigen Geräten, die von anderen Fahrzeugen verwendet werden.In particular, the map data contains various types of information that cannot be collected by vehicle sensors alone. This data is collected from various sources such as GPS satellites, road markings and other sources. The data typically includes information about the road geometry such as curvature, slope and width of the road as well as the location of intersections, traffic lights and pedestrian crossings. pedestrian crossings. In addition, the map data may include information about traffic conditions, such as traffic flow, collected in real time from various sources, such as roadside sensors and GPS-enabled devices used by other vehicles.

Die Ground Truth-Daten 380 werden nun an das Auswertemodul 500 übertragen. Das Auswertemodul 500 verfügt über eine Softwareapplikation 550, die Vergleichsalgorithmen enthält, die insbesondere auf Algorithmen der künstlichen Intelligenz basieren. Vergleichsalgorithmen spielen in der Bildanalyse eine entscheidende Rolle, da sie es ermöglichen, die Ähnlichkeit oder Unähnlichkeit zwischen Bildern zu quantifizieren. Erfindungsgemäß kann eine Vielzahl von Vergleichsalgorithmen verwendet werden, wobei die Wahl des geeigneten Algorithmus von der Art der Daten, den gewünschten Eigenschaften des Vergleichs und der spezifischen Fragestellung in Bezug auf die Leistungsfähigkeit des ADAS-Systems 230 abhängt.The ground truth data 380 are now transmitted to the evaluation module 500. The evaluation module 500 has a software application 550 that contains comparison algorithms that are based in particular on artificial intelligence algorithms. Comparison algorithms play a crucial role in image analysis because they make it possible to quantify the similarity or dissimilarity between images. According to the invention, a large number of comparison algorithms can be used, with the choice of the appropriate algorithm depending on the type of data, the desired properties of the comparison and the specific question relating to the performance of the ADAS system 230.

Ein Beispiel für Vergleichsalgorithmen sind histogrammbasierte Algorithmen, die die Intensitätsverteilungen der Pixel in zwei Bildern vergleichen. Hierzu gehören die Histogrammschnittmenge, die Histogrammkorrelation und die Histogrammschnittmenge. Histogrammvergleichsmethoden sind sinnvoll für Aufgaben wie Bildabgleich, Objekterkennung und inhaltsbasierte Bildsuche.An example of comparison algorithms are histogram-based algorithms that compare the intensity distributions of pixels in two images. These include histogram intersection, histogram correlation, and histogram intersection. Histogram comparison methods are useful for tasks such as image matching, object detection, and content-based image search.

Auf Deep Learning basierende Ansätze, wie z.B. Convolutional Neural Networks (CNNs), extrahieren Merkmale aus Bildern und ermöglichen einen Vergleich auf der Basis gelernter Datenrepräsentationen. Die Bilder werden in einen Merkmalsraum eingefügt, in dem die Ähnlichkeit anhand von Metriken wie Kosinusähnlichkeit oder euklidischer Distanz berechnet werden kann.Deep learning-based approaches, such as convolutional neural networks (CNNs), extract features from images and enable comparison based on learned data representations. The images are inserted into a feature space where similarity can be calculated using metrics such as cosine similarity or Euclidean distance.

Mit der Softwareapplikation 550 werden nun die Testdaten 280 mit den Ground-Truth-Daten 380 verglichen. Durch den Vergleich mit den Ground-Truth-Daten 380 kann festgestellt werden, ob die Testdaten 280 die erforderliche Genauigkeit und Zuverlässigkeit in Bezug auf die Leistungsfähigkeit des ADAS-Systems 230 aufweisen. Durch den Vergleich zwischen den hochgenauen Ground-Truth-Daten 380 und den fahrzeugbasierten Testdaten 280 kann nun die Genauigkeit und Zuverlässigkeit des ADAS-Systems 230 überprüft werden. Hierdurch können die Algorithmen des ADAS-Systems 230 hinsichtlich ihrer Fähigkeit, Objekte in der Umgebung des Fahrzeugs 200 zu erkennen und auf sie angemessen und sicher zu reagieren, automatisiert validiert werden.The software application 550 is now used to compare the test data 280 with the ground truth data 380. By comparing with the ground truth data 380, it can be determined whether the test data 280 has the required accuracy and reliability with regard to the performance of the ADAS system 230. By comparing the highly accurate ground truth data 380 with the vehicle-based test data 280, the accuracy and reliability of the ADAS system 230 can now be checked. This allows the algorithms of the ADAS system 230 to be automatically validated with regard to their ability to detect objects in the environment of the vehicle 200 and to react to them appropriately and safely.

Die präzisen Ground-Truth-Daten 380 dienen somit erfindungsgemäß dazu, die Leistungsfähigkeit und Zuverlässigkeit des ADAS-Systems 230 zu bewerten und zu validieren sowie verbesserungsbedürftige Bereiche zu identifizieren. Da die Ground-Truth-Daten 380 den Referenzpunkt für die Bewertung der Leistungsfähigkeit des ADAS-Systems 230 darstellen, können auf künstlicher Intelligenz basierende Vergleichsalgorithmen verwendet werden, die eine automatisierte Analyse der Testdaten 280 und damit auch eine automatisierte Validierung des ADAS-Systems 230 ermöglichen.According to the invention, the precise ground truth data 380 thus serve to evaluate and validate the performance and reliability of the ADAS system 230 and to identify areas in need of improvement. Since the ground truth data 380 represents the reference point for evaluating the performance of the ADAS system 230, comparison algorithms based on artificial intelligence can be used, which enable an automated analysis of the test data 280 and thus also an automated validation of the ADAS system 230.

Erfindungsgemäß kann die Auswertung der Testdaten 280 durch Vergleich mit den Ground Truth-Daten 380 sowohl in Echtzeit während des Abfahrens einer Strecke durch das Erprobungsfahrzeug 200 erfolgen als auch zu einem späteren Zeitpunkt mit den aufgezeichneten Testdaten 280 und den gespeicherten Ground Truth-Daten 380. Bei einer Auswertung in Echtzeit bietet sich insbesondere die Verwendung einer Cloud-Computing-Infrastruktur sowie die Verwendung von 5G- oder 6G-Funkmodulen zur mobilen Datenübertragung an.According to the invention, the evaluation of the test data 280 by comparison with the ground truth data 380 can be carried out both in real time while the test vehicle 200 is driving along a route and at a later point in time with the recorded test data 280 and the stored ground truth data 380. In the case of an evaluation in real time, the use of a cloud computing infrastructure and the use of 5G or 6G radio modules for mobile data transmission are particularly suitable.

Aus dem Vergleich werden Auswerteergebnisse 580 erstellt. Diese Auswerteergebnisse 580 können an ein Ausgabemodul 700 weitergeben werden, das aus den Auswerteergebnisse 580 mittels einer Softwareapplikation 750 Ausgabedaten 780 insbesondere in Form von Berichten, Histogrammen, Diagrammen, Textnachrichten, Softwarecodes, Power-Point-Präsentationen, etc. erstellt, die für die Validierung des ADAS-Systems 230 verwendet werden können.Evaluation results 580 are created from the comparison. These evaluation results 580 can be passed on to an output module 700, which uses a software application 750 to create output data 780 from the evaluation results 580, in particular in the form of reports, histograms, diagrams, text messages, software codes, Power Point presentations, etc., which can be used to validate the ADAS system 230.

In 2 sind die Verfahrensschritte zur automatisierten Validierung von Funktionen eines Fahrerassistenzsystem (ADAS-System) dargestellt.In 2 The procedural steps for the automated validation of functions of a driver assistance system (ADAS system) are presented.

In einem Schritt S10 werden erste Sensordaten 270 durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer ersten Sensoreinrichtung 250 eines Erprobungsfahrzeugs 200 beim Befahren einer Fahrstrecke zum Testen zumindest einer Funktion eines ADAS-Systems 230 aufgenommen.In a step S10, first sensor data 270 are recorded by at least one sensor such as a camera, a lidar system and/or a radar system of a first sensor device 250 of a test vehicle 200 while driving along a route for testing at least one function of an ADAS system 230.

In einem Schritt S20 werden die ersten Sensordaten 270 von dem ADAS-System 230 bearbeitet und Testdaten 280 mittels der bearbeiteten ersten Sensordaten 270 erzeugt.In a step S20, the first sensor data 270 is processed by the ADAS system 230 and test data 280 is generated using the processed first sensor data 270.

In einem Schritt S30 werden die Testdaten 280 an ein Auswertemodul 500 und/oder an eine erste Datenbank 290 übertragen.In a step S30, the test data 280 are transmitted to an evaluation module 500 and/or to a first database 290.

In einem Schritt S40 werden zweite Sensordaten 270 durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer zweiten Sensoreinrichtung 350 eines Ground-Truth-Moduls 300 beim Befahren einer Fahrstrecke aufgenommen, wobei die Sensoren der zweiten Sensoreinrichtung 350 über eine höhere Leistungsfähigkeit hinsichtlich der Auflösung, Bildfrequenz, Reichweite, Rechenressourcen als die Sensoren der ersten Sensoreinrichtung 250 verfügen.In a step S40, second sensor data 270 are collected by at least one sensor such as a camera, a lidar system and/or a radar system a second sensor device 350 of a ground truth module 300 while driving along a route, wherein the sensors of the second sensor device 350 have a higher performance in terms of resolution, frame rate, range, and computing resources than the sensors of the first sensor device 250.

In einem Schritt S50 werden die zweiten Sensordaten 370 von einer Softwareapplikation 330 bearbeitet und Ground-Truth-Daten 380 mittels der bearbeiteten zweiten Sensordaten 370 erzeugt.In a step S50, the second sensor data 370 are processed by a software application 330 and ground truth data 380 are generated using the processed second sensor data 370.

In einem Schritt S60 werden die Ground-Truth-Daten 380 an das Auswertemodul 500 und/oder an eine zweite Datenbank 390 übertragen.In a step S60, the ground truth data 380 are transmitted to the evaluation module 500 and/or to a second database 390.

In einem Schritt S70 werden die Testdaten 280 mit den Ground-Truth-Daten 380 durch eine Softwareapplikation 550 verglichen, wobei die Softwareapplikation 550 Vergleichsalgorithmen umfasst.In a step S70, the test data 280 are compared with the ground truth data 380 by a software application 550, wherein the software application 550 comprises comparison algorithms.

In einem Schritt S80 werden Auswerteergebnissen 580 zur Validierung der zumindest einen Funktion des ADAS-Systems 230 erzeugt.In a step S80, evaluation results 580 are generated to validate at least one function of the ADAS system 230.

3 stellt schematisch ein Computerprogrammprodukt 900 dar, das einen ausführbaren Programmcode 950 umfasst, der konfiguriert ist, das Verfahren gemäß dem ersten Aspekt der vorliegenden Erfindung auszuführen. 3 schematically illustrates a computer program product 900 comprising an executable program code 950 configured to carry out the method according to the first aspect of the present invention.

Die vorliegende Erfindung ermöglicht eine genaue und zuverlässige Validierung eines modernen Fahrerassistenzsystems (ADAS) durch den automatisierten Vergleich von Ground-Truth-Daten mit Testdaten eines ADAS-Systems mittels geeigneter Vergleichsalgorithmen. Eine genaue Validierung stellt sicher, dass das ADAS-System wie vorgesehen funktioniert, wodurch die allgemeine Verkehrssicherheit erhöht wird. Darüber hinaus kann die Leistungsfähigkeit des ADAS-Systems bewertet werden. Durch den Vergleich der Testdaten mit den Ground-Truth-Daten können Genauigkeit, Zuverlässigkeit und andere Leistungsindikatoren gemessen werden. Diese Bewertung hilft bei der Erkennung von Verbesserungsmöglichkeiten und der Feinabstimmung des ADAS-Systems für eine optimale Leistung.The present invention enables accurate and reliable validation of a modern driver assistance system (ADAS) by automatically comparing ground truth data with test data of an ADAS system using suitable comparison algorithms. Accurate validation ensures that the ADAS system functions as intended, thereby increasing overall road safety. In addition, the performance of the ADAS system can be evaluated. By comparing the test data with the ground truth data, accuracy, reliability and other performance indicators can be measured. This evaluation helps to identify opportunities for improvement and fine-tune the ADAS system for optimal performance.

Bezugszeichenreference sign

100100
Systemsystem
200200
Erprobungsfahrzeugtest vehicle
230230
ADAS-SystemADAS system
250250
erste Sensoreinrichtungfirst sensor device
270270
erste Sensordatenfirst sensor data
280280
Testdatentest data
290290
erste Datenbankfirst database
300300
Ground-Truth-Modulground truth module
330330
Softwareapplikationsoftware application
350350
zweite Sensoreinrichtungsecond sensor device
370370
zweite Sensordatensecond sensor data
380380
Ground-Truth-Datenground truth data
390390
zweite Datenbanksecond database
500500
Auswertemodulevaluation module
550550
Softwareapplikationsoftware application
580580
Auswerteergebnisseevaluation results
700700
Ausgabemoduloutput module
750750
Softwareapplikationsoftware application
780780
Ausgabedatenoutput data
900900
Computerprogrammproduktcomputer program product
950950
Programmcodeprogram code

Claims (6)

Verfahren zur automatisierten Validierung von Funktionen eines Fahrerassistenzsystem (ADAS-System); umfassend: - Aufnehmen (S10) von ersten Sensordaten (270) durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer ersten Sensoreinrichtung (250) eines Erprobungsfahrzeugs (200) beim Befahren einer Fahrstrecke zum Testen zumindest einer Funktion eines ADAS-Systems (230), wobei die Kamera der ersten Sensoreinrichtung (250) eine Digitalkamera mit Full-HD-Auflösung ist; - Bearbeiten (S20) der ersten Sensordaten (270) von dem ADAS-System (230) und Erzeugen von Testdaten (280) mittels der bearbeiteten ersten Sensordaten (270); - Übertragen (S30) der Testdaten (280) an ein Auswertemodul (500) und/oder an eine erste Datenbank (290); - Aufnehmen (S40) von zweiten Sensordaten (270) durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer zweiten Sensoreinrichtung (350) eines Ground-Truth-Moduls (300) beim Befahren einer Fahrstrecke, wobei die Kamera der zweiten Sensoreinrichtung (350) eine Digitalkamera mit 4K-Auflösung ist, wobei die Sensoren der zweiten Sensoreinrichtung (350) über eine höhere Leistungsfähigkeit hinsichtlich Auflösung, Bildfrequenz, Reichweite und Rechenressourcen als die Sensoren der ersten Sensoreinrichtung (250) verfügen; - Bearbeiten (S50) der zweiten Sensordaten (370) von einer Softwareapplikation (330) und Erzeugen von Ground-Truth-Daten (380) mittels der bearbeiteten zweiten Sensordaten (370); - Übertragen (S60) der Ground-Truth-Daten (380) an das Auswertemodul (500) und/oder an eine zweite Datenbank (390); - Vergleichen (S70) der Testdaten (280) mit den Ground-Truth-Daten (380) durch eine Softwareapplikation (550), die Vergleichsalgorithmen umfasst, wobei die Vergleichsalgorithmen gefaltete neuronale Netze (Convolutional Neural Network, CNN) und/oder histogrammbasierte Algorithmen verwenden; - Erzeugen (S80) von Auswerteergebnissen (580) zur Validierung der zumindest einen Funktion des ADAS-Systems (230).Method for the automated validation of functions of a driver assistance system (ADAS system); comprising: - recording (S10) first sensor data (270) by at least one sensor such as a camera, a lidar system and/or a radar system of a first sensor device (250) of a test vehicle (200) when driving on a route for testing at least one function of an ADAS system (230), wherein the camera of the first sensor device (250) is a digital camera with full HD resolution; - processing (S20) the first sensor data (270) from the ADAS system (230) and generating test data (280) using the processed first sensor data (270); - transmitting (S30) the test data (280) to an evaluation module (500) and/or to a first database (290); - Recording (S40) of second sensor data (270) by at least one sensor such as a camera, a lidar system and/or a radar system of a second sensor device (350) of a ground truth module (300) when driving along a route, wherein the camera of the second sensor device (350) is a digital camera with 4K resolution, wherein the sensors of the second sensor device (350) have a higher performance in terms of resolution, frame rate, range and computing resources than the sensors of the first sensor device (250); - Processing (S50) of the second sensor data (370) by a software application (330) and generating ground truth data (380) using the processed second sensor data (370); - transmitting (S60) the ground truth data (380) to the evaluation module (500) and/or to a second database (390); - comparing (S70) the test data (280) with the ground truth data (380) by a software application (550) that includes comparison algorithms, wherein the comparison algorithms use convolutional neural networks (CNN) and/or histogram-based algorithms; - generating (S80) evaluation results (580) for validating the at least one function of the ADAS system (230). Verfahren nach Anspruch 1, wobei eine Funktion des ADAS-Systems (230) ein Verkehrszeichenalgorithmus ist.procedure according to claim 1 , wherein a function of the ADAS system (230) is a traffic sign algorithm. Verfahren nach Anspruch 1 oder 2, wobei die erste Datenbank (290) und/oder die zweite Datenbank (390) und/oder das Auswertemodul (500) in einer Cloud-Computing-Infrastruktur integriert ist/sind.procedure according to claim 1 or 2 , wherein the first database (290) and/or the second database (390) and/or the evaluation module (500) is/are integrated in a cloud computing infrastructure. System (100) zur automatisierten Validierung von Funktionen eines Fahrerassistenzsystem (ADAS-System), umfassend ein Erprobungsfahrzeug (200) mit einem ADAS-System (230) und einer ersten Sensoreinrichtung (230) mit mindestens einem Sensor wie einer Kamera, einem Lidarsystem und/oder einem Radarsystem, wobei die Kamera der ersten Sensoreinrichtung (250) eine Digitalkamera mit Full-HD-Auflösung ist, ein Ground-Truth-Modul (300) mit einer Softwareapplikation (330) und einer zweiten Sensoreinrichtung (350) und ein Auswertemodul (500) mit einer Softwareapplikation (550); wobei die erste Sensoreinrichtung (250) ausgebildet ist, beim Befahren einer Fahrstrecke durch das Erprobungsfahrzeug (200) zum Testen zumindest einer Funktion eines ADAS-Systems (230) erste Sensordaten (270) aufzunehmen; wobei das ADAS-System (230) ausgebildet ist, die ersten Sensordaten (270) zu bearbeiten zur Erzeugung von Testdaten (280) und die Testdaten (280) an das Auswertemodul (500) zu übertragen; wobei die zweite Sensoreinrichtung (350) ausgebildet ist, zweite Sensordaten (270) durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem beim Befahren einer Fahrstrecke aufzunehmen, wobei die Kamera der zweiten Sensoreinrichtung (350) eine Digitalkamera mit 4K-Auflösung ist, wobei die Sensoren der zweiten Sensoreinrichtung (350) über eine höhere Leistungsfähigkeit hinsichtlich Auflösung, Bildfrequenz, Reichweite, Rechenressourcen als die Sensoren der ersten Sensoreinrichtung (250) verfügen; wobei die Softwareapplikation ausgebildet ist, die zweiten Sensordaten (370) zu bearbeiten zur Erzeugung von Ground-Truth-Daten (380) und die Ground-Truth-Daten (380) an das Auswertemodul (500) zu übertragen; wobei die Softwareapplikation (550) Vergleichsalgorithmen umfasst und ausgebildet ist, die Testdaten (280) mit den Ground-Truth-Daten (380) zu vergleichen und Auswerteergebnissen (580) zur Validierung der zumindest einen Funktion des ADAS-Systems (230) zu erzeugen, und wobei die Vergleichsalgorithmen gefaltete neuronale Netze (Convolutional Neural Network, CNN) und/oder histogrammbasierte Algorithmen verwenden.System (100) for the automated validation of functions of a driver assistance system (ADAS system), comprising a test vehicle (200) with an ADAS system (230) and a first sensor device (230) with at least one sensor such as a camera, a lidar system and/or a radar system, wherein the camera of the first sensor device (250) is a digital camera with full HD resolution, a ground truth module (300) with a software application (330) and a second sensor device (350) and an evaluation module (500) with a software application (550); wherein the first sensor device (250) is designed to record first sensor data (270) when the test vehicle (200) travels a route to test at least one function of an ADAS system (230); wherein the ADAS system (230) is designed to process the first sensor data (270) to generate test data (280) and to transmit the test data (280) to the evaluation module (500); wherein the second sensor device (350) is designed to record second sensor data (270) by at least one sensor such as a camera, a lidar system and/or a radar system when driving along a route, wherein the camera of the second sensor device (350) is a digital camera with 4K resolution, wherein the sensors of the second sensor device (350) have a higher performance in terms of resolution, frame rate, range and computing resources than the sensors of the first sensor device (250); wherein the software application is designed to process the second sensor data (370) to generate ground truth data (380) and to transmit the ground truth data (380) to the evaluation module (500); wherein the software application (550) comprises comparison algorithms and is designed to compare the test data (280) with the ground truth data (380) and to generate evaluation results (580) for validating the at least one function of the ADAS system (230), and wherein the comparison algorithms use convolutional neural networks (CNN) and/or histogram-based algorithms. ADAS-System (230) für ein Kraftfahrzeug, dadurch gekennzeichnet, dass zur Validierung zumindest einer Funktion des ADAS-Systems (230) das Verfahren nach einem der Ansprüche 1 bis 3 verwendet wird.ADAS system (230) for a motor vehicle, characterized in that for validating at least one function of the ADAS system (230) the method according to one of the Claims 1 until 3 is used. Computerprogrammprodukt (900), umfassend einen ausführbaren Programmcode (950), der so konfiguriert ist, dass er bei seiner Ausführung das Verfahren nach einem der Ansprüche 1 bis 3 ausführt.Computer program product (900) comprising an executable program code (950) which is configured to carry out the method according to one of the Claims 1 until 3 executes.
DE102023119911.0A 2023-07-27 2023-07-27 Method and system for the automated validation of functions of a driver assistance system Active DE102023119911B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102023119911.0A DE102023119911B4 (en) 2023-07-27 2023-07-27 Method and system for the automated validation of functions of a driver assistance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023119911.0A DE102023119911B4 (en) 2023-07-27 2023-07-27 Method and system for the automated validation of functions of a driver assistance system

Publications (2)

Publication Number Publication Date
DE102023119911A1 DE102023119911A1 (en) 2025-01-30
DE102023119911B4 true DE102023119911B4 (en) 2025-03-06

Family

ID=94212983

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023119911.0A Active DE102023119911B4 (en) 2023-07-27 2023-07-27 Method and system for the automated validation of functions of a driver assistance system

Country Status (1)

Country Link
DE (1) DE102023119911B4 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019115809A1 (en) 2018-11-05 2020-05-07 Carnegie Mellon University METHOD AND SYSTEM FOR THE CONTINUOUS LEARNING OF CONTROL COMMANDS FOR AUTONOMOUS VEHICLES
DE102020200650A1 (en) 2020-01-21 2021-07-22 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for operating automated lane guidance of a motor vehicle
US20220048533A1 (en) 2020-08-17 2022-02-17 Volvo Car Corporation Method and system for validating autonomous control software for a self-driving vehicle
US20220090995A1 (en) 2015-12-30 2022-03-24 Ventana Medical Systems, Inc. System and method for real time assay monitoring
DE102021124913A1 (en) 2020-10-25 2022-04-28 Motional Ad Llc METRIC BACKPROPAGATION FOR EVALUATION OF SUBSYSTEMS PERFORMANCE

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220090995A1 (en) 2015-12-30 2022-03-24 Ventana Medical Systems, Inc. System and method for real time assay monitoring
DE102019115809A1 (en) 2018-11-05 2020-05-07 Carnegie Mellon University METHOD AND SYSTEM FOR THE CONTINUOUS LEARNING OF CONTROL COMMANDS FOR AUTONOMOUS VEHICLES
DE102020200650A1 (en) 2020-01-21 2021-07-22 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for operating automated lane guidance of a motor vehicle
US20220048533A1 (en) 2020-08-17 2022-02-17 Volvo Car Corporation Method and system for validating autonomous control software for a self-driving vehicle
DE102021124913A1 (en) 2020-10-25 2022-04-28 Motional Ad Llc METRIC BACKPROPAGATION FOR EVALUATION OF SUBSYSTEMS PERFORMANCE

Also Published As

Publication number Publication date
DE102023119911A1 (en) 2025-01-30

Similar Documents

Publication Publication Date Title
DE112021006101T5 (en) Systems and methods for object detection with LiDAR decorrelation
DE102015104954B4 (en) Vision-based monitoring system for validating activity sequences
DE102014106211B4 (en) Vision-based multi-camera factory monitoring with dynamic integrity assessment
DE112021005607T5 (en) Systems and methods for camera-LiDAR-fused object detection
DE102018100469A1 (en) GENERATED SIMULATED SENSOR DATA FOR TRAINING AND VERIFYING RECOGNITION MODELS
DE102023101354A1 (en) SENSOR FUSION
DE102019115455A1 (en) FOCUS-BASED MARKING OF SENSOR DATA
DE102010005290A1 (en) Vehicle controlling method for vehicle operator i.e. driver, involves associating tracked objects based on dissimilarity measure, and utilizing associated objects in collision preparation system to control operation of vehicle
WO2022247994A1 (en) System for sensor data fusion for environmental perception
DE112022004238T5 (en) METHODS AND SYSTEMS FOR DETECTION ACCURACY RATING AND VEHICLE INSTRUCTIONS
DE112021000482T5 (en) DETECTION OF FOREIGN OBJECTS IN A VEHICLE PATHWAY
DE102021128041A1 (en) IMPROVEMENT OF A VEHICLE NEURAL NETWORK
DE102018108361A1 (en) LAW RECORDING TRAINING SYSTEMS AND METHODS
DE102015208139A1 (en) Vehicle occupant detection by means of the distance between passenger and driver characteristics
DE102007013664A1 (en) Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient
DE112019006281T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
DE102022130559A1 (en) SYSTEMS AND METHODS FOR IMPROVED THREE-DIMENSIONAL DATA ASSIGNMENT USING INFORMATION FROM TWO-DIMENSIONAL IMAGES
DE102021125136A1 (en) DEVICE AND METHOD FOR PREDICTING THE TRAJECTORY OF A SURROUNDING VEHICLE
DE102021108621A1 (en) Device for detecting information about a vehicle's surroundings and method for controlling the same
DE102020134530A1 (en) RE-COLLISION WARNING SYSTEM WITH TEMPORARY CNN
DE102021213180B4 (en) Method for automatically controlling at least one vehicle function of a vehicle and notification system for a vehicle
DE102023119911B4 (en) Method and system for the automated validation of functions of a driver assistance system
WO2022042940A1 (en) Method and device for classifying targets
DE102019205474A1 (en) Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device
DE102022119103A1 (en) SYSTEMS AND METHODS FOR MONITORING THE PROXIMITY OF OBJECTS AROUND A VEHICLE

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final