DE102023119911B4 - Method and system for the automated validation of functions of a driver assistance system - Google Patents
Method and system for the automated validation of functions of a driver assistance system Download PDFInfo
- Publication number
- DE102023119911B4 DE102023119911B4 DE102023119911.0A DE102023119911A DE102023119911B4 DE 102023119911 B4 DE102023119911 B4 DE 102023119911B4 DE 102023119911 A DE102023119911 A DE 102023119911A DE 102023119911 B4 DE102023119911 B4 DE 102023119911B4
- Authority
- DE
- Germany
- Prior art keywords
- data
- sensor
- sensor device
- camera
- ground truth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/021—Means for detecting failure or malfunction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/0215—Sensor drifts or sensor failures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
Verfahren zur automatisierten Validierung von Funktionen eines Fahrerassistenzsystem (ADAS-System); umfassend:
- Aufnehmen (S10) von ersten Sensordaten (270) durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer ersten Sensoreinrichtung (250) eines Erprobungsfahrzeugs (200) beim Befahren einer Fahrstrecke zum Testen zumindest einer Funktion eines ADAS-Systems (230), wobei die Kamera der ersten Sensoreinrichtung (250) eine Digitalkamera mit Full-HD-Auflösung ist;
- Bearbeiten (S20) der ersten Sensordaten (270) von dem ADAS-System (230) und Erzeugen von Testdaten (280) mittels der bearbeiteten ersten Sensordaten (270);
- Übertragen (S30) der Testdaten (280) an ein Auswertemodul (500) und/oder an eine erste Datenbank (290);
- Aufnehmen (S40) von zweiten Sensordaten (270) durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer zweiten Sensoreinrichtung (350) eines Ground-Truth-Moduls (300) beim Befahren einer Fahrstrecke, wobei die Kamera der zweiten Sensoreinrichtung (350) eine Digitalkamera mit 4K-Auflösung ist, wobei die Sensoren der zweiten Sensoreinrichtung (350) über eine höhere Leistungsfähigkeit hinsichtlich Auflösung, Bildfrequenz, Reichweite und Rechenressourcen als die Sensoren der ersten Sensoreinrichtung (250) verfügen;
- Bearbeiten (S50) der zweiten Sensordaten (370) von einer Softwareapplikation (330) und Erzeugen von Ground-Truth-Daten (380) mittels der bearbeiteten zweiten Sensordaten (370);
- Übertragen (S60) der Ground-Truth-Daten (380) an das Auswertemodul (500) und/oder an eine zweite Datenbank (390);
- Vergleichen (S70) der Testdaten (280) mit den Ground-Truth-Daten (380) durch eine Softwareapplikation (550), die Vergleichsalgorithmen umfasst, wobei die Vergleichsalgorithmen gefaltete neuronale Netze (Convolutional Neural Network, CNN) und/oder histogrammbasierte Algorithmen verwenden;
- Erzeugen (S80) von Auswerteergebnissen (580) zur Validierung der zumindest einen Funktion des ADAS-Systems (230).
Method for the automated validation of functions of a driver assistance system (ADAS system); comprising:
- recording (S10) first sensor data (270) by at least one sensor such as a camera, a lidar system and/or a radar system of a first sensor device (250) of a test vehicle (200) when driving along a route for testing at least one function of an ADAS system (230), wherein the camera of the first sensor device (250) is a digital camera with full HD resolution;
- processing (S20) the first sensor data (270) from the ADAS system (230) and generating test data (280) using the processed first sensor data (270);
- transmitting (S30) the test data (280) to an evaluation module (500) and/or to a first database (290);
- recording (S40) second sensor data (270) by at least one sensor such as a camera, a lidar system and/or a radar system of a second sensor device (350) of a ground truth module (300) when driving along a route, wherein the camera of the second sensor device (350) is a digital camera with 4K resolution, wherein the sensors of the second sensor device (350) have a higher performance in terms of resolution, frame rate, range and computing resources than the sensors of the first sensor device (250);
- processing (S50) the second sensor data (370) by a software application (330) and generating ground truth data (380) using the processed second sensor data (370);
- transmitting (S60) the ground truth data (380) to the evaluation module (500) and/or to a second database (390);
- comparing (S70) the test data (280) with the ground truth data (380) by a software application (550) comprising comparison algorithms, wherein the comparison algorithms comprise convolved neural networks (Convolutional Neural Network, CNN) and/or histogram-based algorithms;
- generating (S80) evaluation results (580) for validating at least one function of the ADAS system (230).
Description
Die Erfindung betrifft ein Verfahren, ein System und ein Computerprogrammprodukt zur automatisierten Validierung von Funktionen eines Fahrerassistenzsystems.The invention relates to a method, a system and a computer program product for the automated validation of functions of a driver assistance system.
Moderne Fahrerassistenzsysteme (Advanced Driver Assistance Systems, ADAS) umfassen eine Reihe von Technologien zur Verbesserung der Fahrzeugsicherheit und des Fahrkomforts. ADAS-Systeme nutzen verschiedene Sensoren, Kameras und Algorithmen, um die Fahrzeugumgebung zu analysieren und den Fahrer in Echtzeit zu unterstützen. Zu diesem Zweck umfasst das ADAS-System eine Vielzahl von Funktionen, die ständig weiterentwickelt werden, um die Fahrzeugsicherheit und den Fahrkomfort weiter zu verbessern.Modern Advanced Driver Assistance Systems (ADAS) include a range of technologies to improve vehicle safety and driving comfort. ADAS systems use various sensors, cameras and algorithms to analyze the vehicle environment and assist the driver in real time. To this end, the ADAS system includes a variety of functions that are constantly being developed to further improve vehicle safety and driving comfort.
Eine typische Funktion ist die adaptive Geschwindigkeitsregelung (Adaptive Cruise Control, ACC), die Radar- oder Lasersensoren verwendet, um einen sicheren Abstand zum vorausfahrenden Fahrzeug zu halten. Sie passt die Geschwindigkeit des Fahrzeugs automatisch an den Verkehrsfluss an, so dass der Fahrer seine Geschwindigkeit nicht ständig anpassen muss. Eine weitere Funktion ist der Spurhalteassistent (Lane Departure Warning, LDW), der mit Hilfe von Kameras oder Sensoren ein unbeabsichtigtes Verlassen der Fahrspur erkennt. Der Fahrer wird durch optische, akustische oder haptische Signale gewarnt und aufgefordert, die Spur zu korrigieren. Eine weitere Funktion ist die automatische Notbremsung (Automatic Emergency Braking, AEB), bei der die Bremsen automatisch betätigt werden, um eine Kollision mit einem Fahrzeug oder einem Fußgänger zu vermeiden.A typical feature is adaptive cruise control (ACC), which uses radar or laser sensors to maintain a safe distance from the vehicle in front. It automatically adjusts the vehicle's speed to the flow of traffic so that the driver does not have to constantly adjust his speed. Another feature is lane departure warning (LDW), which uses cameras or sensors to detect unintentional lane departure. The driver is warned by visual, acoustic or haptic signals and prompted to correct the lane. Another feature is automatic emergency braking (AEB), which automatically applies the brakes to avoid a collision with a vehicle or pedestrian.
Eine weitere wichtige Funktion ist die Verkehrszeichenerkennung (Traffic Sign Recognition, TSR), bei der Kameras und Bilderkennungsalgorithmen genutzt werden, um Verkehrszeichen wie Geschwindigkeitsbegrenzungen, Stoppschilder und Hinweisschilder zu erkennen und zu interpretieren. Die entsprechenden Informationen können im Fahrzeug-Cockpit oder auf dem Head-up-Display anzeigt werden und den Fahrer an wichtige Verkehrsregeln erinnern. Zudem können durch die Verkehrszeichenerkennung andere Funktionen eines ADAS-Systems aktiviert werden. Nähert sich beispielsweise ein mit ADAS ausgestattetes Fahrzeug einem Stoppschild, erkennt der Verkehrszeichenalgorithmus das Schild und übermittelt die entsprechenden Informationen an das Steuersystem des Fahrzeugs. Das Steuersystem kann diese Informationen dann verwenden, um automatisch die Bremsen zu betätigen und das Fahrzeug zum Stillstand zu bringen. In ähnlicher Weise kann das ADAS-System beim Erkennen eines Geschwindigkeitsbegrenzungsschildes die Geschwindigkeit des Fahrzeugs anpassen, um sicherzustellen, dass die vorgeschriebene Höchstgeschwindigkeit eingehalten wird.Another important function is traffic sign recognition (TSR), which uses cameras and image recognition algorithms to detect and interpret traffic signs such as speed limits, stop signs and information signs. The relevant information can be displayed in the vehicle cockpit or on the head-up display, reminding the driver of important traffic rules. Traffic sign recognition can also activate other functions of an ADAS system. For example, when an ADAS-equipped vehicle approaches a stop sign, the traffic sign algorithm detects the sign and transmits the relevant information to the vehicle's control system. The control system can then use this information to automatically apply the brakes and bring the vehicle to a stop. Similarly, when a speed limit sign is detected, the ADAS system can adjust the vehicle's speed to ensure that the posted speed limit is observed.
Der Verkehrszeichenalgorithmus ist ein Algorithmus der maschinellen Bildverarbeitung zur Erkennung und Klassifizierung von Verkehrszeichen in Bildern oder Videoaufnahmen. Der Algorithmus verwendet eine Kombination aus Bildverarbeitungstechniken und Algorithmen des maschinellen Lernens, um Form, Farbe und Inhalt von Verkehrszeichen zu erkennen. Der Algorithmus besteht im Wesentlichen aus folgenden Verfahrensschritten:
- a) Vorverarbeitung: Das Bild- oder Videobild wird zunächst vorverarbeitet, um die Bildqualität zu verbessern, Rauschen zu reduzieren sowie Kontrast und Helligkeit des Bildes zu erhöhen.
- b) Merkmalsextraktion: Der Algorithmus extrahiert relevante Merkmale aus dem Bild, z.B. Farbe, Form und Textur, die zur Unterscheidung verschiedener Verkehrszeichentypen verwendet werden können.
- c) Klassifikation: Die extrahierten Merkmale werden einem maschinellen Lernalgorithmus zugeführt, z.B. einem neuronalen Netz, das mit einem Datensatz von Verkehrszeichenbildern trainiert wird, um die Verkehrszeichen im Eingabebild zu erkennen und zu klassifizieren.
- d) Nachbearbeitung: Nach der Erkennung und Klassifizierung der Verkehrszeichen können Nachbearbeitungstechniken eingesetzt werden, um falsch positive Ergebnisse zu entfernen, die Verkehrszeichen über die Zeit zu verfolgen und die Erkennungsgenauigkeit zu verbessern.
- a) Preprocessing: The image or video image is first preprocessed to improve the image quality, reduce noise and increase the contrast and brightness of the image.
- b) Feature extraction: The algorithm extracts relevant features from the image, e.g. color, shape and texture, which can be used to distinguish different traffic sign types.
- c) Classification: The extracted features are fed to a machine learning algorithm, e.g. a neural network, which is trained with a dataset of traffic sign images to detect and classify the traffic signs in the input image.
- d) Post-processing: After traffic signs are detected and classified, post-processing techniques can be used to remove false positives, track traffic signs over time, and improve detection accuracy.
Der Verkehrszeichenalgorithmus ist daher ein wesentlicher Bestandteil eines Fahrerassistenzsystems, da er in der Lage ist, eine Vielzahl von Verkehrszeichen zu erkennen und eine Reaktion des Fahrerassistenzsystems auszulösen, insbesondere bei Warn-, Regel- und Informationszeichen. Der Algorithmus muss genau und robust sein und unter verschiedenen Licht- und Wetterbedingungen funktionieren, um die korrekte Funktion des Fahrerassistenzsystems zu gewährleisten. Ein gut funktionierender Verkehrszeichenalgorithmus ist daher von entscheidender Bedeutung für die Verbesserung der Sicherheit und Effizienz von Fahrzeugen im Straßenverkehr.The traffic sign algorithm is therefore an essential component of a driver assistance system, as it is able to recognize a wide range of traffic signs and trigger a response from the driver assistance system, especially warning, regulatory and information signs. The algorithm must be accurate and robust and work under different lighting and weather conditions to ensure the correct functioning of the driver assistance system. A well-functioning traffic sign algorithm is therefore crucial for improving the safety and efficiency of vehicles on the road.
Um die Leistung, Funktionalität und Zuverlässigkeit eines ADAS-Systems und/oder einzelner Funktionen eines ADAS-Systems zu überprüfen, wird eine Validierung durchgeführt. Die Validierung eines ADAS-Systems umfasst ein komplexes Verfahren zur Prüfung und Verifizierung seiner Leistung, Funktionalität und Sicherheit. Ziel ist es, sicherzustellen, dass das ADAS-System wie vorgesehen funktioniert, die gesetzlichen Anforderungen erfüllt und den Fahrer zuverlässig unterstützt. Dabei wird jede einzelne Systemkomponente, z.B. die adaptive Geschwindigkeitsregelung, der Spurhalteassistent oder die Kollisionswarnung, sowohl einzeln als auch in Kombination getestet. Bei den Funktionstests wird geprüft, ob das ADAS-System korrekt arbeitet, dem Fahrer präzise Rückmeldungen gibt und auf verschiedene Szenarien angemessen reagiert. Ein wichtiger Aspekt ist dabei die Kalibrierung der Sensoren, um ihre Genauigkeit und Ausrichtung zu überprüfen und sicherzustellen, dass sie konsistente und zuverlässige Daten liefern.Validation is carried out to check the performance, functionality and reliability of an ADAS system and/or individual functions of an ADAS system. Validation of an ADAS system involves a complex procedure for testing and verifying its performance, functionality and safety. The aim is to ensure that the ADAS system functions as intended, meets the legal requirements and reliably supports the driver. Each individual system component, e.g. adaptive cruise control, lane departure warning or collision warning, is tested both individually and in combination. The functional tests check whether the ADAS system is working correctly, giving the driver precise feedback and reacting appropriately to different scenarios. An important aspect is the calibration of the sensors to check their accuracy and alignment and to ensure that they provide consistent and reliable data.
Um die verschiedenen Funktionen eines Fahrerassistenzsystems, wie z.B. den Verkehrszeichenalgorithmus, zu validieren, werden regelmäßig Testfahrten durchgeführt. Dabei werden verschiedene Testfälle verwendet, um sicherzustellen, dass das ADAS-System unter verschiedenen Bedingungen korrekt funktioniert. Diese Testfälle können simuliert oder in realen Umgebungen durchgeführt werden.To validate the various functions of an ADAS system, such as the traffic sign algorithm, test drives are performed regularly. Different test cases are used to ensure that the ADAS system works correctly under different conditions. These test cases can be simulated or performed in real environments.
Im Beispiel des Verkehrszeichenalgorithmus bewertet ein Testfahrer diesen aus Kundensicht. Auf Basis der Bewertung des Testfahrers erfolgt eine statistische Auswertung, die Aussagen über die Leistungsfähigkeit und die Art der Fehler ermöglicht. So wird z.B. überprüft, ob ein angezeigtes Verkehrszeichen, das z.B. über die Fahrzeugkamera erkannt oder aus Kartendaten abgerufen wurde, tatsächlich gültig ist. Diese Datenauswertung erfolgt manuell und ist daher zeit- und arbeitsintensiv. Dies liegt sowohl an der Datenmenge als auch an der Datenkomplexität, da ADAS-Systeme während der Testfahrt eine große Menge an Daten erzeugen, darunter Sensormesswerte, Kamerabilder, Fahrzeugparameter und Fahrereingaben, und zudem komplexe und mehrdimensionale Daten aufzeichnen, darunter Messwerte verschiedener bildgebender Sensoren wie Radar, Lidar und Kameras, die sich in ihrer Auflösung und Aufnahmequalität unterscheiden. Darüber hinaus können bei der manuellen Auswertung menschliche Fehler auftreten, indem kritische Details übersehen oder Informationen falsch interpretiert werden, was zu Ungenauigkeiten und Inkonsistenzen im Auswertungsprozess führt.In the example of the traffic sign algorithm, a test driver evaluates it from the customer's perspective. Based on the test driver's evaluation, a statistical evaluation is carried out that allows statements to be made about the performance and the type of errors. For example, it is checked whether a displayed traffic sign, which was recognized via the vehicle camera or retrieved from map data, is actually valid. This data evaluation is done manually and is therefore time- and labor-intensive. This is due to both the amount of data and the data complexity, as ADAS systems generate a large amount of data during the test drive, including sensor readings, camera images, vehicle parameters and driver inputs, and also record complex and multi-dimensional data, including readings from various imaging sensors such as radar, lidar and cameras, which differ in their resolution and recording quality. In addition, human errors can occur during manual evaluation by overlooking critical details or misinterpreting information, leading to inaccuracies and inconsistencies in the evaluation process.
Die
Die
Die
Die
Die
Der Erfindung liegt die Aufgabe zugrunde, Möglichkeiten aufzuzeigen, wie die Validierung eines ADAS-Systems automatisiert durchgeführt werden kann, um den Zeitaufwand für die manuelle Bewertung deutlich zu reduzieren und die Zuverlässigkeit und Genauigkeit der Validierung und damit des ADAS-Systems zu erhöhen.The invention is based on the object of showing possibilities how the validation of an ADAS system can be carried out automatically in order to significantly reduce the time required for manual evaluation and to increase the reliability and accuracy of the validation and thus of the ADAS system.
Diese Aufgabe wird hinsichtlich eines Verfahrens durch die Merkmale des Patentanspruchs 1, hinsichtlich eines Systems durch die Merkmale des Patentanspruchs 4, hinsichtlich eines ADAS-Systems durch die Merkmale des Patentanspruchs 5, und hinsichtlich eines Computerprogrammprodukts durch die Merkmale des Patentanspruchs 6 erfindungsgemäß gelöst. Die weiteren Ansprüche betreffen bevorzugte Ausgestaltungen der Erfindung.This object is achieved with respect to a method by the features of patent claim 1, with respect to a system by the features of patent claim 4, with respect to an ADAS system by the features of patent claim 5, and with regard to a computer program product by the features of patent claim 6. The further claims relate to preferred embodiments of the invention.
Die vorliegende Erfindung ermöglicht eine genaue und zuverlässige Validierung eines modernen Fahrerassistenzsystems (ADAS) durch den automatisierten Vergleich von Ground-Truth-Daten mit Testdaten eines ADAS-Systems mittels geeigneter Vergleichsalgorithmen. Eine genaue Validierung stellt sicher, dass das ADAS-System wie vorgesehen funktioniert, wodurch die allgemeine Verkehrssicherheit erhöht wird. Darüber hinaus kann die Leistungsfähigkeit des ADAS-Systems bewertet werden. Durch den Vergleich der Testdaten mit den Ground-Truth-Daten können Genauigkeit, Zuverlässigkeit und andere Leistungsindikatoren gemessen werden. Diese Bewertung hilft bei der Erkennung von Verbesserungsmöglichkeiten und der Feinabstimmung des ADAS-Systems für eine optimale Leistung.The present invention enables accurate and reliable validation of a modern driver assistance system (ADAS) by automatically comparing ground truth data with test data of an ADAS system using suitable comparison algorithms. Accurate validation ensures that the ADAS system functions as intended, thereby increasing overall road safety. In addition, the performance of the ADAS system can be evaluated. By comparing the test data with the ground truth data, accuracy, reliability and other performance indicators can be measured. This evaluation helps to identify opportunities for improvement and fine-tune the ADAS system for optimal performance.
Gemäß einem ersten Aspekt stellt die Erfindung ein Verfahren zur automatisierten Validierung von Funktionen eines Fahrerassistenzsystem (ADAS-System) bereit. Das Verfahren umfasst die Verfahrensschritte:
- - Aufnehmen von ersten Sensordaten durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer ersten Sensoreinrichtung eines Erprobungsfahrzeugs beim Befahren einer Fahrstrecke zum Testen zumindest einer Funktion eines ADAS-Systems, wobei die Kamera der ersten Sensoreinrichtung eine Digitalkamera mit Full-HD-Auflösung ist;
- - Bearbeiten der ersten Sensordaten von dem ADAS-System und Erzeugen von Testdaten mittels der bearbeiteten ersten Sensordaten;
- - Übertragen der Testdaten an ein Auswertemodul und/oder an eine erste Datenbank;
- - Aufnehmen von zweiten Sensordaten durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer zweiten Sensoreinrichtung eines Ground-Truth-Moduls beim Befahren einer Fahrstrecke, wobei die Kamera der zweiten Sensoreinrichtung eine Digitalkamera mit 4K-Auflösung ist, wobei die Sensoren der zweiten Sensoreinrichtung über eine höhere Leistungsfähigkeit hinsichtlich Auflösung, Bildfrequenz, Reichweite, Rechenressourcen als die Sensoren der ersten Sensoreinrichtung verfügen;
- - Bearbeiten der zweiten Sensordaten von einer Softwareapplikation und Erzeugen von Ground-Truth-Daten mittels der bearbeiteten zweiten Sensordaten;
- - Übertragen der Ground-Truth-Daten an das Auswertemodul und/oder an eine zweite Datenbank;
- - Vergleichen der Testdaten mit den Ground-Truth-Daten durch eine Softwareapplikation, wobei die Softwareapplikation Vergleichsalgorithmen umfasst, wobei die Vergleichsalgorithmen gefaltete neuronale Netze (Convolutional Neural Network, CNN) und/oder histogrammbasierte Algorithmen verwenden;
- - Erzeugen von Auswerteergebnissen zur Validierung der zumindest einen Funktion des ADAS-Systems.
- - Recording first sensor data by at least one sensor such as a camera, a lidar system and/or a radar system of a first sensor device of a test vehicle when driving along a route for testing at least one function of an ADAS system, wherein the camera of the first sensor device is a digital camera with full HD resolution;
- - Processing the first sensor data from the ADAS system and generating test data using the processed first sensor data;
- - Transferring the test data to an evaluation module and/or to a first database;
- - Recording second sensor data by at least one sensor such as a camera, a lidar system and/or a radar system of a second sensor device of a ground truth module when driving along a route, wherein the camera of the second sensor device is a digital camera with 4K resolution, wherein the sensors of the second sensor device have a higher performance in terms of resolution, frame rate, range, computing resources than the sensors of the first sensor device;
- - processing the second sensor data by a software application and generating ground truth data using the processed second sensor data;
- - Transferring the ground truth data to the evaluation module and/or to a second database;
- - comparing the test data with the ground truth data by a software application, wherein the software application comprises comparison algorithms, wherein the comparison algorithms use convolutional neural networks (CNN) and/or histogram-based algorithms;
- - Generating evaluation results to validate at least one function of the ADAS system.
In einer Weiterbildung ist vorgesehen, dass eine Funktion des ADAS-Systems ein Verkehrszeichenalgorithmus ist.In a further development, one function of the ADAS system is a traffic sign algorithm.
Vorteilhafterweise ist/sind die erste Datenbank und/oder die zweite Datenbank und/oder das Auswertemodul in einer Cloud-Computing-Infrastruktur integriert.Advantageously, the first database and/or the second database and/or the evaluation module is/are integrated in a cloud computing infrastructure.
Gemäß einem zweiten Aspekt stellt die Erfindung ein System zur automatisierten Validierung von Funktionen eines Fahrerassistenzsystem (ADAS-System bereit. According to a second aspect, the invention provides a system for the automated validation of functions of a driver assistance system (ADAS system).
Das System umfasst ein Erprobungsfahrzeug mit einem ADAS-System und einer ersten Sensoreinrichtung mit mindestens einem Sensor wie einer Kamera, einem Lidarsystem und/oder einem Radarsystem, wobei die Kamera der ersten Sensoreinrichtung eine Digitalkamera mit Full-HD-Auflösung ist, ein Ground-Truth-Modul mit einer Softwareapplikation und einer zweiten Sensoreinrichtung und ein Auswertemodul mit einer Softwareapplikation. Die erste Sensoreinrichtung ist ausgebildet, beim Befahren einer Fahrstrecke durch das Erprobungsfahrzeug zum Testen zumindest einer Funktion eines ADAS-Systems erste Sensordaten aufzunehmen. Das ADAS-System ist ausgebildet, die ersten Sensordaten zu bearbeiten zur Erzeugung von Testdaten und die Testdaten an das Auswertemodul zu übertragen. Die zweite Sensoreinrichtung ist ausgebildet, zweite Sensordaten durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem beim Befahren einer Fahrstrecke aufzunehmen, wobei die Kamera der zweiten Sensoreinrichtung eine Digitalkamera mit 4K-Auflösung ist, und wobei die Sensoren der zweiten Sensoreinrichtung über eine höhere Leistungsfähigkeit hinsichtlich Auflösung, Bildfrequenz, Reichweite, Rechenressourcen als die Sensoren der ersten Sensoreinrichtung verfügen. Die Softwareapplikation ist ausgebildet, die zweiten Sensordaten zu bearbeiten zur Erzeugung von Ground-Truth-Daten und die Ground-Truth-Daten an das Auswertemodul zu übertragen. Die Softwareapplikation umfasst Vergleichsalgorithmen und ist ausgebildet, die Testdaten mit den Ground-Truth-Daten zu vergleichen und Auswerteergebnisse zur Validierung der zumindest einen Funktion des ADAS-Systems zu erzeugen, und wobei die Vergleichsalgorithmen gefaltete neuronale Netze (Convolutional Neural Network, CNN) und/oder histogrammbasierte Algorithmen verwenden.The system comprises a test vehicle with an ADAS system and a first sensor device with at least one sensor such as a camera, a lidar system and/or a radar system, the camera of the first sensor device being a digital camera with full HD resolution, a ground truth module with a software application and a second sensor device and an evaluation module with a software application. The first sensor device is designed to record first sensor data when the test vehicle travels a route to test at least one function of an ADAS system. The ADAS system is designed to process the first sensor data to generate test data and to transmit the test data to the evaluation module. The second sensor device is designed to record second sensor data by at least one sensor such as a camera, a lidar system and/or a radar system when traveling a route, the camera of the second sensor device being a digital camera with 4K resolution, and the sensors of the second sensor device having a higher performance in terms of resolution, frame rate, range and computing resources than the sensors of the first sensor device. The software application is designed to process the second sensor data to generate ground truth data and to transmit the ground truth data to the evaluation module. The software application includes comparison algorithms and is designed to compare the test data with the ground truth data and to generate evaluation results for validating the at least one function of the ADAS system, and wherein the comparison algorithms use convolutional neural networks (CNN) and/or histogram-based algorithms.
Gemäß einem dritten Aspekt stellt die Erfindung ein ADAS-System für ein Kraftfahrzeug bereit, dass zur Erkennung von Verkehrszeichen mit einem Hauptverkehrszeichen und einem Zusatzzeichen das Verfahren gemäß dem ersten Aspekt verwendet.According to a third aspect, the invention provides an ADAS system for a motor vehicle which uses the method according to the first aspect for recognizing traffic signs having a main traffic sign and an additional sign.
Gemäß einem vierten Aspekt stellt die Erfindung ein Computerprogrammprodukt bereit, das einen ausführbaren Programmcode umfasst, der derart konfiguriert ist, dass er bei seiner Ausführung das Verfahren gemäß dem ersten Aspekt ausführt.According to a fourth aspect, the invention provides a computer program product comprising an executable program code configured to carry out the method according to the first aspect when executed.
Nachfolgend wird die Erfindung anhand von in der Zeichnung dargestellten Ausführungsbeispielen näher erläutert.The invention is explained in more detail below with reference to embodiments shown in the drawing.
Dabei zeigt:
-
1 ein Blockdiagramm zur Erläuterung eines Ausführungsbeispiels eines erfindungsgemäßen Systems; -
2 ein Flussdiagramm zur Erläuterung der einzelnen Verfahrensschritte eines erfindungsgemäßen Verfahrens; -
3 ein Blockdiagramm eines Computerprogrammprodukt gemäß einer Ausführungsform des dritten Aspekts der Erfindung.
-
1 a block diagram for explaining an embodiment of a system according to the invention; -
2 a flow chart explaining the individual method steps of a method according to the invention; -
3 a block diagram of a computer program product according to an embodiment of the third aspect of the invention.
Weitere Merkmale, Aspekte und Vorteile der Erfindung bzw. ihrer Ausführungsbeispiele werden in der nachfolgenden Beschreibung in Verbindung mit den Patentansprüchen erläutert.Further features, aspects and advantages of the invention or its embodiments are explained in the following description in conjunction with the patent claims.
Im Zusammenhang mit der Erfindung bezieht sich der Begriff „Ground Truth“ auf die objektiv bekannten und korrekten Werte oder Bilder, die mit einem bestimmten Datensatz verbunden sind. Die Ground-Truth-Daten 380 stellen genaue und zuverlässige Informationen dar, mit denen die Ergebnisse des ADAS-Systems 230 beim Fahren des Erprobungsfahrzeugs 100 auf einer Teststrecke verglichen und bewertet werden.In the context of the invention, the term "ground truth" refers to the objectively known and correct values or images associated with a specific data set. The
Die Ground-Truth-Daten 380 dienen als Referenz oder Benchmark, um die Leistung und Genauigkeit eines zu testenden ADAS-Systems (System under Test, SUT) zu bewerten. Für einen Verkehrszeichenalgorithmus, der verschiedene Bildklassifizierungsaufgaben erfüllen muss, liefern die Ground-Truth-Daten 380 die richtige Klasse oder Kategorie für jedes Bild in einem Datensatz und damit auch die Vorhersage des richtigen Verkehrszeichens. Die Erkennung von Verkehrszeichen durch das ADAS-System 230 während der Fahrt auf einer Teststrecke kann mit den Ground-Truth-Daten 380 verglichen werden, um die Genauigkeit und Präzision der Verkehrszeichenerkennung oder andere Leistungsindikatoren des Verkehrszeichenalgorithmus zu messen.The
Im Rahmen der vorliegenden Erfindung werden die Ground-Truth-Daten 380 insbesondere durch die hochauflösende zweite Sensorvorrichtung 350 erzeugt. Es ist jedoch auch möglich, dass die Ground-Truth-Daten 380 aus anderen relevanten Quellen gewonnen werden.In the context of the present invention, the
Das ADAS-System 230, die erste Sensoreinrichtung 250, die erste Datenbank 290, das Ground-Truth-Modul 300, die zweite Sensoreinrichtung 300, die zweite Datenbank 390, das Auswertemodul 500 und das Ausgabemodul 700 können jeweils mit einem Prozessor und/oder einer Speichereinheit ausgestattet sein. Sie können aber auch in einer gemeinsamen Recheneinheit, insbesondere in dem Erprobungsfahrzeug 200, integriert sein.The
Unter einem „Modul“ kann im Zusammenhang mit der Erfindung beispielsweise ein Prozessor und/oder eine Prozessoreinheit und/oder eine Speichereinheit zum Speichern von Programmbefehlen verstanden werden. Der Prozessor ist speziell dafür eingerichtet, die Programmbefehle auszuführen, um das erfindungsgemäße Verfahren oder einen Schritt des erfindungsgemäßen Verfahrens auszuführen oder zu realisieren. Insbesondere kann ein Modul in einer Cloud-Computing-Infrastruktur integriert sein. Es kann aber auch vorgesehen sein, dass eine Rechnereinheit, wie z. B. ein Prozessor, mehrere Module umfasst.In the context of the invention, a "module" can be understood as, for example, a processor and/or a processor unit and/or a memory unit for storing program instructions. The processor is specially designed to execute the program instructions in order to carry out or implement the method according to the invention or a step of the method according to the invention. In particular, a module can be integrated into a cloud computing infrastructure. However, it can also be provided that a computer unit, such as a processor, comprises several modules.
Unter einem „Prozessor“ kann im Zusammenhang mit der Erfindung beispielsweise eine Maschine oder eine elektronische Schaltung verstanden werden. Ein Prozessor kann insbesondere ein Hauptprozessor (engl. Central Processing Unit, CPU), ein Mikroprozessor oder ein Mikrocontroller sein, z.B. ein anwendungsspezifischer integrierter Schaltkreis oder ein digitaler Signalprozessor, möglicherweise in Kombination mit einer Speichereinheit zum Speichern von Programmbefehlen etc. Ein Prozessor kann auch ein virtualisierter Prozessor, eine virtuelle Maschine oder eine Soft-CPU sein.In the context of the invention, a “processor” can be understood as meaning, for example, a machine or an electronic circuit. A processor can in particular be a central processing unit (CPU), a microprocessor or a microcontroller. , e.g. an application-specific integrated circuit or a digital signal processor, possibly in combination with a memory unit for storing program instructions, etc. A processor can also be a virtualized processor, a virtual machine or a soft CPU.
Unter einer „Speichereinheit“ oder einem „Speichermodul“ kann im Zusammenhang mit der Erfindung z.B. ein flüchtiger Speicher in Form eines Arbeitsspeichers (engl. Random Access Memory, RAM) oder ein permanenter Speicher wie eine Festplatte oder ein Datenträger oder z.B. ein austauschbares Speichermodul verstanden werden. Das Speichermodul kann auch als eine Cloud-Speicherlösung ausgebildet sein.In the context of the invention, a "memory unit" or a "memory module" can be understood as, for example, a volatile memory in the form of a random access memory (RAM) or a permanent memory such as a hard disk or a data carrier or, for example, an exchangeable memory module. The memory module can also be designed as a cloud storage solution.
Unter „Daten“ sind im Zusammenhang mit der Erfindung sowohl Rohdaten als auch bereits aufbereitete Daten aus Messergebnissen von Sensoren wie Kameras sowie aus anderen Datenquellen zu verstehen.In the context of the invention, “data” means both raw data and already processed data from measurement results from sensors such as cameras and from other data sources.
Insbesondere können die erste Datenbank 290, die zweite Datenbank 390 und das Auswertemodul 500 in einer Cloud-Computing-Infrastruktur integriert sein. Ebenso können Komponenten des Ground-Truth-Moduls 300, wie beispielsweise eine Recheneinheit zur Erzeugung der Ground-Truth-Daten 380, in der Cloud-Computing-Infrastruktur untergebracht sein. Dadurch kann ein schnelles Berechnungsergebnis erzielt werden, da Cloud-basierte Lösungen den Vorteil hoher und damit schneller Rechenleistung bieten.In particular, the
Der Begriff Cloud Computing-Infrastruktur bezieht sich auf die Gesamtheit der Hardware-, Software-, Netzwerk- und Speicherressourcen, die zur Unterstützung von Cloud Computing-Diensten eingesetzt werden. Die Cloud Computing-Infrastruktur bietet eine Plattform für die Bereitstellung einer breiten Palette von Diensten, darunter Datenspeicherung und -verwaltung, Anwendungsentwicklung und -bereitstellung sowie virtuelle Rechenressourcen. Sie umfasst Dienste zur Bereitstellung von Rechenressourcen wie Rechenleistung und Speicher zur Unterstützung von Cloud-basierten Anwendungen. Um Daten und Anwendungen vor unberechtigtem Zugriff zu schützen, werden Sicherheitstechnologien wie Firewalls, Verschlüsselung und Werkzeuge für das Identitäts- und Zugriffsmanagement eingesetzt. Eine Cloud Computing-Infrastruktur kann die Rechenleistung und die Geschwindigkeit der Datenverarbeitung deutlich erhöhen.The term cloud computing infrastructure refers to the set of hardware, software, network, and storage resources used to support cloud computing services. Cloud computing infrastructure provides a platform for delivering a wide range of services, including data storage and management, application development and deployment, and virtual computing resources. It includes services for providing computing resources such as processing power and storage to support cloud-based applications. Security technologies such as firewalls, encryption, and identity and access management tools are used to protect data and applications from unauthorized access. Cloud computing infrastructure can significantly increase computing power and the speed of data processing.
Ferner sind Kommunikationsverbindungen für den Austausch und die Übertragung von Daten zwischen den einzelnen Modulen vorgesehen, die insbesondere als drahtlose Kommunikationsverbindung, z.B. als Mobilfunkverbindung, und/oder als Nahfeldkommunikationsverbindung, z.B. Bluetooth®, Ethernet, NFC (near field communication) oder Wi-Fi®, ausgebildet sind. Insbesondere sind für die Kommunikationsverbindung zwischen dem Fahrzeug 200 und einer Cloud-Computing-Infrastruktur 5G oder 6G Funkmodule vorgesehen. Dies gilt ebenso für die Kommunikationsverbindung zwischen dem Ground-Truth-Modul 300 und einer Cloud-Computing-Infrastruktur. Um die Verbindung zur Cloud-Computing-Infrastruktur über eine Mobilfunkverbindung zu schützen, können zudem kryptographische Verschlüsselungsverfahren vorgesehen werden.Furthermore, communication connections are provided for the exchange and transmission of data between the individual modules, which are designed in particular as a wireless communication connection, e.g. as a mobile radio connection, and/or as a near-field communication connection, e.g. Bluetooth®, Ethernet, NFC (near field communication) or Wi-Fi®. In particular, 5G or 6G radio modules are provided for the communication connection between the
Das Erprobungsfahrzeug 200 umfasst die erste Sensoreinrichtung 250, die Daten für das ADAS-System 230 liefert. Die erste Sensoreinrichtung 250 umfasst eine oder mehrere Kameras, die im Fahrzeug 200 angeordnet sind. Diese Kameras verwenden in der Regel unterschiedliche Bildgebungstechnologien und sind an verschiedenen Stellen des Fahrzeugs angeordnet, um eine umfassende Sicht auf die Umgebung zu ermöglichen. Der in Fahrerassistenzsystemen am häufigsten verwendete Kameratyp ist eine nach vorn gerichtete Kamera, die an der Fahrzeugfront angebracht ist und andere Fahrzeuge, Fußgänger und Hindernisse im Fahrweg des Fahrzeugs erkennt und erfasst. Sie wird häufig für Funktionen wie Spurhalteassistent, automatische Notbremsung und adaptive Geschwindigkeitsregelung eingesetzt. Es gibt auch eine nach hinten gerichtete Kamera, die normalerweise am Heck des Fahrzeugs angebracht ist und den Bereich hinter dem Fahrzeug einschließlich anderer Fahrzeuge, Fußgänger und Hindernisse erfasst. Sie wird häufig für Funktionen wie Rückfahrkameras und Querverkehrswarner verwendet. Auch Seitenkameras können eingesetzt werden. Diese Kameras sind in der Regel seitlich am Fahrzeug angebracht und erfassen Bereiche, die der Fahrer über die Spiegel nicht einsehen kann. Sie werden häufig für Funktionen wie die Erkennung verdeckter Bereiche und den Spurwechselassistenten eingesetzt. Zusätzlich können Rundumsichtkameras zum Einsatz kommen. Diese Kameras sind in der Regel an mehreren Seiten des Fahrzeugs angebracht und bieten einen 360-Grad-Blick auf die Umgebung des Fahrzeugs. Sie werden häufig für Funktionen wie Einparkhilfe und Kollisionsvermeidung eingesetzt.The
Die Kameras der ersten Sensoreinrichtung 250 sind typischerweise als RGB-Kameras ausgeführt. Eine RGB-Kamera ist eine Digitalkamera, die Farbinformationen im sichtbaren Bereich des elektromagnetischen Spektrums erfasst und in drei Kanäle aufteilt: Rot, Grün und Blau (RGB). Diese drei Kanäle werden dann kombiniert, um das gesamte Farbspektrum des Bildes zu erzeugen. Die Kameras arbeiten im sichtbaren Spektralbereich, der den für das menschliche Auge wahrnehmbaren Wellenlängenbereich umfasst (ca. 400 bis 700 Nanometer). Einige Kameras können jedoch auch im infraroten oder ultravioletten Spektrum arbeiten, was für Anwendungen wie Nachtsicht oder die Erkennung bestimmter Arten von Gefahren nützlich sein kann. IR-Kameras nutzen die Infrarotbildtechnik, um die Umgebung bei schlechten oder fehlenden Lichtverhältnissen, z. B. nachts oder in Tunneln, zu erfassen. Sie werden häufig für Funktionen wie Nachtsicht und Fußgängererkennung eingesetzt.The cameras of the
Darüber hinaus kann die erste Sensorausstattung 250 ein Lidarsystem und/oder ein Radarsystem umfassen. Ein Lidarsystem (Light Detection and Ranging) ist eine Fernerkundungstechnologie, die Entfernungen misst und hochauflösende 3D-Karten der Umgebung erstellt. Ein Lidarsystem besteht in der Regel aus einem Lasersender, der Laserstrahlen aussendet, in der Regel im Infrarotspektrum. Diese Laserstrahlen werden auf die Umgebung des Fahrzeugs gerichtet. Ein Scanner, z.B. ein rotierender Spiegel, lenkt die Laserstrahlen des Lasersenders in verschiedene Richtungen. Dadurch kann das Lidarsystem ein großes Sichtfeld abdecken. Die von den Objekten in der Umgebung reflektierten Laserstrahlen werden von einem Photodetektor empfangen. Die vom Photodetektor empfangenen Signale werden von einer speziellen Signalverarbeitungseinheit verarbeitet. Sie analysiert die Laufzeitinformationen, die Intensität der reflektierten Laserstrahlen und weitere Daten, um eine detaillierte 3D-Karte der Umgebung einschließlich der Positionen und Formen der Objekte zu erstellen. Lidarsysteme liefern hochauflösende und genaue 3D-Karten und ermöglichen die präzise Erkennung, Lokalisierung und Verfolgung von Objekten. Sie sind effektiv bei der Erkennung und Identifizierung von Objekten wie Fahrzeugen, Fußgängern und Hindernissen unter verschiedenen Fahrbedingungen.In addition, the
Ein Radarsystem (Radio Detection and Ranging, Radar) ist eine Sensortechnologie, die Radiowellen zur Erkennung und Lokalisierung von Objekten verwendet. Ein Radarsystem verfügt über eine Antenne zum Senden und Empfangen von Radiowellen. Sie sendet die Radiowellen vom Radarsender aus und empfängt die von Objekten in der Umgebung zurückgesendeten Wellen. Ein Signalprozessor analysiert die empfangenen Signale und extrahiert relevante Informationen wie Zeitverzögerung, Frequenzverschiebung und Intensität der reflektierten Wellen. Durch die Analyse der Frequenzverschiebung der empfangenen Wellen (Dopplereffekt) und der Zeitverzögerung kann das Radarsystem die relative Geschwindigkeit und Entfernung von Objekten abschätzen. Diese Informationen helfen, die Anwesenheit, den Ort und die Bewegung von Objekten wie Fahrzeugen oder Fußgängern zu bestimmen. Radarsysteme liefern genaue Abstandsmessungen und eine zuverlässige Objekterkennung. Sie sind besonders bei ungünstigen Witterungsbedingungen, die die Sicht einschränken können, nützlich, da Radiowellen im Vergleich zu anderen Sensortechnologien weniger durch Faktoren wie Regen, Nebel oder Staub beeinträchtigt werden.A radio detection and ranging (radar) system is a sensor technology that uses radio waves to detect and locate objects. A radar system has an antenna to transmit and receive radio waves. It sends the radio waves out from the radar transmitter and receives the waves returned by objects in the surrounding area. A signal processor analyzes the received signals and extracts relevant information such as time delay, frequency shift, and intensity of the reflected waves. By analyzing the frequency shift of the received waves (Doppler effect) and the time delay, the radar system can estimate the relative speed and distance of objects. This information helps determine the presence, location, and movement of objects such as vehicles or pedestrians. Radar systems provide accurate distance measurements and reliable object detection. They are especially useful in adverse weather conditions that can limit visibility, as radio waves are less affected by factors such as rain, fog, or dust compared to other sensor technologies.
Sowohl Kameras, Lidarsysteme als auch Radarsysteme haben ihre Stärken und Grenzen, und die Kombination von Informationen aus mehreren Erfassungsmodalitäten wird in ADAS-Systemen genutzt, um die Gesamtwahrnehmung zu verbessern und die Genauigkeit und Zuverlässigkeit der Objekterkennung und -verfolgung zu erhöhen. Darüber hinaus können im Rahmen der Erfindung noch weitere Sensortypen wie Ultraschallsensoren verwendet werden.Cameras, lidar systems and radar systems all have their strengths and limitations, and the combination of information from multiple sensing modalities is used in ADAS systems to improve overall perception and increase the accuracy and reliability of object detection and tracking. In addition, other types of sensors such as ultrasonic sensors can be used within the scope of the invention.
Das zweite Sensorsystem 350 enthält im Wesentlichen die gleichen Sensortypen wie Kameras und/oder ein Lidarsystem und/oder ein Radarsystem. Die Auflösung der einzelnen Sensoren ist jedoch deutlich höher und auch die Anzahl der Sensoren kann größer sein.The
Die Auflösung einer Kamera bezieht sich auf die Anzahl der Pixel, aus denen das von der Kamera aufgenommene Bild besteht. Eine Kamera mit einer höheren Auflösung nimmt detailliertere und schärfere Bilder auf als eine Kamera mit einer niedrigeren Auflösung. Die Auflösung einer Kamera wird normalerweise durch die Anzahl der horizontalen und vertikalen Pixel im Bild ausgedrückt, z. B. 1920 x 1080 (auch als Full HD bekannt) oder 3840 x 2160 (auch als 4K bekannt). Für die erste Sensoreinrichtung 250 werden typischerweise Full-HD-Kameras verwendet, da die erforderliche Rechenleistung und die Speicherkapazität für die Bildverarbeitung einer 4K-Kamera im Fahrzeug zu groß sind. Für die zweite Sensoreinrichtung 350 des Ground-Truth-Moduls 300 werden hingegen 4K-Kameras eingesetzt, da hier eine deutlich höhere Auflösung gewünscht ist und das Ground-Truth-Modul 300 über größere Rechenressourcen verfügt, entweder direkt durch entsprechende Prozessoren oder durch die Einbindung in eine Cloud-Computing-Infrastruktur.The resolution of a camera refers to the number of pixels that make up the image captured by the camera. A camera with a higher resolution captures more detailed and sharper images than a camera with a lower resolution. The resolution of a camera is usually expressed by the number of horizontal and vertical pixels in the image, e.g. 1920 x 1080 (also known as Full HD) or 3840 x 2160 (also known as 4K). Full HD cameras are typically used for the
Die Bildaufnahmefrequenz einer Fahrzeugkamera für ein ADAS-System 230 bezieht sich auf die Rate, mit der die Kamera Bilder pro Sekunde aufnimmt und speichert. Dieser Parameter wird auch als Bildrate oder Bilder pro Sekunde (FPS) bezeichnet und ist ein wichtiges Kriterium bei der Auswahl einer Kamera für ADAS-Anwendungen. Eine höhere Bildrate bedeutet, dass die Kamera mehr Bilder pro Sekunde aufnehmen und speichern kann, was eine flüssigere und detailliertere Darstellung der Umgebung ermöglicht. Auch hier haben die Kameras der zweiten Sensoreinrichtung 350 eine höhere Bildrate als die Kameras der ersten Sensoreinrichtung 250. Typische Bildraten für Kameras der ersten Sensoreinrichtung 250 für ADAS-Anwendungen liegen zwischen 30 und 60 Bildern pro Sekunde, während die leistungsfähigeren Kameras der zweiten Sensoreinrichtung 350 bis zu 120 Bilder pro Sekunde aufnehmen können. Durch die höhere Bildrate können die Kameras der zweiten Sensoreinrichtung 350 Faktoren wie die Fahrzeuggeschwindigkeit deutlich besser berücksichtigen und damit die Komplexität der Umgebung genauer und mit höherer Auflösung abbilden.The frame rate of a vehicle camera for an
Höhere Bildraten erhöhen die Anforderungen an die Speicherung und Verarbeitung der aufgenommenen Bilddaten. Wie bereits erwähnt, verfügt das Ground-Truth-Modul 300 über solche Rechenressourcen, während ein herkömmliches ADAS-System 230 nicht mit solchen Rechenressourcen ausgestattet ist, da dies die Gesamtkosten und auch die Komplexität des ADAS-Systems 230 deutlich erhöhen würde. Bei der Auswahl einer Kamera für ein fahrzeugbasiertes ADAS-System 230 muss daher eine Balance zwischen Bildaufnahmefrequenz, Bildqualität und Systemanforderungen gefunden werden, um eine optimale Leistung und Effizienz zu gewährleisten. Für die Validierung des ADAS-Systems 230 bedeutet dies jedoch, dass die Auslegung des im Fahrzeug installierten Kamerasystems nicht ausreicht, um allein auf der Grundlage der von der ersten Sensoreinrichtung 250 gelieferten Daten eine zufriedenstellende Bewertung der Zuverlässigkeit des ADAS-Systems 230 vornehmen zu können.Higher frame rates increase the requirements for storing and processing the captured image data. As already mentioned, the
Diese Überlegungen gelten gleichermaßen für Lidar- und Radarsysteme. Die Hauptunterschiede zwischen hochauflösenden Lidar- und Radarsystemen und Systemen mit niedriger Auflösung liegen in der Detailgenauigkeit und der Reichweite. So erfassen hochauflösende Lidarsysteme ein detaillierteres Bild der Umgebung. Sie senden eine größere Anzahl von Laserstrahlen aus und weisen eine höhere Punktdichte in der resultierenden Punktwolke auf, was eine detailliertere Objekterkennung ermöglicht, z.B. die Unterscheidung kleiner Objekte oder die Erfassung komplizierter Objektformen. Im Gegensatz dazu haben Lidar-Systeme mit niedriger Auflösung weniger Laserstrahlen und erzeugen Punktwolken mit weniger Datenpunkten, was zu einem geringeren Detailgrad führt. Hochauflösende Lidar-Systeme bieten daher in der Regel eine höhere Genauigkeit bei der Entfernungsmessung und Objektlokalisierung. Sie können kleinere Entfernungen messen und Objekte mit größerer Genauigkeit erkennen, was zu einer genaueren Darstellung der Umgebung führt. Lidarsysteme mit geringerer Auflösung können aufgrund größerer Messintervalle und begrenzter Punktdichte eine geringere Genauigkeit aufweisen. Allerdings kann die Reichweite hochauflösender Lidarsysteme im Vergleich zu Systemen mit geringerer Auflösung geringer sein. Während sie in der Lage sind, detaillierte Informationen innerhalb einer begrenzten Reichweite zu erfassen, kann ihre Fähigkeit, Objekte in größerer Entfernung zu erkennen, beeinträchtigt sein. Niedrigauflösende Lidarsysteme können dagegen einen größeren Bereich abdecken, allerdings mit geringerer Auflösung und Detailgenauigkeit.These considerations apply equally to lidar and radar systems. The main differences between high-resolution lidar and radar systems and low-resolution systems are the level of detail and range. For example, high-resolution lidar systems capture a more detailed image of the environment. They emit a larger number of laser beams and have a higher point density in the resulting point cloud, allowing for more detailed object detection, e.g. distinguishing small objects or detecting complicated object shapes. In contrast, low-resolution lidar systems have fewer laser beams and produce point clouds with fewer data points, resulting in a lower level of detail. High-resolution lidar systems therefore typically offer higher accuracy in ranging and object localization. They can measure smaller distances and detect objects with greater accuracy, resulting in a more accurate representation of the environment. Lower-resolution lidar systems may have lower accuracy due to larger measurement intervals and limited point density. However, the range of high-resolution lidar systems may be lower compared to lower-resolution systems. While they are capable of capturing detailed information within a limited range, their ability to detect objects at greater distances may be compromised. Low-resolution lidar systems, on the other hand, can cover a larger area, but with lower resolution and detail.
Radarsysteme haben in der Regel eine geringere Auflösung als Lidarsysteme. Hochauflösende Radarsysteme verwenden jedoch fortgeschrittene Signalverarbeitungstechniken und anspruchsvollere Antennenanordnungen, um die Auflösung zu verbessern. Sie können detailliertere Informationen über Objekte liefern, z.B. über deren Größe, Form und Bewegungsmuster. Radarsysteme mit geringerer Auflösung haben weniger Antennenelemente und können feinere Details nicht so gut erfassen. Hochauflösende Radarsysteme bieten daher eine höhere Genauigkeit bei der Erkennung und Verfolgung von Objekten. Sie können genaue Messungen von relativen Geschwindigkeiten, Winkeln und Positionen liefern und ermöglichen so eine bessere Abschätzung der Flugbahn von Objekten. Radarsysteme mit geringerer Auflösung können eine geringere Genauigkeit aufweisen und unterliegen bestimmten Einschränkungen, z. B. eine geringere Genauigkeit bei der Geschwindigkeitsmessung. In Bezug auf die Reichweite können hochauflösende Radarsysteme eine bessere Auflösung und Genauigkeit über größere Entfernungen beibehalten, während Systeme mit geringerer Auflösung eine schlechtere Leistung bei der Erkennung und Verfolgung aufweisen können.Radar systems typically have lower resolution than lidar systems. However, high-resolution radar systems use advanced signal processing techniques and more sophisticated antenna arrays to improve resolution. They can provide more detailed information about objects, such as their size, shape, and movement patterns. Lower-resolution radar systems have fewer antenna elements and cannot capture finer details as well. High-resolution radar systems therefore provide greater accuracy in detecting and tracking objects. They can provide accurate measurements of relative speeds, angles, and positions, allowing a better estimate of the trajectory of objects. Lower-resolution radar systems may have lower accuracy and are subject to certain limitations, such as lower accuracy in measuring speed. In terms of range, high-resolution radar systems can maintain better resolution and accuracy over longer distances, while lower-resolution systems may have poorer detection and tracking performance.
Hochauflösende Lidar- und Radarsysteme bieten im Vergleich zu Systemen mit niedriger Auflösung feinere Details, höhere Genauigkeit und bessere Lokalisierungsmöglichkeiten. Niedrigauflösende Systeme bieten jedoch häufig eine größere Abdeckung und einen größeren Erfassungsbereich und eignen sich daher für bestimmte Anwendungen, bei denen eine hohe Detailgenauigkeit nicht unbedingt erforderlich oder machbar ist. Die Wahl zwischen hoch- und niedrigauflösenden Systemen hängt von den spezifischen Anforderungen der ADAS-Anwendung und dem Kompromiss zwischen Auflösung, Genauigkeit, Reichweite und Kosten ab.High-resolution lidar and radar systems offer finer detail, higher accuracy, and better localization capabilities compared to low-resolution systems. However, low-resolution systems often offer greater coverage and detection range, making them suitable for certain applications where high levels of detail are not necessarily required or feasible. The choice between high-resolution and low-resolution systems depends on the specific requirements of the ADAS application and the trade-off between resolution, accuracy, range, and cost.
Um die Funktionen des ADAS-Systems 230 zu testen, nimmt die erste Sensoreinrichtung 250 beim Befahren einer Teststrecke mit einer Vielzahl von Verkehrsszenarien erste Sensordaten 270 aus der Umgebung des Fahrzeugs 200 auf und sendet sie an das ADAS-System 230, das auf diese ersten Sensordaten 270 reagiert und daraus Testdaten 280 erzeugt. Wie beschrieben, umfasst die erste Sensoreinrichtung 230 mindestens eine Kamera und/oder ein Lidarsystem und/oder ein Radarsystem und/oder einen anderen Sensor zur Wahrnehmung und Datenerfassung. Die ersten Sensordaten 270 können Bilder, Punktwolken, Sensormesswerte oder andere relevante Informationen umfassen. Die aufgenommenen Sensordaten 270 werden an das ADAS-System 230 übertragen oder gesendet. Die ersten Sensordaten 270 werden in der Regel über eine drahtgebundene oder drahtlose Verbindung übertragen, damit das ADAS-System 230 auf die Informationen zugreifen und sie analysieren kann. Die Algorithmen und Verarbeitungskomponenten des ADAS-Systems 230 analysieren die empfangenen ersten Sensordaten 270, um die Umgebung zu interpretieren, Objekte zu identifizieren und Entscheidungen auf der Grundlage der Sensorinformationen zu treffen. Basierend auf der Analyse der ersten Sensordaten 270 erzeugt das ADAS-System 230 Testdaten 280. Diese Testdaten 280 können Ausgaben wie erkannte Objekte, berechnete Abstände, Fahrzeugtrajektorien, Fahrspurinformationen oder andere relevante Informationen enthalten, die das ADAS-System 230 im Rahmen seiner Funktionalität bereitstellt. Die erzeugten Testdaten 280 dienen als Ergebnis oder Antwort des ADAS-Systems 230 und spiegeln dessen Verhalten und Leistung in einem bestimmten Verkehrsszenario wider.In order to test the functions of the
Die Algorithmen des ADAS-Systems 230 umfassen insbesondere Extraktions- und Klassifikationsalgorithmen, um aus den von der ersten Sensoreinrichtung 250 erfassten ersten Sensordaten 270 wesentliche Merkmale zu extrahieren und zu klassifizieren. Die Extraktions- und Klassifikationsalgorithmen verwenden insbesondere Algorithmen der künstlichen Intelligenz wie neuronale Netze.The algorithms of the
Ein neuronales Netz besteht aus Neuronen, die in mehreren Schichten angeordnet und auf verschiedene Weise miteinander verbunden sind. Ein Neuron ist in der Lage, an seinem Eingang Informationen von außen oder von einem anderen Neuron zu empfangen, diese in bestimmter Weise zu bewerten und in veränderter Form am Ausgang des Neurons an ein anderes Neuron weiterzugeben oder als Endergebnis auszugeben. Zwischen den Eingangsneuronen und den Ausgangsneuronen befinden sich die Hidden Neuronen. Je nach Art des Netzes kann es mehrere Schichten von Hidden Neurons geben. Sie sorgen für die Weiterleitung und Verarbeitung der Informationen. Output-Neuronen liefern schließlich ein Ergebnis und geben es an die Außenwelt weiter. Durch die unterschiedliche Anordnung und Verschaltung der Neuronen entstehen verschiedene Arten von neuronalen Netzen, wie z.B. ein vorwärtsgerichtetes Netz (engl.: Feedforward Network, FNN), ein rückwärtsgerichtetes Netz (engl.: Recurrent Network, RNN) oder ein konvolutionales neuronales Netz (engl.: Convolutional Neural Network, CNN). Die Netze können durch unüberwachtes oder überwachtes Lernen trainiert werden.A neural network consists of neurons that are arranged in several layers and connected to one another in different ways. A neuron is able to receive information from outside or from another neuron at its input, evaluate it in a certain way and pass it on in a modified form to another neuron at the neuron's output or output it as the final result. The hidden neurons are located between the input neurons and the output neurons. Depending on the type of network, there can be several layers of hidden neurons. They ensure that the information is forwarded and processed. Output neurons finally provide a result and pass it on to the outside world. The different arrangement and interconnection of the neurons creates different types of neural networks, such as a feedforward network (FNN), a recurrent network (RNN) or a convolutional neural network (CNN). The networks can be trained through unsupervised or supervised learning.
Der Extraktionsalgorithmus erkennt beispielsweise, ob die aufgenommen ersten Sensordaten 270 ein Verkehrszeichen oder weitere Informationen enthalten. Aus diesen extrahierten Informationen werden Testdaten 280 erstellt, die erfindungsgemäß an das Auswertemodul 500 übertragen werden. Die Testdaten 280 können aber auch in der Datenbank 290 gespeichert werden, um zu einem späteren Zeitpunkt für eine Auswertung zur Verfügung zu stehen.The extraction algorithm recognizes, for example, whether the
Die zweite Sensoreinrichtung 350 erfasst ebenfalls die Umgebung des Fahrzeugs 200. Insbesondere ist vorgesehen, dass das Ground-Truth-Modul 300 bzw. die zweite Sensoreinrichtung 350 ebenfalls im Fahrzeug 200 installiert ist, so dass die von der ersten Sensoreinrichtung 250 und der zweiten Sensoreinrichtung 350 erfasste Umgebung jeweils identisch ist. Da die Sensoren der zweiten Sensoreinrichtung 350 im Vergleich zur ersten Sensoreinrichtung 250 über eine deutlich höhere Auflösung verfügen, wird die Umgebung mit einer deutlich höheren Genauigkeit erfasst. Die von der zweiten Sensoreinrichtung 350 aufgenommenen zweiten Sensordaten 370 werden von einer Softwareapplikation 330 weiterverarbeitet zur Erstellung von Ground-Truth-Daten 380. Die Softwareapplikation 330 umfasst eine Vielzahl von Wahrnehmungsalgorithmen, wie beispielsweise Bildverarbeitungsalgorithmen, Extraktionsalgorithmen, Klassifikationsalgorithmen, die insbesondere Algorithmen der künstlichen Intelligenz, wie beispielsweise neuronale Netze, verwenden. Da die aufgenommenen zweiten Sensordaten 370 wesentlich komplexer sind als die ersten Sensordaten 270, weisen auch die verwendeten neuronalen Netze eine höhere Komplexität auf, um diese zweiten Sensordaten 370 verarbeiten zu können. Insbesondere werden diese neuronalen Netze mit entsprechend hochaufgelösten Datensätzen trainiert.The
Zusätzlich zu den erfassten zweiten Sensordaten 370In addition to the recorded
0 können weitere Datenquellen, wie Kartendaten, historische Daten, Wetterdaten, Verkehrsdaten etc. verwendet werden. Diese Daten werden insbesondere in der Datenbank 390 gespeichert. Zusätzlich können Zielvorgaben, Kennwerte etc. berücksichtigt werden.0, other data sources such as map data, historical data, weather data, traffic data, etc. can be used. This data is stored in particular in the
Die Kartendaten enthalten insbesondere verschiedene Arten von Informationen, die von Fahrzeugsensoren allein nicht erfasst werden können. Diese Daten werden aus verschiedenen Quellen wie GPS-Satelliten, Straßenmarkierungen und anderen Quellen gesammelt. Die Daten beinhalten typischerweise Informationen über die Straßengeometrie wie Krümmung, Neigung und Breite der Straße sowie die Lage von Kreuzungen, Ampeln und Fußgängerüberwegen. Darüber hinaus können die Kartendaten Informationen über die Verkehrsbedingungen, wie z.B. den Verkehrsfluss, enthalten, die in Echtzeit von verschiedenen Quellen erfasst werden, z.B. von straßenseitigen Sensoren und von GPS-fähigen Geräten, die von anderen Fahrzeugen verwendet werden.In particular, the map data contains various types of information that cannot be collected by vehicle sensors alone. This data is collected from various sources such as GPS satellites, road markings and other sources. The data typically includes information about the road geometry such as curvature, slope and width of the road as well as the location of intersections, traffic lights and pedestrian crossings. pedestrian crossings. In addition, the map data may include information about traffic conditions, such as traffic flow, collected in real time from various sources, such as roadside sensors and GPS-enabled devices used by other vehicles.
Die Ground Truth-Daten 380 werden nun an das Auswertemodul 500 übertragen. Das Auswertemodul 500 verfügt über eine Softwareapplikation 550, die Vergleichsalgorithmen enthält, die insbesondere auf Algorithmen der künstlichen Intelligenz basieren. Vergleichsalgorithmen spielen in der Bildanalyse eine entscheidende Rolle, da sie es ermöglichen, die Ähnlichkeit oder Unähnlichkeit zwischen Bildern zu quantifizieren. Erfindungsgemäß kann eine Vielzahl von Vergleichsalgorithmen verwendet werden, wobei die Wahl des geeigneten Algorithmus von der Art der Daten, den gewünschten Eigenschaften des Vergleichs und der spezifischen Fragestellung in Bezug auf die Leistungsfähigkeit des ADAS-Systems 230 abhängt.The
Ein Beispiel für Vergleichsalgorithmen sind histogrammbasierte Algorithmen, die die Intensitätsverteilungen der Pixel in zwei Bildern vergleichen. Hierzu gehören die Histogrammschnittmenge, die Histogrammkorrelation und die Histogrammschnittmenge. Histogrammvergleichsmethoden sind sinnvoll für Aufgaben wie Bildabgleich, Objekterkennung und inhaltsbasierte Bildsuche.An example of comparison algorithms are histogram-based algorithms that compare the intensity distributions of pixels in two images. These include histogram intersection, histogram correlation, and histogram intersection. Histogram comparison methods are useful for tasks such as image matching, object detection, and content-based image search.
Auf Deep Learning basierende Ansätze, wie z.B. Convolutional Neural Networks (CNNs), extrahieren Merkmale aus Bildern und ermöglichen einen Vergleich auf der Basis gelernter Datenrepräsentationen. Die Bilder werden in einen Merkmalsraum eingefügt, in dem die Ähnlichkeit anhand von Metriken wie Kosinusähnlichkeit oder euklidischer Distanz berechnet werden kann.Deep learning-based approaches, such as convolutional neural networks (CNNs), extract features from images and enable comparison based on learned data representations. The images are inserted into a feature space where similarity can be calculated using metrics such as cosine similarity or Euclidean distance.
Mit der Softwareapplikation 550 werden nun die Testdaten 280 mit den Ground-Truth-Daten 380 verglichen. Durch den Vergleich mit den Ground-Truth-Daten 380 kann festgestellt werden, ob die Testdaten 280 die erforderliche Genauigkeit und Zuverlässigkeit in Bezug auf die Leistungsfähigkeit des ADAS-Systems 230 aufweisen. Durch den Vergleich zwischen den hochgenauen Ground-Truth-Daten 380 und den fahrzeugbasierten Testdaten 280 kann nun die Genauigkeit und Zuverlässigkeit des ADAS-Systems 230 überprüft werden. Hierdurch können die Algorithmen des ADAS-Systems 230 hinsichtlich ihrer Fähigkeit, Objekte in der Umgebung des Fahrzeugs 200 zu erkennen und auf sie angemessen und sicher zu reagieren, automatisiert validiert werden.The
Die präzisen Ground-Truth-Daten 380 dienen somit erfindungsgemäß dazu, die Leistungsfähigkeit und Zuverlässigkeit des ADAS-Systems 230 zu bewerten und zu validieren sowie verbesserungsbedürftige Bereiche zu identifizieren. Da die Ground-Truth-Daten 380 den Referenzpunkt für die Bewertung der Leistungsfähigkeit des ADAS-Systems 230 darstellen, können auf künstlicher Intelligenz basierende Vergleichsalgorithmen verwendet werden, die eine automatisierte Analyse der Testdaten 280 und damit auch eine automatisierte Validierung des ADAS-Systems 230 ermöglichen.According to the invention, the precise
Erfindungsgemäß kann die Auswertung der Testdaten 280 durch Vergleich mit den Ground Truth-Daten 380 sowohl in Echtzeit während des Abfahrens einer Strecke durch das Erprobungsfahrzeug 200 erfolgen als auch zu einem späteren Zeitpunkt mit den aufgezeichneten Testdaten 280 und den gespeicherten Ground Truth-Daten 380. Bei einer Auswertung in Echtzeit bietet sich insbesondere die Verwendung einer Cloud-Computing-Infrastruktur sowie die Verwendung von 5G- oder 6G-Funkmodulen zur mobilen Datenübertragung an.According to the invention, the evaluation of the
Aus dem Vergleich werden Auswerteergebnisse 580 erstellt. Diese Auswerteergebnisse 580 können an ein Ausgabemodul 700 weitergeben werden, das aus den Auswerteergebnisse 580 mittels einer Softwareapplikation 750 Ausgabedaten 780 insbesondere in Form von Berichten, Histogrammen, Diagrammen, Textnachrichten, Softwarecodes, Power-Point-Präsentationen, etc. erstellt, die für die Validierung des ADAS-Systems 230 verwendet werden können.Evaluation results 580 are created from the comparison. These evaluation results 580 can be passed on to an
In
In einem Schritt S10 werden erste Sensordaten 270 durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer ersten Sensoreinrichtung 250 eines Erprobungsfahrzeugs 200 beim Befahren einer Fahrstrecke zum Testen zumindest einer Funktion eines ADAS-Systems 230 aufgenommen.In a step S10,
In einem Schritt S20 werden die ersten Sensordaten 270 von dem ADAS-System 230 bearbeitet und Testdaten 280 mittels der bearbeiteten ersten Sensordaten 270 erzeugt.In a step S20, the
In einem Schritt S30 werden die Testdaten 280 an ein Auswertemodul 500 und/oder an eine erste Datenbank 290 übertragen.In a step S30, the
In einem Schritt S40 werden zweite Sensordaten 270 durch mindestens einen Sensor wie eine Kamera, ein Lidarsystem und/oder ein Radarsystem einer zweiten Sensoreinrichtung 350 eines Ground-Truth-Moduls 300 beim Befahren einer Fahrstrecke aufgenommen, wobei die Sensoren der zweiten Sensoreinrichtung 350 über eine höhere Leistungsfähigkeit hinsichtlich der Auflösung, Bildfrequenz, Reichweite, Rechenressourcen als die Sensoren der ersten Sensoreinrichtung 250 verfügen.In a step S40,
In einem Schritt S50 werden die zweiten Sensordaten 370 von einer Softwareapplikation 330 bearbeitet und Ground-Truth-Daten 380 mittels der bearbeiteten zweiten Sensordaten 370 erzeugt.In a step S50, the
In einem Schritt S60 werden die Ground-Truth-Daten 380 an das Auswertemodul 500 und/oder an eine zweite Datenbank 390 übertragen.In a step S60, the
In einem Schritt S70 werden die Testdaten 280 mit den Ground-Truth-Daten 380 durch eine Softwareapplikation 550 verglichen, wobei die Softwareapplikation 550 Vergleichsalgorithmen umfasst.In a step S70, the
In einem Schritt S80 werden Auswerteergebnissen 580 zur Validierung der zumindest einen Funktion des ADAS-Systems 230 erzeugt.In a step S80, evaluation results 580 are generated to validate at least one function of the
Die vorliegende Erfindung ermöglicht eine genaue und zuverlässige Validierung eines modernen Fahrerassistenzsystems (ADAS) durch den automatisierten Vergleich von Ground-Truth-Daten mit Testdaten eines ADAS-Systems mittels geeigneter Vergleichsalgorithmen. Eine genaue Validierung stellt sicher, dass das ADAS-System wie vorgesehen funktioniert, wodurch die allgemeine Verkehrssicherheit erhöht wird. Darüber hinaus kann die Leistungsfähigkeit des ADAS-Systems bewertet werden. Durch den Vergleich der Testdaten mit den Ground-Truth-Daten können Genauigkeit, Zuverlässigkeit und andere Leistungsindikatoren gemessen werden. Diese Bewertung hilft bei der Erkennung von Verbesserungsmöglichkeiten und der Feinabstimmung des ADAS-Systems für eine optimale Leistung.The present invention enables accurate and reliable validation of a modern driver assistance system (ADAS) by automatically comparing ground truth data with test data of an ADAS system using suitable comparison algorithms. Accurate validation ensures that the ADAS system functions as intended, thereby increasing overall road safety. In addition, the performance of the ADAS system can be evaluated. By comparing the test data with the ground truth data, accuracy, reliability and other performance indicators can be measured. This evaluation helps to identify opportunities for improvement and fine-tune the ADAS system for optimal performance.
Bezugszeichenreference sign
- 100100
- Systemsystem
- 200200
- Erprobungsfahrzeugtest vehicle
- 230230
- ADAS-SystemADAS system
- 250250
- erste Sensoreinrichtungfirst sensor device
- 270270
- erste Sensordatenfirst sensor data
- 280280
- Testdatentest data
- 290290
- erste Datenbankfirst database
- 300300
- Ground-Truth-Modulground truth module
- 330330
- Softwareapplikationsoftware application
- 350350
- zweite Sensoreinrichtungsecond sensor device
- 370370
- zweite Sensordatensecond sensor data
- 380380
- Ground-Truth-Datenground truth data
- 390390
- zweite Datenbanksecond database
- 500500
- Auswertemodulevaluation module
- 550550
- Softwareapplikationsoftware application
- 580580
- Auswerteergebnisseevaluation results
- 700700
- Ausgabemoduloutput module
- 750750
- Softwareapplikationsoftware application
- 780780
- Ausgabedatenoutput data
- 900900
- Computerprogrammproduktcomputer program product
- 950950
- Programmcodeprogram code
Claims (6)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023119911.0A DE102023119911B4 (en) | 2023-07-27 | 2023-07-27 | Method and system for the automated validation of functions of a driver assistance system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023119911.0A DE102023119911B4 (en) | 2023-07-27 | 2023-07-27 | Method and system for the automated validation of functions of a driver assistance system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE102023119911A1 DE102023119911A1 (en) | 2025-01-30 |
| DE102023119911B4 true DE102023119911B4 (en) | 2025-03-06 |
Family
ID=94212983
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102023119911.0A Active DE102023119911B4 (en) | 2023-07-27 | 2023-07-27 | Method and system for the automated validation of functions of a driver assistance system |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102023119911B4 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102019115809A1 (en) | 2018-11-05 | 2020-05-07 | Carnegie Mellon University | METHOD AND SYSTEM FOR THE CONTINUOUS LEARNING OF CONTROL COMMANDS FOR AUTONOMOUS VEHICLES |
| DE102020200650A1 (en) | 2020-01-21 | 2021-07-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method and device for operating automated lane guidance of a motor vehicle |
| US20220048533A1 (en) | 2020-08-17 | 2022-02-17 | Volvo Car Corporation | Method and system for validating autonomous control software for a self-driving vehicle |
| US20220090995A1 (en) | 2015-12-30 | 2022-03-24 | Ventana Medical Systems, Inc. | System and method for real time assay monitoring |
| DE102021124913A1 (en) | 2020-10-25 | 2022-04-28 | Motional Ad Llc | METRIC BACKPROPAGATION FOR EVALUATION OF SUBSYSTEMS PERFORMANCE |
-
2023
- 2023-07-27 DE DE102023119911.0A patent/DE102023119911B4/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20220090995A1 (en) | 2015-12-30 | 2022-03-24 | Ventana Medical Systems, Inc. | System and method for real time assay monitoring |
| DE102019115809A1 (en) | 2018-11-05 | 2020-05-07 | Carnegie Mellon University | METHOD AND SYSTEM FOR THE CONTINUOUS LEARNING OF CONTROL COMMANDS FOR AUTONOMOUS VEHICLES |
| DE102020200650A1 (en) | 2020-01-21 | 2021-07-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method and device for operating automated lane guidance of a motor vehicle |
| US20220048533A1 (en) | 2020-08-17 | 2022-02-17 | Volvo Car Corporation | Method and system for validating autonomous control software for a self-driving vehicle |
| DE102021124913A1 (en) | 2020-10-25 | 2022-04-28 | Motional Ad Llc | METRIC BACKPROPAGATION FOR EVALUATION OF SUBSYSTEMS PERFORMANCE |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102023119911A1 (en) | 2025-01-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE112021006101T5 (en) | Systems and methods for object detection with LiDAR decorrelation | |
| DE102015104954B4 (en) | Vision-based monitoring system for validating activity sequences | |
| DE102014106211B4 (en) | Vision-based multi-camera factory monitoring with dynamic integrity assessment | |
| DE112021005607T5 (en) | Systems and methods for camera-LiDAR-fused object detection | |
| DE102018100469A1 (en) | GENERATED SIMULATED SENSOR DATA FOR TRAINING AND VERIFYING RECOGNITION MODELS | |
| DE102023101354A1 (en) | SENSOR FUSION | |
| DE102019115455A1 (en) | FOCUS-BASED MARKING OF SENSOR DATA | |
| DE102010005290A1 (en) | Vehicle controlling method for vehicle operator i.e. driver, involves associating tracked objects based on dissimilarity measure, and utilizing associated objects in collision preparation system to control operation of vehicle | |
| WO2022247994A1 (en) | System for sensor data fusion for environmental perception | |
| DE112022004238T5 (en) | METHODS AND SYSTEMS FOR DETECTION ACCURACY RATING AND VEHICLE INSTRUCTIONS | |
| DE112021000482T5 (en) | DETECTION OF FOREIGN OBJECTS IN A VEHICLE PATHWAY | |
| DE102021128041A1 (en) | IMPROVEMENT OF A VEHICLE NEURAL NETWORK | |
| DE102018108361A1 (en) | LAW RECORDING TRAINING SYSTEMS AND METHODS | |
| DE102015208139A1 (en) | Vehicle occupant detection by means of the distance between passenger and driver characteristics | |
| DE102007013664A1 (en) | Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient | |
| DE112019006281T5 (en) | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM | |
| DE102022130559A1 (en) | SYSTEMS AND METHODS FOR IMPROVED THREE-DIMENSIONAL DATA ASSIGNMENT USING INFORMATION FROM TWO-DIMENSIONAL IMAGES | |
| DE102021125136A1 (en) | DEVICE AND METHOD FOR PREDICTING THE TRAJECTORY OF A SURROUNDING VEHICLE | |
| DE102021108621A1 (en) | Device for detecting information about a vehicle's surroundings and method for controlling the same | |
| DE102020134530A1 (en) | RE-COLLISION WARNING SYSTEM WITH TEMPORARY CNN | |
| DE102021213180B4 (en) | Method for automatically controlling at least one vehicle function of a vehicle and notification system for a vehicle | |
| DE102023119911B4 (en) | Method and system for the automated validation of functions of a driver assistance system | |
| WO2022042940A1 (en) | Method and device for classifying targets | |
| DE102019205474A1 (en) | Object detection in the vicinity of a vehicle using a primary sensor device and a secondary sensor device | |
| DE102022119103A1 (en) | SYSTEMS AND METHODS FOR MONITORING THE PROXIMITY OF OBJECTS AROUND A VEHICLE |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed | ||
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division | ||
| R020 | Patent grant now final |