[go: up one dir, main page]

DE102024203695A1 - Method for determining whether an object can be driven over by a vehicle without collision, and vehicle - Google Patents

Method for determining whether an object can be driven over by a vehicle without collision, and vehicle

Info

Publication number
DE102024203695A1
DE102024203695A1 DE102024203695.1A DE102024203695A DE102024203695A1 DE 102024203695 A1 DE102024203695 A1 DE 102024203695A1 DE 102024203695 A DE102024203695 A DE 102024203695A DE 102024203695 A1 DE102024203695 A1 DE 102024203695A1
Authority
DE
Germany
Prior art keywords
vehicle
sensor data
data sequence
data
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102024203695.1A
Other languages
German (de)
Inventor
Thomas Geiler
Kexin LI
Maximilian Junker
Michael Tchorzewski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102024203695.1A priority Critical patent/DE102024203695A1/en
Priority to PCT/EP2025/060463 priority patent/WO2025223952A1/en
Publication of DE102024203695A1 publication Critical patent/DE102024203695A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/523Details of pulse systems
    • G01S7/526Receivers
    • G01S7/53Means for transforming coordinates or for evaluating data, e.g. using computers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/932Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zum Ermitteln, ob ein Objekt (24, 28, 30) mit einem Fahrzeug (10) kollisionsfrei überfahrbar ist.Method for determining whether an object (24, 28, 30) can be driven over by a vehicle (10) without collision.

Description

Stand der TechnikState of the art

Die Erfindung betrifft ein Verfahren zum Ermitteln, ob ein Objekt mit einem Fahrzeug kollisionsfrei überfahrbar ist, und ein Fahrzeug.The invention relates to a method for determining whether an object can be driven over by a vehicle without collision, and to a vehicle.

Während ein Fahrzeug ein Parkmanöver ausführt, werden typischerweise Objekte in einer Umgebung des Fahrzeugs mittels einer Parkhilfe des Fahrzeugs erfasst.While a vehicle is performing a parking maneuver, objects in the vehicle's surroundings are typically detected using a parking aid on the vehicle.

Offenbarung der ErfindungDisclosure of the invention

Der Erfindung liegt als Aufgabe die Bereitstellung eines Verfahrens zugrunde, das besonders früh und besonders zuverlässig ermittelt, ob ein Objekt mit einem Fahrzeug kollisionsfrei überfahrbar ist. Weiter ist es Aufgabe der vorliegenden Erfindung ein Fahrzeug bereitzustellen, das dazu ausgebildet ist, das Verfahren auszuführen.The object of the invention is to provide a method that determines particularly early and reliably whether an object can be driven over by a vehicle without causing a collision. Furthermore, the object of the present invention is to provide a vehicle configured to carry out the method.

Die der Erfindung zugrundeliegende Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 und durch ein Fahrzeug mit den Merkmalen des Anspruchs 10 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen genannt.The object underlying the invention is achieved by a method having the features of claim 1 and by a vehicle having the features of claim 10. Advantageous developments of the invention are mentioned in the subclaims.

Ein erfindungsgemäßes Verfahren ist zum Ermitteln, ob ein Objekt mit einem Fahrzeug kollisionsfrei überfahrbar ist, geeignet. Das Verfahren weist die Schritte auf: a) Erzeugen von Sensordaten von dem Objekt durch Erfassen des Objekts mittels einer Parkhilfe des Fahrzeugs, während das Fahrzeug ein Parkmanöver ausführt; b) Erstellung einer Datensequenz basierend auf einer Entwicklung der Sensordaten; und c) Ermitteln durch Analysieren der Datensequenz, ob das Objekt mit dem Fahrzeug kollisionsfrei überfahrbar ist.A method according to the invention is suitable for determining whether an object can be driven over by a vehicle without causing a collision. The method comprises the steps of: a) generating sensor data from the object by detecting the object using a parking aid of the vehicle while the vehicle is performing a parking maneuver; b) creating a data sequence based on a development of the sensor data; and c) determining by analyzing the data sequence whether the object can be driven over by the vehicle without causing a collision.

Vorteilhafterweise kann durch das Analysieren der Datensequenz besonders früh und besonders zuverlässig festgestellt werden, ob das Objekt mit einem Fahrzeug kollisionsfrei überfahrbar ist oder nicht.Advantageously, by analyzing the data sequence, it can be determined particularly early and reliably whether the object can be driven over by a vehicle without causing a collision or not.

Ein weiterer Aspekt der Erfindung kann sein, dass die Entwicklung der Sensordaten während des Ausführens des Parkmanövers charakteristisch für ein nicht kollisionsfreie überfahrbares Objekt sein kann. Vorteilhafterweise kann durch Ausführen des Verfahrens das Objekt anhand der Entwicklung der Sensordaten als nicht kollisionsfreie überfahrbares Objekt erkannt werden, bevor die Parkhilfe des Fahrzeugs das Objekt, insbesondere eine Höhe des Objekts, vollständig erfasst hat.A further aspect of the invention may be that the development of the sensor data during the execution of the parking maneuver can be characteristic of a non-collision-free traversable object. Advantageously, by implementing the method, the object can be recognized as a non-collision-free traversable object based on the development of the sensor data before the vehicle's parking aid has fully detected the object, in particular its height.

Unter einem kollisionsfreien Überfahren des Objekts kann verstanden werden, dass das Fahrzeug über das Objekt fährt, ohne dabei beschädigt zu werden.A collision-free crossing of the object can be understood as the vehicle driving over the object without being damaged.

Das Parkmanöver kann zum Platzieren des Fahrzeugs auf einen Parkplatz ausgeführt werden. Das Parkmanöver kann als Einparken des Fahrzeugs auf dem Parkplatz bezeichnet werden.The parking maneuver can be performed to place the vehicle in a parking space. The parking maneuver can be described as parking the vehicle in the parking space.

Das Objekt kann einen Parkplatz, auf den das Fahrzeug durch das Parkmanöver platziert wird, begrenzen.The object can limit a parking space into which the vehicle is placed by the parking maneuver.

Das Objekt kann beispielsweise ein Laternenpfahl, ein Pfosten, eine Wand, eine Bordsteinkante, ein Parkbügel, ein Parkbegrenzer, ein Straßenschild, ein Verkehrszeichen, eine Mauer, ein Zaun, ein Baum, ein Pflanzbeet oder ein weiteres Fahrzeug sein.The object can be, for example, a lamppost, a post, a wall, a curb, a parking barrier, a parking barrier, a street sign, a traffic sign, a wall, a fence, a tree, a flowerbed or another vehicle.

Die Parkhilfe kann mindestens einen Ultraschallsensor, insbesondere für das Erzeugen der Sensordaten von dem Objekt, aufweisen. Das Erfassen des Objekts im Schritt a) kann ein Erfassen des Objekts mittels des Ultraschallsensors umfassen. Die Datensequenz kann eine Sequenz von Sensordaten des Ultraschallsensors aufweisen.The parking aid may comprise at least one ultrasonic sensor, in particular for generating the sensor data from the object. Detecting the object in step a) may comprise detecting the object using the ultrasonic sensor. The data sequence may comprise a sequence of sensor data from the ultrasonic sensor.

Vorteilhafterweise können Ultraschallsensoren aufgrund ihrer hohen Empfindlichkeit, einfachen Anwendbarkeit und günstigen Preises für die Verwendung als Parkhilfe besonders geeignet sein.Advantageously, ultrasonic sensors can be particularly suitable for use as parking aids due to their high sensitivity, ease of use and low price.

Das Erzeugen der Sensordaten von dem Objekt kann, insbesondere nur, während dem Ausführen des Parkmanövers erfolgen. Beispielsweise können die Sensordaten von dem Objekt nicht erzeugt werden, wenn das Fahrzeug kein Parkmanöver ausführt.The generation of sensor data from the object can, in particular, only occur while the parking maneuver is being performed. For example, the sensor data from the object cannot be generated if the vehicle is not performing a parking maneuver.

Das Erzeugen der Sensordaten von dem Objekt kann ein Erzeugen von Zeitstempeln umfassen. Jeder Zeitstempel kann eine Zeitangabe sein, zu der das Objekt durch die Parkhilfe erfasst wurde. Die Datensequenz kann zusätzlich die Zeitstempel aufweisen. Die Sensordaten können in der Datensequenz basierend auf den Zeitstempeln relativ zueinander angeordnet sein. Beispielsweise können die Sensordaten mit aufsteigenden Zeitstempeln in der Datensequenz angeordnet sein.Generating the sensor data from the object may include generating timestamps. Each timestamp may be a time indication at which the object was detected by the parking aid. The data sequence may additionally include the timestamps. The sensor data may be arranged relative to one another in the data sequence based on the timestamps. For example, the sensor data may be arranged with ascending timestamps in the data sequence.

In einer Weiterbildung des Verfahrens ist die Entwicklung der Sensordaten im Schritt b) eine distanzabhängige Entwicklung und/oder eine zeitliche Entwicklung der Sensordaten.In a further development of the method, the development of the sensor data in step b) is a distance-dependent development and/or a temporal development of the sensor data.

Beispielsweise kann die Datensequenz um weitere Sensordaten von dem Objekt ergänzt werden, wenn eine Distanz zwischen dem Fahrzeug und dem Objekt sich um einen vorgegebenen Betrag verkürzt oder verlängert hat. Mit anderen Worten, die Erfassung der Sensordaten kann periodisch in vorgegebenen räumlichen Intervallen erfolgen.For example, the data sequence can be supplemented with further sensor data from the object if a distance between the vehicle and the object has shortened or lengthened by a specified amount. In other words, the sensor data can be collected periodically at specified spatial intervals.

Zusätzlich oder alternativ kann beispielsweise die Datensequenz um weitere Sensordaten von dem Objekt ergänzt werden, wenn eine Dauer seit dem Erzeugen der zuletzt der Datensequenz hinzugefügten Sensordaten einen vorgegebenen Wert erreicht hat. Mit anderen Worten, die Erfassung von Sensordaten kann periodisch in vorgegebenen zeitlichen Intervallen erfolgen.Additionally or alternatively, the data sequence can be supplemented with additional sensor data from the object, for example, if the duration since the generation of the last sensor data added to the data sequence has reached a specified value. In other words, the acquisition of sensor data can occur periodically at specified time intervals.

In einer Weiterbildung des Verfahrens erfolgt die Erstellung der Datensequenz im Schritt b) durch Speichern der im Schritt a) erzeugten Sensordaten.In a further development of the method, the data sequence is created in step b) by storing the sensor data generated in step a).

In einer Weiterbildung des Verfahrens erfolgt das Analysieren der Datensequenz im Schritt c) durch Bildung von Korrelationen von in der Datensequenz benachbarter und/oder aufeinanderfolgender Sensordaten. Vorteilhafterweise kann basierend auf den Korrelationen besonders einfach ermittelt werden, ob das Objekt mit dem Fahrzeug kollisionsfrei überfahrbar ist.In a further development of the method, the data sequence is analyzed in step c) by forming correlations between adjacent and/or consecutive sensor data in the data sequence. Advantageously, based on these correlations, it is particularly easy to determine whether the object can be driven over by the vehicle without causing a collision.

In einer Weiterbildung des Verfahrens erfolgt das Analysieren der Datensequenz im Schritt c) mittels eines rekursiven neuronalen Netzes. Vorteilhafterweise können Datensequenzen von unterschiedlichen Längen mittels des rekursiven neuronalen Netzes analysiert werden. Das rekursive neuronale Netz kann flexibel skalierbar ausgebildet sein. Das rekursive neuronale Netz kann für unterschiedlich ausgebildete Fahrzeuge besonders einfach angepasst oder trainiert werden.In a further development of the method, the data sequence is analyzed in step c) using a recursive neural network. Advantageously, data sequences of different lengths can be analyzed using the recursive neural network. The recursive neural network can be designed to be flexibly scalable. The recursive neural network can be adapted or trained particularly easily for vehicles with different configurations.

Das rekursive neuronale Netz (englisch: „recursive neural network“) kann mit „RNN“ abgekürzt werden.The recursive neural network can be abbreviated as “RNN”.

Durch das rekursive neuronale Netz kann das Ermitteln, ob ein Objekt mit einem Fahrzeug kollisionsfrei überfahrbar ist, auch dann zuverlässig erfolgen, wenn von dem Objekt in früheren Zeitabschnitten Sensordaten erzeugt und in einem späteren Zeitabschnitt keine Sensordaten erzeugt wurden. Dies kann beispielsweise für kollisionskritische Objekte gelten, die eine geringere Höhe als die Montageposition der Parkhilfe aufweisen und dadurch bei geringer Entfernung sich aus einem Erfassungsbereich der Parkhilfe bewegen. Derartige Objekte können beispielsweise Kisten oder Bobbycars sein.The recursive neural network can reliably determine whether an object can be driven over by a vehicle without causing a collision, even if sensor data was generated about the object in earlier time periods and no sensor data was generated in a later time period. This can apply, for example, to collision-critical objects that are lower than the mounting position of the parking aid and therefore move out of the detection range of the parking aid at close range. Such objects can be boxes or pedal cars, for example.

In einer Weiterbildung des Verfahrens weist das Verfahren vor dem Schritt c) den Schritt auf: e) Trainieren des rekursiven neuronalen Netzes mit zumindest einer Trainingsdatensequenz. Die Trainingsdatensequenz kann beispielsweise ein Rauschen aufweisen. Dadurch kann vorteilhafterweise das rekursive neuronale Netz unempfindlicher auf ein Rauschen in der Datensequenz sein. Die Trainingsdatensequenz kann eine Datensequenz von einem früheren Parkmanöver sein. Das Trainieren des rekursiven neuronalen Netzes kann außerhalb des Fahrzeugs, beispielsweise in einem Rechenzentrum, stattfinden.In a further development of the method, the method comprises the following step before step c): e) Training the recursive neural network with at least one training data sequence. The training data sequence may, for example, contain noise. This advantageously makes the recursive neural network less sensitive to noise in the data sequence. The training data sequence may be a data sequence from a previous parking maneuver. The training of the recursive neural network may take place outside the vehicle, for example, in a data center.

In einer Weiterbildung des Verfahrens ist das rekursive neuronale Netz als ein long short-term memory Netz ausgebildet. Das long short-term memory Netz (deutsch: langes Kurzzeitgedächtnis-Netz) kann mit „LSTM“ abgekürzt werden.In a further development of the method, the recursive neural network is designed as a long-short-term memory network (LSTM).

In einer Weiterbildung des Verfahrens umfasst das Ermitteln im Schritt c) ein Gewichten der Sensordaten.In a further development of the method, the determination in step c) comprises weighting the sensor data.

Aussagekräftigere Sensordaten können stärker gewichtet sein. Beispielsweise können Sensordaten mit einem geringen Signal-Rauschverhältnis stärker gewichtet sein als Sensordaten mit einem größeren Signal-Rauschverhältnis.More meaningful sensor data can be weighted more heavily. For example, sensor data with a low signal-to-noise ratio can be weighted more heavily than sensor data with a higher signal-to-noise ratio.

Das Analysieren der Datensequenz im Schritt c) kann in Abhängigkeit von der Gewichtung der Sensordaten erfolgen.The analysis of the data sequence in step c) can be done depending on the weighting of the sensor data.

Vorzugsweise kann das Trainieren des rekursiven neuronalen Netzes im Schritt e) derart erfolgt, dass die Gewichtung der Sensordaten durch das rekursive neuronale Netz erfolgt. Für das Training im Schritt e) kann beispielsweise eine Verlustfunktion und/oder eine Bewertungsmetrik verwendet werden, die die Sensordaten unterschiedlich gewichtetPreferably, the training of the recursive neural network in step e) can be carried out in such a way that the weighting of the sensor data is performed by the recursive neural network. For the training in step e), for example, a loss function and/or an evaluation metric can be used that weights the sensor data differently.

In einer Weiterbildung des Verfahrens erfolgt das Gewichten der Sensordaten basierend auf einem Abstand zwischen dem Objekt und dem Fahrzeug. Zusätzlich oder alternativ erfolgt das Gewichten der Sensordaten basierend auf einer zeitlichen Abfolge der Sensordaten.In a further development of the method, the sensor data is weighted based on the distance between the object and the vehicle. Additionally or alternatively, the sensor data is weighted based on a temporal sequence of the sensor data.

Die Sensordaten können derart gewichtet sein, dass die Sensordaten, die mit einem geringen Abstand zwischen dem Objekt und dem Fahrzeug erzeugt wurden, stärker gewichtet sind als Sensordaten, die mit einem höheren Abstand zwischen dem Objekt und dem Fahrzeug erzeugt wurden. Der Abstand zwischen dem Objekt und dem Fahrzeug kann basierend auf den Sensordaten ermittelt werden.The sensor data can be weighted such that the sensor data generated with a short distance between the object and the vehicle is given a higher weight than the sensor data generated with a greater distance between the object and the vehicle. The distance between the object and the vehicle can be determined based on the sensor data.

Die Sensordaten können derart gewichtet sein, dass die Sensordaten, die zeitlich früher erzeugt wurden, geringer gewichtet sind als Sensordaten, die zeitlich später erzeugt wurden.The sensor data can be weighted in such a way that the sensor data generated earlier in time are weighted less than sensor data generated later in time.

Ein erfindungsgemäßes Fahrzeug, insbesondere ein Kraftfahrzeug, ist das dazu ausgebildet, ein zuvor beschriebenes Verfahren auszuführen.A vehicle according to the invention, in particular a motor vehicle, is designed to carry out a method described above.

Nachfolgend werden mögliche Ausführungsbeispiele der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen erläutert. Es zeigen:

  • 1 eine schematische Draufsicht auf ein Fahrzeug mit einer Parkhilfe,
  • 2 bis 4 jeweils eine schematische Draufsicht auf das Fahrzeug von 1 während einem Erstellen einer Trainingsdatensequenz für ein Training eines rekursiven neuronalen Netzes des Fahrzeugs,
  • 5 eine schematische Draufsicht auf das Fahrzeug von 1 beim Ausführen eines Parkmanövers,
  • 6 ein schematisches Modell von Sensordaten und dem rekursiven neuronalen Netz beim Ausführen des Parkmanövers von 5, und
  • 7 ein beispielhafter Ablauf eines Verfahrens zum Ermitteln, ob ein Objekt mit einem Fahrzeug kollisionsfrei überfahrbar ist.
Possible embodiments of the invention are explained below with reference to the accompanying drawings. They show:
  • 1 a schematic plan view of a vehicle with a parking aid,
  • 2 to 4 each a schematic top view of the vehicle from 1 while creating a training data sequence for training a recursive neural network of the vehicle,
  • 5 a schematic plan view of the vehicle from 1 when performing a parking maneuver,
  • 6 a schematic model of sensor data and the recursive neural network when performing the parking maneuver of 5 , and
  • 7 an example of a method for determining whether an object can be driven over by a vehicle without causing a collision.

1 zeigt ein Fahrzeug 10 mit einer Parkhilfe 12 in Form eines ultraschallbasierten Fahrerassistenzsystems. Die Parkhilfe 12 hat eine Steuereinrichtung 14 und eine Mehrzahl von Ultraschallsensoren 16. In dem Ausführungsbeispiel der 1 sind beispielhaft acht Ultraschallsensoren 16 dargestellt. 1 shows a vehicle 10 with a parking aid 12 in the form of an ultrasound-based driver assistance system. The parking aid 12 has a control device 14 and a plurality of ultrasonic sensors 16. In the embodiment of the 1 eight ultrasonic sensors 16 are shown as examples.

In einem alternativen, nicht dargestellten Ausführungsbeispiel hat die Parkhilfe zwölf Ultraschallsensoren, wobei jede Stoßstange des Fahrzeugs sechs Ultraschallsensoren aufweist. Von den sechs Ultraschallsensoren jeder Stoßstange können zwei Ultraschallsensoren seitlich ausgerichtet sein.In an alternative embodiment (not shown), the parking aid has twelve ultrasonic sensors, with each bumper of the vehicle having six ultrasonic sensors. Of the six ultrasonic sensors on each bumper, two ultrasonic sensors can be aligned laterally.

Die Ultraschallsensoren 16 sind mit der Steuereinrichtung 14 signaltechnisch verbunden. Die Ultraschallsensoren 16 sind an einem Heck des Fahrzeugs 10 angeordnet.The ultrasonic sensors 16 are signal-connected to the control device 14. The ultrasonic sensors 16 are arranged at the rear of the vehicle 10.

Die Steuereinrichtung 14 hat einen Speicher 18 und ein rekursives neuronales Netz 20. Das rekursive neuronale Netz 20 ist als ein long short-term memory Netz ausgebildet.The control device 14 has a memory 18 and a recursive neural network 20. The recursive neural network 20 is designed as a long short-term memory network.

Die Parkhilfe 12 ist dazu ausgebildet, ein Verfahren zum Ermitteln, ob ein Objekt mit einem Fahrzeug 10 kollisionsfrei überfahrbar ist, auszuführen.The parking aid 12 is designed to carry out a method for determining whether an object can be driven over by a vehicle 10 without collision.

2 bis 4 zeigen jeweils das Fahrzeug 10 während einem Erstellen einer Trainingsdatensequenz für ein Training des rekursiven neuronalen Netzes 20. In 1 bis 4 sind für identische und funktionell äquivalente Elemente gleiche Bezugszeichen verwendet, weshalb insoweit auf die entsprechend gemachte Beschreibung verwiesen werden kann. 2 to 4 each show the vehicle 10 during the creation of a training data sequence for training the recursive neural network 20. In 1 to 4 The same reference symbols are used for identical and functionally equivalent elements, which is why reference can be made to the corresponding description.

2 zeigt, dass das Fahrzeug 10 rückwärts entlang einer Bewegungsrichtung 22 auf einen Pfosten 24 zu fährt. Der Pfosten 24 kann von dem Fahrzeug 10 nicht kollisionsfrei überfahren werden. Während das Fahrzeug 10 auf den Pfosten 24 zu fährt, sendet jeder Ultraschallsensor 16 Ultraschallpulse 26 aus, die von dem Pfosten 24 als Echos reflektiert werden. Die Echos werden von den Ultraschallsensoren 16 durch Detektion der Echos in Sensordaten umgewandelt. 2 shows that the vehicle 10 is traveling backward along a direction of travel 22 toward a post 24. The vehicle 10 cannot drive over the post 24 without causing a collision. As the vehicle 10 moves toward the post 24, each ultrasonic sensor 16 emits ultrasonic pulses 26, which are reflected by the post 24 as echoes. The echoes are converted into sensor data by the ultrasonic sensors 16 by detecting the echoes.

Die Steuereinrichtung 14 erzeugt ein Zeitstempel für jedes detektierte Echo. Die Steuereinrichtung 14 erstellt eine Trainingsdatensequenz von dem Pfosten 24 durch Speichern der Sensordaten und den Zeitstempeln in dem Speicher 18 der Steuereinrichtung 14.The controller 14 generates a timestamp for each detected echo. The controller 14 creates a training data sequence from the post 24 by storing the sensor data and the timestamps in the memory 18 of the controller 14.

Die Trainingsdatensequenz enthält ein Rauschen, das während der Erstellung der Sensordaten von dem Pfosten 24 auftritt.The training data sequence contains noise that occurs during the creation of the sensor data from the post 24.

Das rekursive neuronale Netz 20 wird außerhalb des Fahrzeugs 10, beispielsweise in einem Rechenzentrum, mit der Trainingsdatensequenz von dem Pfosten 24 trainiert. Für das Training des rekursiven neuronalen Netzes 20 wird eine Verlustfunktion und/oder eine Bewertungsmetrik verwendet, welche die Sensordaten basierend auf den Zeitstempeln gewichtet. In dem dargestellten Ausführungsbeispiel werden die zeitlich später erfassten Sensordaten stärker gewichtet als zeitlich früher erfasste Sensordaten.The recursive neural network 20 is trained outside the vehicle 10, for example, in a data center, using the training data sequence from the post 24. A loss function and/or an evaluation metric that weights the sensor data based on the timestamps is used to train the recursive neural network 20. In the illustrated embodiment, the sensor data acquired later in time is weighted more heavily than sensor data acquired earlier in time.

3 zeigt, dass das Fahrzeug 10 rückwärts entlang der Bewegungsrichtung 22 auf einen Bordstein 28 zu fährt. Der Bordstein 28 kann von dem Fahrzeug 10 kollisionsfrei überfahren werden. Während das Fahrzeug 10 auf den Bordstein 28 zu fährt, sendet jeder Ultraschallsensor 16 Ultraschallpulse 26 aus, die von dem Bordstein 28 als Echos reflektiert werden. Die Echos werden von den Ultraschallsensoren 16 durch Detektion der Echos in Sensordaten umgewandelt. 3 shows that the vehicle 10 is reversing along the direction of travel 22 toward a curb 28. The vehicle 10 can drive over the curb 28 without collision. As the vehicle 10 moves toward the curb 28, each ultrasonic sensor 16 emits ultrasonic pulses 26, which are reflected by the curb 28 as echoes. The echoes are converted into sensor data by the ultrasonic sensors 16 by detecting the echoes.

Die Steuereinrichtung 14 erstellt eine Trainingsdatensequenz von dem Bordstein 28 durch Speichern der Sensordaten in dem Speicher 18 der Steuereinrichtung 14. Das rekursive neuronale Netz 20 wird außerhalb des Fahrzeugs 10, beispielsweise in einem Rechenzentrum, mit der Trainingsdatensequenz von dem Bordstein 28 trainiert.The control device 14 creates a training data sequence from the curb 28 by storing the sensor data in the memory 18 of the control device 14. The recursive neural network 20 is trained outside the vehicle 10, for example in a data center, with the training data sequence from the curb 28.

4 zeigt, dass das Fahrzeug 10 rückwärts auf ein weiteres Fahrzeug 30 zu fährt. Das weitere Fahrzeug 30 kann von dem Fahrzeug 10 nicht kollisionsfrei überfahren werden. Das Training des neuronalen Netzes 20 für das weitere Fahrzeug 30 erfolgt entsprechend dem Training für den Pfosten 24, weshalb insoweit auf die Beschreibung des Trainings für den Pfosten 24 verwiesen wird. 4 shows that the vehicle 10 is driving backwards towards another vehicle 30. The other vehicle 30 cannot collide with the vehicle 10 be driven over without interference. The training of the neural network 20 for the additional vehicle 30 is carried out in the same way as the training for the post 24, which is why reference is made to the description of the training for the post 24.

Nach Abschluss des Trainings ist das rekursive neuronale Netz 20 derart trainiert, dass das die Parkhilfe 12 basierend auf einer Datensequenz von einem Objekt ermitteln kann, ob das Objekt mit einem Fahrzeug 10 kollisionsfrei überfahrbar ist.After completion of the training, the recursive neural network 20 is trained in such a way that the parking aid 12 can determine, based on a data sequence from an object, whether the object can be driven over by a vehicle 10 without collision.

Nach Abschluss des Trainings wird das trainierte rekursive neuronale Netz 20 auf das Fahrzeug übertragen. Das bislang in der Steuereinrichtung 14 vorhandene rekursive neuronale Netz wird durch das trainierte rekursive neuronale Netz 20 ersetzt.After training is complete, the trained recursive neural network 20 is transferred to the vehicle. The recursive neural network previously present in the control device 14 is replaced by the trained recursive neural network 20.

5 zeigt das Fahrzeug 10 während des Ausführens eines Parkmanövers für das Platzieren des Fahrzeugs 10 auf einen Parkplatz. 5 shows the vehicle 10 during the execution of a parking maneuver for placing the vehicle 10 in a parking space.

Der Parkplatz befindet sich am Rand einer Fahrbahn 32 und ist von Pfosten 24 sowie von zwei weiteren Fahrzeugen 30 begrenzt. Das Parken auf dem Parkplatz ist ein Gehwegparken. Mit anderen Worten, das Fahrzeug 10 ist seitlich auf einem Gehweg 34 zu platzieren, der durch einen Bordstein 28 von der Fahrbahn 32 getrennt ist. Für das Parken des Fahrzeugs 10 auf dem Parkplatz ist der Bordstein 28 von dem Fahrzeug 10 zu überfahren.The parking space is located at the edge of a roadway 32 and is bordered by posts 24 and two other vehicles 30. Parking in the parking space is sidewalk parking. In other words, the vehicle 10 must be parked sideways on a sidewalk 34, which is separated from the roadway 32 by a curb 28. To park the vehicle 10 in the parking space, the vehicle 10 must drive over the curb 28.

Um das Fahrzeug 10 auf den Parkplatz zu parken, führt das Fahrzeug 10 das Parkmanöver aus. Das Parkmanöver umfasst ein Rückwärtsfahren auf den Parkplatz.To park vehicle 10 in the parking space, vehicle 10 performs the parking maneuver. The parking maneuver involves reversing into the parking space.

Während dem Ausführen des Parkmanövers werden mittels der Parkhilfe 12 Sensordaten von dem Bordstein 28, den Pfosten 24 und der weiteren Fahrzeugen 30 erzeugt. Das Erzeugen der Sensordaten von dem Bordstein 28, den Pfosten 24 und den weiteren Fahrzeugen 30 erfolgt durch Aussenden von Ultraschallpulsen 26 mittels den Ultraschallsensoren 16 und detektiert von Echos der Ultraschallpulse 26. Die Steuereinrichtung 14 erzeugt einen Zeitstempel für jedes detektierte Echo.While executing the parking maneuver, the parking aid 12 generates sensor data from the curb 28, the posts 24, and the other vehicles 30. The sensor data from the curb 28, the posts 24, and the other vehicles 30 is generated by emitting ultrasonic pulses 26 using the ultrasonic sensors 16 and detecting echoes of the ultrasonic pulses 26. The control device 14 generates a timestamp for each detected echo.

Die Steuereinrichtung 14 erstellt eine Datensequenz durch Speichern der Sensordaten und den Sensordaten zugeordneten Zeitstempeln in dem Speicher 18 der Steuereinrichtung 14. In der Datensequenz sind die Sensordaten mit aufsteigenden Zeitstempeln angeordnet. Anders formuliert, die Datensequenz ist eine zeitliche Entwicklung der Sensordaten.The control device 14 creates a data sequence by storing the sensor data and the time stamps associated with the sensor data in the memory 18 of the control device 14. In the data sequence, the sensor data are arranged with ascending time stamps. In other words, the data sequence is a temporal development of the sensor data.

Die Steuereinrichtung 14 ermittelt durch eine Analyse der Datensequenz mittels des rekursiven neuronalen Netzes 20, ob die Pfosten 24, der Bordstein 28 und die weiteren Fahrzeuge 30 mit einem Fahrzeug 10 kollisionsfrei überfahrbar sind.The control device 14 determines by analyzing the data sequence using the recursive neural network 20 whether the posts 24, the curb 28 and the other vehicles 30 can be driven over by a vehicle 10 without collision.

Das rekursive neuronale Netz 20 ist derart trainiert, dass bei der Analyse der Datensequenz die Sensordaten in Abhängigkeit eines Abstands zwischen dem Fahrzeug und dem Bordstein 28, eines Abstands zwischen dem Fahrzeug und den Pfosten 24 und eines Abstands zwischen dem Fahrzeug und der weiteren Fahrzeuge 30 gewichtet werden. Die Sensordaten können durch das rekursive neuronale Netz 20 derart gewichtet sein, dass die Sensordaten der Objekte 24, 28, 30 mit einem geringen Abstand zu dem Fahrzeug 10 stärker gewichtet sind als Sensordaten der Objekte 24, 28, 30 mit einem größeren Abstand zu dem Fahrzeug 10. Dies ist aber nicht zwingend. Beliebige andere Muster in der Datensequenz können zur Ermittlung, ob ein Objekt mit dem Fahrzeug kollisionsfrei überfahrbar ist, verwendet werden.The recursive neural network 20 is trained such that, when analyzing the data sequence, the sensor data is weighted depending on a distance between the vehicle and the curb 28, a distance between the vehicle and the posts 24, and a distance between the vehicle and other vehicles 30. The sensor data can be weighted by the recursive neural network 20 such that the sensor data of the objects 24, 28, 30 with a short distance to the vehicle 10 are weighted more heavily than sensor data of the objects 24, 28, 30 with a greater distance to the vehicle 10. However, this is not mandatory. Any other patterns in the data sequence can be used to determine whether an object can be driven over by the vehicle without causing a collision.

Die Analyse der Datensequenz durch das rekursive neuronale Netz 20 ergibt, dass der Bordstein 28 mit dem Fahrzeug 10 überfahrbar ist. Die Analyse der Datensequenz durch das rekursive neuronale Netz 20 ergibt, dass die Pfosten 24 und die weiteren Fahrzeuge 30 mit dem Fahrzeug 10 nicht überfahrbar sind.Analysis of the data sequence by the recursive neural network 20 reveals that the curb 28 can be driven over by the vehicle 10. Analysis of the data sequence by the recursive neural network 20 reveals that the posts 24 and the other vehicles 30 cannot be driven over by the vehicle 10.

Nach einem vorgegebenen zeitlichen Intervall, beispielsweise nach 0,3 Sekunden, senden die Ultraschallsensoren 16 weitere Ultraschallpulse 26 aus und detektieren deren Echos. Die Steuereinrichtung 14 erzeugt weitere Zeitstempel für jedes detektierte Echo. Die dadurch gewonnenen Sensordaten von dem Bordstein 28, den Pfosten 24 und der weiteren Fahrzeuge 30 und den Sensordaten zugeordneten Zeitstempeln werden der bereits vorhandenen Datensequenz hinzugefügt. Mit anderen Worten, die Datensequenz wird während dem Ausführen des Parkmanövers in regelmäßigen zeitlichen Intervallen um weitere Sensordaten erweitert.After a predetermined time interval, for example, after 0.3 seconds, the ultrasonic sensors 16 emit additional ultrasonic pulses 26 and detect their echoes. The control device 14 generates additional time stamps for each detected echo. The resulting sensor data from the curb 28, the posts 24, and the other vehicles 30, as well as the time stamps associated with the sensor data, are added to the existing data sequence. In other words, the data sequence is expanded with additional sensor data at regular time intervals while the parking maneuver is being executed.

Nach jedem Erweitern der Datensequenz um weitere Sensordaten wird die Datensequenz von dem rekursiven neuronalen Netz 20 analysiert. Dadurch wird nach jedem Erweitern der Datensequenz um weitere Sensordaten erneut ermittelt, ob die Pfosten 24, der Bordstein 28 und die weiteren Fahrzeuge 30 mit dem Fahrzeug 10 kollisionsfrei überfahrbar sind.Each time the data sequence is expanded with additional sensor data, the data sequence is analyzed by the recursive neural network 20. Thus, each time the data sequence is expanded with additional sensor data, it is again determined whether the posts 24, the curb 28, and the other vehicles 30 can be driven over by the vehicle 10 without causing a collision.

Das Fahrzeug 10 setzt in Abhängigkeit von der Ermittlung, ob die Pfosten 24, der Bordstein 28 und die weiteren Fahrzeuge 30 mit dem Fahrzeug 10 kollisionsfrei überfahrbar sind, das Parkmanöver fort. Dabei überfährt das Fahrzeug 10 den Bordstein 28 ohne mit den Pfosten 24 oder den weiteren Fahrzeuge 30 zu kollidieren.Depending on the determination of whether the posts 24, the curb 28, and the other vehicles 30 can be crossed without collision, the vehicle 10 continues the parking maneuver. In doing so, the vehicle 10 crosses the curb 28 without colliding with the posts 24 or the other vehicles 30.

6 zeigt ein schematisches Modell von den Sensordaten 36, der Datensequenz 38 und dem rekursiven neuronalen Netz 20 während das Fahrzeug 10 das Parkmanöver ausführt. Die Sensordaten 36 bilden die Datensequenz 38. Die Datensequenz 38 wird nach Ablauf des vorgegebenen zeitlichen Intervalls um weitere Sensordaten 36 erweitert. Nach jeder Erweiterung kann das rekursive neuronale Netz 20 die Datensequenz 38 analysieren. Dadurch wird nach jeder Erweiterung ermittelt, ob die Pfosten 24, der Bordstein 28 und die weiteren Fahrzeuge 30 mit dem Fahrzeug 10 kollisionsfrei überfahrbar sind. Alternativ kann das rekursive neuronale Netz 20 einen internen Zustand aktualisieren, wenn die Datensequenz 38 um weitere Sensordaten 36 erweitert wird. Dadurch kann das rekursive neuronale Netz 20, wenn neue Sensordaten 36 hinzukommen, von dem internen Zustand starten und muss nicht die gesamte Datensequenz 38 verarbeiten. 6 shows a schematic model of the sensor data 36, the data sequence 38, and the recursive neural network 20 while the vehicle 10 performs the parking maneuver. The sensor data 36 form the data sequence 38. The data sequence 38 is expanded by additional sensor data 36 after the specified time interval has elapsed. After each expansion, the recursive neural network 20 can analyze the data sequence 38. This determines after each expansion whether the posts 24, the curb 28, and the other vehicles 30 can be driven over by the vehicle 10 without collision. Alternatively, the recursive neural network 20 can update an internal state when the data sequence 38 is expanded by additional sensor data 36. This allows the recursive neural network 20 to start from the internal state when new sensor data 36 is added and does not have to process the entire data sequence 38.

In 6 ist das Ergebnis der Ermittlung nach jedem Erweitern der Datensequenz 38 mit dem Bezugszeichen h1, h2, hL-1, hL beschriftet.In 6 the result of the determination after each extension of the data sequence 38 is labeled with the reference symbol h 1 , h 2 , h L-1 , h L.

7 zeigt einen beispielhaften Ablauf eines Verfahrens zum Ermitteln, ob ein Objekt mit dem Fahrzeug 10 kollisionsfrei überfahrbar ist. 7 shows an exemplary sequence of a method for determining whether an object can be driven over by the vehicle 10 without collision.

Das Verfahren weist die Schritte auf: e) Trainieren des rekursiven neuronalen Netzes 20 mit zumindest einer Trainingsdatensequenz und mit einer Verlustfunktion und/oder mit einer Bewertungsmetrik derart, dass Sensordaten einer Datensequenz in Abhängigkeit eines Abstands zwischen dem Objekt und dem Fahrzeug 10 gewichtet werden; a) Erzeugen von Sensordaten 36 von dem Objekt durch Erfassen des Objekts mittels Ultraschallsensoren 16 der Parkhilfe 12 des Fahrzeugs 10, während das Fahrzeug 10 das Parkmanöver ausführt, wobei das Erzeugen der Sensordaten 36 von dem Objekt das Erzeugen von Zeitstempeln umfasst; b) Erstellung einer Datensequenz 38 von einer distanzabhängigen oder zeitlichen Entwicklung der Sensordaten 36 durch Speichern der im Schritt a) erzeugten Sensordaten 36 und den Zeitstempeln; und c) Ermitteln durch Analysieren der Datensequenz 38 mittels des rekursiven neuronalen Netzes, ob das Objekt mit dem Fahrzeug 10 kollisionsfrei überfahrbar ist.The method comprises the steps: e) training the recursive neural network 20 with at least one training data sequence and with a loss function and/or with an evaluation metric such that sensor data of a data sequence are weighted as a function of a distance between the object and the vehicle 10; a) generating sensor data 36 from the object by detecting the object using ultrasonic sensors 16 of the parking aid 12 of the vehicle 10 while the vehicle 10 is performing the parking maneuver, wherein generating the sensor data 36 from the object comprises generating timestamps; b) creating a data sequence 38 of a distance-dependent or temporal development of the sensor data 36 by storing the sensor data 36 generated in step a) and the timestamps; and c) determining, by analyzing the data sequence 38 using the recursive neural network, whether the object can be driven over by the vehicle 10 without collision.

Claims (10)

Verfahren zum Ermitteln, ob ein Objekt (24, 28, 30) mit einem Fahrzeug (10) kollisionsfrei überfahrbar ist, wobei das Verfahren die Schritte aufweist: a) Erzeugen von Sensordaten (36) von dem Objekt (24, 28, 30) durch Erfassen des Objekts (24, 28, 30) mittels einer Parkhilfe (12) des Fahrzeugs (10), während das Fahrzeug (10) ein Parkmanöver ausführt, b) Erstellung einer Datensequenz (38) basierend auf einer Entwicklung der Sensordaten (36), und c) Ermitteln durch Analysieren der Datensequenz (38), ob das Objekt (24, 28, 30) mit dem Fahrzeug (10) kollisionsfrei überfahrbar ist.A method for determining whether an object (24, 28, 30) can be driven over by a vehicle (10) without causing a collision, the method comprising the steps of: a) generating sensor data (36) from the object (24, 28, 30) by detecting the object (24, 28, 30) using a parking aid (12) of the vehicle (10) while the vehicle (10) is performing a parking maneuver, b) creating a data sequence (38) based on a development of the sensor data (36), and c) determining by analyzing the data sequence (38) whether the object (24, 28, 30) can be driven over by the vehicle (10) without causing a collision. Verfahren nach Anspruch 1, - wobei die Entwicklung der Sensordaten (36) im Schritt b) eine distanzabhängige Entwicklung und/oder eine zeitliche Entwicklung der Sensordaten (36) ist.Procedure according to Claim 1 , - wherein the development of the sensor data (36) in step b) is a distance-dependent development and/or a temporal development of the sensor data (36). Verfahren nach einem der voranstehenden Ansprüche, - wobei die Erstellung der Datensequenz (38) im Schritt b) durch Speichern der im Schritt a) erzeugten Sensordaten (36) erfolgt.Method according to one of the preceding claims, - wherein the creation of the data sequence (38) in step b) is carried out by storing the sensor data (36) generated in step a). Verfahren nach einem der voranstehenden Ansprüche, - wobei das Analysieren der Datensequenz (38) im Schritt c) durch Bildung einer Korrelation von in der Datensequenz (38) benachbarter und/oder aufeinanderfolgender Sensordaten (36) erfolgt.Method according to one of the preceding claims, - wherein the analysis of the data sequence (38) in step c) is carried out by forming a correlation of adjacent and/or consecutive sensor data (36) in the data sequence (38). Verfahren nach einem der voranstehenden Ansprüche, - wobei das Analysieren der Datensequenz (38) im Schritt c) mittels eines rekursiven neuronalen Netzes (20) erfolgt.Method according to one of the preceding claims, - wherein the analysis of the data sequence (38) in step c) is carried out by means of a recursive neural network (20). Verfahren nach Anspruch 5, - wobei das Verfahren vor dem Schritt c) den Schritt aufweisen: e) Trainieren des rekursiven neuronalen Netzes (20) mit zumindest einer Trainingsdatensequenz.Procedure according to Claim 5 , - wherein the method comprises the step before step c): e) training the recursive neural network (20) with at least one training data sequence. Verfahren nach Anspruch 5 oder 6, - wobei das rekursive neuronale Netz (20) als ein long short-term memory Netz ausgebildet ist.Procedure according to Claim 5 or 6 , - wherein the recursive neural network (20) is designed as a long short-term memory network. Verfahren nach einem der voranstehenden Ansprüche, - wobei das Ermitteln im Schritt c) ein Gewichten der Sensordaten (36) umfasst.Method according to one of the preceding claims, - wherein the determination in step c) comprises weighting the sensor data (36). Verfahren nach Anspruch 8, - wobei das Gewichten der Sensordaten (36) basierend auf einem Abstand zwischen dem Objekt (24, 28, 30) und dem Fahrzeug (10) erfolgt, und/oder - wobei das Gewichten der Sensordaten (36) basierend auf einer zeitlichen Abfolge der Sensordaten (36) erfolgt.Procedure according to Claim 8 , - wherein the weighting of the sensor data (36) is based on a distance between the object (24, 28, 30) and the vehicle (10), and/or - wherein the weighting of the sensor data (36) is based on a temporal sequence of the sensor data (36). Fahrzeug (10), insbesondere Kraftfahrzeug, das dazu ausgebildet ist, ein Verfahren nach einem der voranstehenden Ansprüche auszuführen.Vehicle (10), in particular a motor vehicle, which is designed to carry out a method according to one of the preceding claims.
DE102024203695.1A 2024-04-22 2024-04-22 Method for determining whether an object can be driven over by a vehicle without collision, and vehicle Pending DE102024203695A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102024203695.1A DE102024203695A1 (en) 2024-04-22 2024-04-22 Method for determining whether an object can be driven over by a vehicle without collision, and vehicle
PCT/EP2025/060463 WO2025223952A1 (en) 2024-04-22 2025-04-16 Method for determining whether an object can be driven over by a vehicle without causing a collision, and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102024203695.1A DE102024203695A1 (en) 2024-04-22 2024-04-22 Method for determining whether an object can be driven over by a vehicle without collision, and vehicle

Publications (1)

Publication Number Publication Date
DE102024203695A1 true DE102024203695A1 (en) 2025-10-23

Family

ID=95451493

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102024203695.1A Pending DE102024203695A1 (en) 2024-04-22 2024-04-22 Method for determining whether an object can be driven over by a vehicle without collision, and vehicle

Country Status (2)

Country Link
DE (1) DE102024203695A1 (en)
WO (1) WO2025223952A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007042220A1 (en) * 2007-09-05 2009-03-12 Robert Bosch Gmbh Object classification method, parking assistance method and parking assistance system
DE102009046158A1 (en) * 2009-10-29 2011-05-05 Robert Bosch Gmbh Method for detecting objects with low height
DE102019207688A1 (en) * 2019-05-26 2020-11-26 Robert Bosch Gmbh Method and driver assistance system for classifying objects in the vicinity of a vehicle
DE102020215773A1 (en) * 2020-12-14 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for detecting objects in sensor data from an ultrasonic sensor system in a vehicle
US20220398463A1 (en) * 2021-06-11 2022-12-15 Robert Bosch Gmbh Ultrasonic system and method for reconfiguring a machine learning model used within a vehicle

Also Published As

Publication number Publication date
WO2025223952A1 (en) 2025-10-30

Similar Documents

Publication Publication Date Title
EP1664838B1 (en) Method and computer program for the detection of the contour of an obstacle in the surroundings of a vehicle
DE102011085287A1 (en) Method for determining texture of roadway, involves detecting continuously road surface by ultrasonic sensor system built in vehicle, where road surface is classified based on reflected frequency spectrum
EP2766243B1 (en) Method for improving a parking assistant and parking system
DE102009047283A1 (en) Method and device for assisting a driver of a motor vehicle
DE19953009C2 (en) Device for monitoring the occupancy of motor vehicle parking spaces
DE102007002738A1 (en) Method for supporting a parking operation of a vehicle
WO2016020343A1 (en) Method for detecting at least one object in a surrounding region of a motor vehicle by means of an ultrasonic sensor, driver assistance system, and motor vehicle
DE102017103275A1 (en) Method for detecting an object in a surrounding area of a motor vehicle with the aid of an ultrasonic sensor with improved filtering of ground reflections, control unit, ultrasound sensor device and motor vehicle
DE102019205565A1 (en) Method and device for evaluating an object height by means of ultrasonic signals received from an ultrasonic sensor attached to a vehicle
DE102020119954A1 (en) Method for generating an occupancy grid map for at least one static object, computer program product, computer-readable storage medium and assistance system
WO2016131624A1 (en) System and method for identifying an occupancy status of parking spaces
DE102014116014A1 (en) Method for operating a driver assistance system of a motor vehicle, driver assistance system and motor vehicle
DE102015222800A1 (en) Method for determining a parking area of a road section
EP1755921A1 (en) Method and device for assisting the performance of a parking maneuver of a vehicle
DE102011006939A1 (en) Parking assistance system with side boundary detection
DE102024203695A1 (en) Method for determining whether an object can be driven over by a vehicle without collision, and vehicle
DE102009031561A1 (en) Method for detecting and correcting a malposition of a distance sensor and a driving assistance system for vehicles
EP4165375B1 (en) Method for determining a usage type of a landmark pattern for a self-localization of a vehicle, and electronic self-localization system for a vehicle
WO2004059341A1 (en) Method for detecting environmental information and for determining the position of a parking space
DE102018103414A1 (en) A method for characterizing an object in an environmental region of a motor vehicle with height estimation based on a lateral derivative of a received signal of an ultrasonic sensor, computing device and ultrasonic sensor device
DE102015221551A1 (en) A method, computer-readable medium, system, and vehicle comprising the system for determining a position of a vehicle
DE10322617A1 (en) Road surface object detection procedure recognizes objects by comparing changes in sound field from body part with reference sound pattern spectrum
EP2813861B1 (en) A method for determining a water level in the vicinity of a motor vehicle , driver assistance device and motor vehicle
DE102020215298A1 (en) Method and system for driver assistance, wherein free parking spaces are detected in a vehicle environment
DE102018119371B4 (en) Method for detecting objects in an area surrounding a motor vehicle by tracking signal components in a raw signal from an ultrasonic sensor, computing device and ultrasonic sensor device