DE102023003826A1 - Method for displaying hidden road users and vehicles - Google Patents
Method for displaying hidden road users and vehicles Download PDFInfo
- Publication number
- DE102023003826A1 DE102023003826A1 DE102023003826.1A DE102023003826A DE102023003826A1 DE 102023003826 A1 DE102023003826 A1 DE 102023003826A1 DE 102023003826 A DE102023003826 A DE 102023003826A DE 102023003826 A1 DE102023003826 A1 DE 102023003826A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- road user
- augmented reality
- line
- reality display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
- G01S17/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/04—Display arrangements
- G01S7/046—Display arrangements using an intermediate storage device, e.g. a recording/reproducing device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/04—Display arrangements
- G01S7/06—Cathode-ray tube displays or other two dimensional or three-dimensional displays
- G01S7/20—Stereoscopic displays; Three-dimensional displays; Pseudo-three-dimensional displays
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/04—Display arrangements
- G01S7/06—Cathode-ray tube displays or other two dimensional or three-dimensional displays
- G01S7/22—Producing cursor lines and indicia by electronic means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/04—Display arrangements
- G01S7/06—Cathode-ray tube displays or other two dimensional or three-dimensional displays
- G01S7/24—Cathode-ray tube displays or other two dimensional or three-dimensional displays the display being orientated or displaced in accordance with movement of object carrying the transmitting and receiving apparatus, e.g. true-motion radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/51—Display arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/04—Display arrangements
- G01S7/06—Cathode-ray tube displays or other two dimensional or three-dimensional displays
- G01S7/062—Cathode-ray tube displays or other two dimensional or three-dimensional displays in which different colours are used
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Darstellung verdeckter Verkehrsteilnehmer (1), wobei wenigstens ein durch ein Objekt (2) für einen fahrzeugeigenen innerhalb-der-Sichtlinie-Detektor verdeckter Verkehrsteilnehmer (1) durch die Erfassung durch wenigstens einen fahrzeugeigenen außerhalb-der-Sichtlinie-Detektor (3) im Umfeld eines Fahrzeugs (4) erkannt wird, und wobei zumindest die aktuelle Relativposition des Verkehrsteilnehmers (1) gegenüber dem Fahrzeug (4) bestimmt wird. Das erfindungsgemäß Verfahren ist dadurch gekennzeichnet, dass der Verkehrsteilnehmer (1) auf einer im Fahrzeug (4) genutzten Erweiterte-Realität-Anzeige (5) kontaktanlog zu seiner aktuellen Aufenthaltsposition dargestellt wird.The invention relates to a method for displaying hidden road users (1), wherein at least one road user (1) hidden by an object (2) for a vehicle's own within-the-line-of-sight detector is detected by at least one vehicle's own outside-the-line-of-sight detector. Detector (3) is detected in the surroundings of a vehicle (4), and at least the current relative position of the road user (1) relative to the vehicle (4) is determined. The method according to the invention is characterized in that the road user (1) is displayed in contact with his current location on an augmented reality display (5) used in the vehicle (4).
Description
Die Erfindung betrifft ein Verfahren zur Darstellung verdeckter Verkehrsteilnehmer nach der im Oberbegriff von Anspruch 1 näher definierten Art sowie ein Fahrzeug zur Durchführung des Verfahrens.The invention relates to a method for displaying hidden road users according to the type defined in more detail in the preamble of
Eine fahrzeugführende Person muss während der Fahrt ihr Umfeld beobachten, um statische und dynamische Objekte, wie beispielsweise weitere Verkehrsteilnehmer, zu identifizieren und Kollisionen mit Ihnen zu vermeiden. Ist die fahrzeugführende Person abgelenkt und/oder liegen widrige Sichtbedingungen vor, kann die Detektionsfähigkeit der fahrzeugführenden Person leiden, was das Unfallpotenzial erhöht. Abhilfe schaffen hier auf einer sensorbasierten Umfelderfassung aufbauende Fahrerassistenzsysteme, die ebenfalls dazu in der Lage sind, Umgebungsobjekte zu detektieren und bei Bedarf Hinweise bzw. Warnungen an die fahrzeugführende Person auszugeben oder sogar automatisiert in die Steuerung des Fahrzeugs einzugreifen. Hierzu werden Sensoren zur Erzeugung von Tiefeninformationen wie Ultraschallsensoren, Radarsensoren, Laserscanner wie LiDARe und Kameras verwendet.A person driving the vehicle must observe their surroundings while driving in order to identify static and dynamic objects, such as other road users, and to avoid collisions with them. If the person driving the vehicle is distracted and/or there are adverse visibility conditions, the detection ability of the person driving the vehicle may suffer, which increases the potential for an accident. The solution here is driver assistance systems based on sensor-based environmental detection, which are also able to detect surrounding objects and, if necessary, issue information or warnings to the person driving the vehicle or even intervene automatically in the control of the vehicle. For this purpose, sensors are used to generate depth information such as ultrasonic sensors, radar sensors, laser scanners such as LiDARe and cameras.
Solche Sensoren weisen eine gewisse Detektionsreichweite bzw. einen gewissen Sichtbereich auf. Es können ausschließlich Objekte innerhalb des Sichtbereichs erfasst werden, weshalb solche Sensoren auch als „innerhalb-der-Sichtlinie-Detektor“ bezeichnet werden könnten.Such sensors have a certain detection range or a certain field of vision. Only objects within the field of vision can be detected, which is why such sensors could also be referred to as “within-line-of-sight detectors”.
Im Straßenverkehr werden jedoch häufig Situationen angetroffen, bei denen Verkehrsteilnehmer durch Objekte, wie beispielsweise parkende Autos, Häuserecken, Hecken, Mauern und dergleichen, verdeckt werden, sodass diese sowohl von der fahrzeugführenden Person, als auch von entsprechenden innerhalb-der-Sichtlinie-Detektoren nicht erkannt werden können. Beispielsweise kann ein Kind plötzlich auf die Fahrbahn rennen oder ein Radfahrer mit überhöhtem Tempo über die Straße fahren. Dies führt zu Verkehrssituationen mit einem besonders hohen Unfallrisiko.In road traffic, however, situations are often encountered in which road users are obscured by objects such as parked cars, corners of houses, hedges, walls and the like, so that they cannot be detected by the person driving the vehicle or by corresponding within-line-of-sight detectors can be recognized. For example, a child may suddenly run onto the road or a cyclist may drive across the street at excessive speed. This leads to traffic situations with a particularly high risk of accidents.
Es ist daher wünschenswert Verfahren und Mittel bereitzustellen, mit denen das Unfallrisiko auch in solchen Situationen abgemindert werden kann.It is therefore desirable to provide procedures and means with which the risk of accidents can be reduced even in such situations.
Aus dem Stand der Technik sind sogenannte „außerhalb-der-Sichtlinie-Detektoren“, auch als None-Line-Off-Side Detector bezeichnet, bekannt. Mit Hilfe solcher Detektoren ist es möglich „um Ecken zu sehen“ und somit auch durch Objekte verdeckte Verkehrsteilnehmer erkennen zu können.So-called “outside-the-line-of-sight detectors”, also referred to as none-line off-side detectors, are known from the prior art. With the help of such detectors it is possible to “see around corners” and thus also be able to recognize road users hidden by objects.
Ein durch ein Doppler-Radar ausgebildeter außerhalb-der-Sichtlinie-Detektor ist beispielsweise bekannt aus: Scheiner, Nikolas, et al.; Seeing Around Street Corners: Non-Line-of-Sight Detection and Tracking In-the-Wild Using Doppler Radar; Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern recognition (CVPR); 2020; pp. 2068-2077. Das Dokument beschreibt ein Verfahren zur Detektion von verdeckten Verkehrsteilnehmern, welches sich auch in komplexen und dynamischen Verkehrssituationen anwenden lässt und hierdurch für die Integration in Fahrzeuge wie beispielsweise Pkws infrage kommt. Dabei können Verkehrsteilnehmer hinter Objekten nicht nur erkannt, sondern auch nachverfolgt werden. Hierzu werden Radarwellen auf im Umfeld befindliche Objekte wie beispielsweise Wände oder parkende Fahrzeuge geworfen, welche die Radarwellen wiederum in die Umgebung zurück reflektieren. Diese Radarechos treffen dann auf den eigentlich zu erkennenden Verkehrsteilnehmer, welcher wiederum Radarechos hervorruft, die über mehrfache Reflektion zurück zum Radar geworfen werden. Als Radar wurde dabei ein sogenanntes frequency-modulated continuous-wave (FMCW) Doppler-Radar mit einer multiple-input-multiple-ouput (MIMO) Array-Konfiguration verwendet. Die derartig generierten Radarsensordaten werden mit Hilfe des maschinellen Lernens ausgewertet. Dabei lassen sich jedoch keine Detailstrukturen eines verdeckten Verkehrsteilnehmers erkennen, was eine Rekonstruktion seines Aussehens erlauben würde. Es lassen sich jedoch Aussagen über die ungefähren Dimensionen des Verkehrsteilnehmers machen, was eine Klassifizierung zu beispielsweise einer der Gruppen: Fußgänger, Fahrradfahrer, Pkw, Lkw oder dergleichen, erlaubt.An out-of-sight detector formed by a Doppler radar is known, for example, from: Scheiner, Nikolas, et al.; Seeing Around Street Corners: Non-Line-of-Sight Detection and Tracking In-the-Wild Using Doppler Radar; Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern recognition (CVPR); 2020; pp. 2068-2077. The document describes a method for detecting hidden road users, which can also be used in complex and dynamic traffic situations and is therefore suitable for integration into vehicles such as cars. Road users behind objects can not only be recognized, but also tracked. For this purpose, radar waves are thrown onto objects in the surrounding area, such as walls or parked vehicles, which in turn reflect the radar waves back into the environment. These radar echoes then hit the road user that is actually being recognized, which in turn causes radar echoes that are reflected back to the radar via multiple reflections. The radar used was a so-called frequency-modulated continuous-wave (FMCW) Doppler radar with a multiple-input-multiple-output (MIMO) array configuration. The radar sensor data generated in this way is evaluated using machine learning. However, no detailed structures of an obscured road user can be seen, which would allow a reconstruction of his appearance. However, statements can be made about the approximate dimensions of the road user, which allows a classification into one of the groups, for example: pedestrians, cyclists, cars, trucks or the like.
Ferner ist es bekannt Kameras und entsprechend angepasste Algorithmen zur Analyse der Kamerabilder als außerhalb-der-Sichtlinie-Detektor zu nutzen, was beispielsweise bekannt ist aus: Stanford camera can watch moving objects around corners, 29.07.2019, https://news.stanford.edu/press/view/29312.Furthermore, it is known to use cameras and correspondingly adapted algorithms to analyze the camera images as outside-of-the-line-of-sight detectors, which is known, for example, from: Stanford camera can watch moving objects around corners, July 29, 2019, https://news.stanford .edu/press/view/29312.
Aufgrund der im Vergleich zu Radar genutzten kleineren Wellenlänge lassen sich dabei detaillierte Informationen erhalten, was es auch erlaubt das konkrete Aussehen eines verdeckten Verkehrsteilnehmers zu ermitteln.Due to the smaller wavelength used compared to radar, detailed information can be obtained, which also makes it possible to determine the specific appearance of an obscured road user.
Ferner sind aus der
Der vorliegenden Erfindung liegt die Aufgabe zugrunde ein verbessertes Verfahren zur Darstellung verdeckter Verkehrsteilnehmer anzugeben, mit dem die Verkehrssicherheit weiter gesteigert werden kann.The present invention is based on the object of specifying an improved method for displaying hidden road users, with which traffic safety can be further increased.
Erfindungsgemäß wird diese Aufgabe durch ein Verfahren zur Darstellung verdeckter Verkehrsteilnehmer mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen sowie ein Fahrzeug zur Durchführung des Verfahrens ergeben sich aus den hiervon abhängigen Ansprüchen.According to the invention, this object is achieved by a method for displaying hidden road users with the features of
Ein gattungsgemäßes Verfahren zur Darstellung verdeckter Verkehrsteilnehmer, wobei wenigstens ein durch ein Objekt für einen fahrzeugeigenen innerhalb-der-Sichtlinie-Detektor verdeckter Verkehrsteilnehmer durch die Erfassung durch wenigstens einen fahrzeugeigenen außerhalb-der-Sichtlinie-Detektor im Umfeld eines Fahrzeugs erkannt wird, und wobei zumindest die aktuelle Relativposition des Verkehrsteilnehmers gegenüber dem Fahrzeug bestimmt wird, wird erfindungsgemäß dadurch weitergebildet, dass der Verkehrsteilnehmer auf einer im Fahrzeug genutzten Erweiterte-Realität-Anzeige kontaktanlog zu seiner aktuellen Aufenthaltsposition dargestellt wird. Hierdurch lässt sich die Verkehrssicherheit verbessern, da die fahrzeugführende Person des Fahrzeugs bereits über die Anwesenheit des verdeckten Verkehrsteilnehmers informiert wird, obwohl die fahrzeugführende Person den verdeckten Verkehrsteilnehmer selbst mit nacktem Auge nicht sehen kann. Die fahrzeugführende Person kann entsprechend ihr Fahrverhalten daran anpassen und beispielsweise die Fortbewegungsgeschwindigkeit des Fahrzeugs reduzieren, zur Seite lenken, den Fuß vom Gaspedal nehmen und auf das Bremspedal legen und dergleichen.A generic method for displaying hidden road users, wherein at least one road user hidden by an object for a vehicle's own within-the-line-of-sight detector is detected in the surroundings of a vehicle by detection by at least one vehicle's own outside-the-line-of-sight detector, and wherein at least the current relative position of the road user relative to the vehicle is determined, is further developed according to the invention in that the road user is displayed in contact with his current position on an augmented reality display used in the vehicle. This makes it possible to improve traffic safety because the person driving the vehicle is already informed about the presence of the hidden road user, even though the person driving the vehicle cannot see the hidden road user even with the naked eye. The person driving the vehicle can adapt their driving behavior accordingly and, for example, reduce the speed of movement of the vehicle, steer it to the side, take their foot off the accelerator pedal and place it on the brake pedal, and the like.
Die Darstellung des verdeckten Verkehrsteilnehmers auf einer Erweiterte-Realität-Anzeige hat dabei den weiteren Vorteil, dass der Verkehrsteilnehmer direkt im Sichtfeld der fahrzeugführenden Person und kontaktanalog zu seiner realen Aufenthaltsposition dargestellt wird. Somit wird die fahrzeugführende Person nicht nur über die Anwesenheit des verdeckten Verkehrsteilnehmers informiert, sondern kann diesen auch relativ gegenüber dem Fahrzeug verorten. Somit kann die fahrzeugführende Person noch angemessener auf den verdeckten Verkehrsteilnehmer reagieren.The representation of the hidden road user on an augmented reality display has the further advantage that the road user is displayed directly in the field of vision of the person driving the vehicle and in a contact analogue to his real position. This means that the person driving the vehicle is not only informed about the presence of the hidden road user, but can also locate him relative to the vehicle. This means that the person driving the vehicle can react even more appropriately to the hidden road user.
Das Fahrzeug muss dabei nicht zwangsweise innerhalb-der-Sichtlinie-Detektoren aufweisen, sondern der verdeckten Verkehrsteilnehmer hält sich lediglich in solchen Bereichen auf, die durch einen solchen potenziell vom Fahrzeug mitgeführten Detektor nicht einsehbar wären. Selbstverständlich kann das Fahrzeug aber auch über innerhalb-der-Sichtlinie-Detektoren verfügen. Hierzu kommen insbesondere Ultraschallsensorsysteme, Radarsensorsysteme, LiDARe und Kameras infrage.The vehicle does not necessarily have to have detectors within the line of sight, but the hidden road user only stays in areas that would not be visible through such a detector potentially carried by the vehicle. Of course, the vehicle can also have within-line-of-sight detectors. Ultrasonic sensor systems, radar sensor systems, LiDARe and cameras are particularly suitable for this.
Die Einbaulage des außerhalb-der-Sichtlinie-Detektors am Fahrzeug sowie die Einbaulage bzw. Position und Orientierung der Erweiterte-Realität-Anzeige im Fahrzeug ist ebenfalls bekannt. Unter Berücksichtigung der Kopfposition der fahrzeugführenden Person und deren Blickrichtung lässt sich dann der jeweilige verdeckte Verkehrsteilnehmer kontaktanlog zu seiner tatsächlichen Aufenthaltsposition auf der Erweiterte-Realität-Anzeige darstellen.The installation position of the outside-of-line-of-sight detector on the vehicle as well as the installation position or position and orientation of the augmented reality display in the vehicle are also known. Taking into account the head position of the person driving the vehicle and their line of sight, the respective hidden road user can then be displayed in contact with their actual position on the augmented reality display.
Unter Analyse der vom außerhalb-der-Sichtlinie-Detektor generierten Sensordaten lassen sich auch die Dimensionen des Verkehrsteilnehmers zumindest abschätzen. Dies ermöglicht in einer bevorzugten Ausführungsform die Größe der Darstellung des Verkehrsteilnehmers auf der Erweiterte-Realität-Anzeige an die tatsächlichen Dimensionen des Verkehrsteilnehmers in der Realität unter Berücksichtigung dessen Abstands zum Fahrzeug anzupassen. So kann beispielsweise ein verdeckter Lkw größer dargestellt werden als ein Radfahrer und/oder ein in einer großen Entfernung verdeckter Pkw kleiner als ein in kurzer Distanz verdeckter Pkw.By analyzing the sensor data generated by the out-of-sight detector, the dimensions of the road user can at least be estimated. In a preferred embodiment, this makes it possible to adapt the size of the representation of the road user on the augmented reality display to the actual dimensions of the road user in reality, taking into account their distance from the vehicle. For example, a hidden truck can be shown larger than a cyclist and/or a car hidden at a large distance is smaller than a car hidden at a short distance.
Die Darstellung des verdeckten Verkehrsteilnehmers auf der Erweiterte-Realität-Anzeige kann in Abhängigkeit verschiedener Randbedingungen unterschiedlich gewählt werden. So kann insbesondere die Farbe, der Kontrast, die Transparenz und dergleichen verschiedener Partien der Darstellung unterschiedlich sein bzw. in Abhängigkeit der verstrichenen Zeitdauer bzw. des Eintreffens eines Ereignisses verändert werden. Zur besseren Kennzeichnung des verdeckten Verkehrsteilnehmers kann beispielsweise die Darstellung mittels eines oder mehrerer Filter verfremdet werden. So könnte, beispielsweise durch das Aufprägen einer Transparenz, eine geisterhafte Erscheinung vorgetäuscht werden.The representation of the hidden road user on the augmented reality display can be selected differently depending on different boundary conditions. In particular, the color, contrast, transparency and the like of different parts of the representation can be different or changed depending on the elapsed time or the occurrence of an event. To better identify the hidden road user, for example, the representation can be distorted using one or more filters. For example, by imposing transparency, a ghostly appearance could be simulated.
Von dem wenigstens einen außerhalb-der-Sichtlinie-Detektor generierte Sensordaten sowie optional von dem oder den innerhalb-der-Sichtlinie-Detektor generierten Sensordaten werden dabei von einer fahrzeuginternen Recheneinheit verarbeitet. In Abhängigkeit dieser Verarbeitung steuert dann die jeweilige Recheneinheit die Erweiterte-Realität-Anzeige an, um den verdeckten Verkehrsteilnehmer kontaktanalog zu seiner tatsächlichen Aufenthaltsposition relativ gegenüber dem Fahrzeug darzustellen.Sensor data generated by the at least one outside-of-the-line-of-sight detector and optionally sensor data generated by the within-the-line-of-sight detector are processed by a vehicle-internal computing unit tet. Depending on this processing, the respective computing unit then controls the augmented reality display in order to display the hidden road user in a contact-analogous manner to their actual position relative to the vehicle.
Eine vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens sieht dabei vor, dass ein Doppler-Radar als außerhalb-der-Sichtlinie-Detektor verwendet wird. Entsprechend wird auf der Recheneinheit ein zur Verarbeitung der vom Doppler-Radar generierten Sensordaten geeigneter Programmcode bzw. Algorithmus implementiert. Dieser kann bevorzugt auf künstlicher Intelligenz basieren, insbesondere unter Verwendung von Modellen des maschinellen Lernens. Mit Hilfe eines Doppler-Radars und einer entsprechenden Sensorauswertung können verdeckte Verkehrsteilnehmer durch Reflektionen der Radarwellen von Wänden, anderen Fahrzeugen und sogar von Bordsteinen detektiert werden.An advantageous embodiment of the method according to the invention provides that a Doppler radar is used as an outside-of-the-line-of-sight detector. Accordingly, a program code or algorithm suitable for processing the sensor data generated by the Doppler radar is implemented on the computing unit. This can preferably be based on artificial intelligence, in particular using machine learning models. With the help of a Doppler radar and corresponding sensor evaluation, hidden road users can be detected through reflections of the radar waves from walls, other vehicles and even curbs.
Bevorzugt werden dabei vom Doppler-Radar generierte Sensordaten mittels eines entsprechend trainierten Modells des maschinellen Lernens zur Klassifizierung des Verkehrsteilnehmers analysiert und der Verkehrsteilnehmer wird auf der Erweiterte-Realität-Anzeige durch ein klassenspezifisches Symbolbild dargestellt. Bevorzugt wird als Modell des maschinellen Lernens ein künstliches neuronales Netz verwendet. Mittels eines speziell hierzu trainierten künstlichen neuronalen Netzes ist es zuverlässig möglich anhand der verfügbaren Radarsignale charakteristische Geometriemerkmale des Verkehrsteilnehmers zu identifizieren und den Verkehrsteilnehmer anhand dieser Geometriemerkmale bestimmten Klassen zuzuordnen, wie beispielsweise einem Fußgänger, einem Fahrradfahrer, einem Pkw, einem Lkw und dergleichen. Unter Verwendung von Radarwellen lassen sich die Dimensionen des verdeckten Verkehrsteilnehmers nicht exakt bestimmen, sondern nur in einer vergleichsweise groben Näherung bestimmen. Dies reicht jedoch zur Klassifizierung in entsprechende Gruppen aus. Durch das Zuordnen einer jeweiligen Gruppe und Anpassen der Darstellung durch die Wahl des klassenspezifischen Symbolbilds lässt sich die fahrzeugführende Person noch umfangreicher über den verdeckten Verkehrsteilnehmer informieren, da die fahrzeugführende Person nun weiß, um welche Art von verdeckten Verkehrsteilnehmer es sich handelt. So würde beispielsweise die fahrzeugführende Person bei einer Darstellung eines Kinds als Verkehrsteilnehmer eher damit rechnen, dass das Kind auf die Straße rennt, als für den Fall, dass ein Lkw dargestellt wird, da sich typischerweise Lkws erst langsam in eine Einmündung hineintasten.Sensor data generated by the Doppler radar is preferably analyzed using an appropriately trained machine learning model to classify the road user and the road user is represented on the augmented reality display by a class-specific symbolic image. An artificial neural network is preferably used as the machine learning model. Using an artificial neural network trained specifically for this purpose, it is reliably possible to identify characteristic geometric features of the road user based on the available radar signals and to assign the road user to certain classes based on these geometric features, such as a pedestrian, a cyclist, a car, a truck and the like. Using radar waves, the dimensions of the hidden road user cannot be determined exactly, but can only be determined to a comparatively rough approximation. However, this is sufficient for classification into appropriate groups. By assigning a respective group and adapting the representation by selecting the class-specific symbol image, the person driving the vehicle can be informed even more extensively about the hidden road user, since the person driving the vehicle now knows what type of hidden road user it is. For example, if a child is depicted as a road user, the person driving the vehicle would be more likely to expect the child to run into the street than if a truck was depicted, since trucks typically only slowly make their way into an intersection.
Das klassenspezifische Symbolbild kann wechselbar sein. Dies bedeutet, dass für ein und dieselbe Klasse verschiedene Symbolbilder auf der Recheneinheit vorgehalten werden können. Ein jeweiliges Symbolbild kann per Zufall ausgewählt werden. Die fahrzeugführende Person kann jedoch auch eine manuelle Bedieneingabe tätigen, um ein bestimmtes Symbolbild in Übereinkunft mit ihren Vorlieben auszuwählen. So könnte als Pkw beispielsweise immer ein silberner Mercedes 300 SL und als Fahrrad ein grünes Mountainbike mit einem männlichen Fahrer im grauen Anzug und gelben Helm dargestellt werden.The class-specific symbol image can be changed. This means that different symbol images can be kept on the computing unit for one and the same class. A respective symbol image can be selected at random. However, the person driving the vehicle can also make a manual control input to select a specific symbol image in accordance with their preferences. For example, the car could always be a silver Mercedes 300 SL and the bicycle could be a green mountain bike with a male driver in a gray suit and yellow helmet.
Eine weitere vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens sieht ferner vor, dass eine Kamera als außerhalb-der-Sichtlinie-Detektor verwendet wird. Auch hier wird ein speziell zur Auswertung von der Kamera generierter Kamerabilder angepasster Algorithmus in der Recheneinheit implementiert, der das Detektieren verdeckter Verkehrsteilnehmer ermöglicht. Entsprechende Algorithmen sind hinreichend aus dem eingangs zitierten Stand der Technik bekannt. Dabei kann sichtbares Licht, UV-Licht oder auch Infrarotlicht verwendet werden. Die Szenerie kann dabei aktiv durch eine ultrahelle Lichtquelle, beispielsweise einen Laser, ausgeleuchtet werden, um entsprechende Schatten/Reflexionen hervorzurufen. Durch die im Vergleich zu Radarwellen geringere Wellenlänge lassen sich feinere Strukturen erkennen, was nicht nur eine Klassifizierung der Verkehrsteilnehmer zu Objektklassen ermöglicht, sondern eine ausreichend genau Erfassung der Dimensionen des Verkehrsteilnehmers erlaubt, sodass der Verkehrsteilnehmer auf der Erweiterte-Realität-Anzeige so dargestellt werden kann, wie er auch in der Realität tatsächlich aussieht. Hiermit sind lediglich die Dimensionen des Verkehrsteilnehmers gemeint, da aus entsprechenden Lichtreflektionen nicht zwangsweise auch die Farbe der jeweiligen Oberflächenbereiche des Verkehrsteilnehmers identifiziert werden kann.A further advantageous embodiment of the method according to the invention further provides that a camera is used as an outside-of-the-line-of-sight detector. Here too, an algorithm specially adapted to evaluate camera images generated by the camera is implemented in the computing unit, which enables hidden road users to be detected. Corresponding algorithms are sufficiently known from the prior art cited at the beginning. Visible light, UV light or infrared light can be used. The scene can be actively illuminated by an ultra-bright light source, such as a laser, to create corresponding shadows/reflections. The shorter wavelength compared to radar waves allows finer structures to be detected, which not only enables road users to be classified into object classes, but also allows the dimensions of the road user to be recorded with sufficient precision so that the road user can be represented in this way on the augmented reality display , what it actually looks like in reality. This only refers to the dimensions of the road user, since the color of the respective surface areas of the road user cannot necessarily be identified from corresponding light reflections.
Radarsensoren und Kameras lassen sich somit sowohl als innerhalb-der-Sichtlinie-Detektor, als auch als außerhalb-der-Sichtlinie-Detektor verwenden. Jedoch sind gewisse Anpassungen notwendig, wie die Verwendung eines speziell angepassten Auswertealgorithmus zum Auswerten der Sensordaten, zudem müssen die jeweiligen Detektoren eine ausreichende Erfassungsgenauigkeit aufweisen. Hierzu wird wieder auf die eingangs zitierten Quellen aus dem Stand der Technik verwiesen.Radar sensors and cameras can therefore be used both as within-the-line-of-sight detectors and as outside-the-line-of-sight detectors. However, certain adjustments are necessary, such as the use of a specially adapted evaluation algorithm to evaluate the sensor data, and the respective detectors must also have sufficient detection accuracy. In this regard, reference is made again to the sources from the prior art cited at the beginning.
Generell wäre es möglich, dass ein und dasselbe Radarsystem sowie ein und dieselbe Kamera gleichzeitig als innerhalb-der-Sichtlinie-Detektor und außerhalb-der-Sichtlinie-Detektor verwendet wird.In general, it would be possible for one and the same radar system and one and the same camera to be used simultaneously as an within-line-of-sight detector and an outside-of-line-of-sight detector.
Das Fahrzeug kann auch über mehrere Doppler-Radare sowie mehrere Kameras verfügen. Es kann auch ein Doppler-Radar mit einer als außerhalb-der-Sichtlinie-Detektor fungierenden Kamera zusammenwirken. So können entsprechende Sensordaten fusioniert werden, was eine noch zuverlässigere Detektion von verdeckten Verkehrsteilnehmern erlaubt.The vehicle may also have multiple Doppler radars as well as multiple cameras. It can also be a Doppler radar with a camera acting as an out-of-line-of-sight detector cooperate. Corresponding sensor data can be merged, allowing even more reliable detection of hidden road users.
Entsprechend einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens, erfasst der wenigstens eine außerhalb-der-Sichtlinie-Detektor das Umfeld des Fahrzeugs fortwährend und die Relativposition des Verkehrsteilnehmers wird nach jeder Abtastung des Umfelds aktualisiert. Somit kann der verdeckte Verkehrsteilnehmer nicht nur einmalig im Umfeld des Fahrzeugs verortet und entsprechend dargestellt werden, sondern mehrmals über der Zeit. Ändert sich die Position des Fahrzeugs und/oder des verdeckten Verkehrsteilnehmers, kann somit die fahrzeugführende Person über die veränderte Relativlage informiert werden.According to a further advantageous embodiment of the method according to the invention, the at least one outside-the-line-of-sight detector continuously detects the surroundings of the vehicle and the relative position of the road user is updated after each scanning of the surroundings. This means that the hidden road user can be located and represented not just once in the area around the vehicle, but several times over time. If the position of the vehicle and/or the hidden road user changes, the person driving the vehicle can be informed about the changed relative position.
Bevorzugt wird dabei eine Bewegungstrajektorie für den Verkehrsteilnehmer bestimmt. Hierzu kann der Unterschied zwischen der detektierten Relativposition des verdeckten Verkehrsteilnehmers zum Fahrzeug über die Zeit nachverfolgt werden, und daraus wiederum bestimmt werden, in welche Richtung und mit welcher Geschwindigkeit sich der verdeckte Verkehrsteilnehmer bewegt. So kann beispielsweise ermittelt werden, ob der verdeckte Verkehrsteilnehmer in kürze die vom Fahrzeug befahrene Fahrbahn betreten wird.A movement trajectory for the road user is preferably determined. For this purpose, the difference between the detected relative position of the hidden road user to the vehicle can be tracked over time, and from this in turn it can be determined in which direction and at what speed the hidden road user is moving. For example, it can be determined whether the hidden road user will soon enter the road the vehicle is traveling on.
Dies kann gemäß einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens dazu genutzt werden, die Bewegungstrajektorie des Verkehrsteilnehmers und des Fahrzeugs miteinander abzugleichen, und nur solche Verkehrsteilnehmer auf der Erweiterte-Realität-Anzeige darzustellen, für die eine Kollision mit dem Fahrzeug droht. Generell ist die kognitive Verarbeitungsfähigkeit der fahrzeugführenden Person begrenzt. Somit sollten möglichst nur relevante Informationen an die fahrzeugführende Person ausgegeben werden, um die fahrzeugführende Person nicht mental zu überlasten. Beispielsweise könnten sich auf einem durch parkende Fahrzeuge verdeckten Bürgersteig mehrere Personen und Radfahrer befinden, wobei ein Großteil dieser Verkehrsteilnehmer sich parallel zur Fahrbahn bewegen wird. Eine Darstellung dieser Verkehrsteilnehmer könnte die Erweiterte-Realität-Anzeige schnell überfrachten und die fahrzeugführende Person übermäßig ablenken. Zudem ist eine Darstellung dieser Verkehrsteilnehmer nicht relevant, da kein potenzieller Unfall droht. Bevorzugt werden daher nur solche verdeckten Verkehrsteilnehmer auch dargestellt, für die potenziell eine Kollision mit dem Fahrzeug bevorsteht. Dabei müssen sich das Fahrzeug und der Verkehrsteilnehmer nicht zwangsweise auf ihren jeweiligen Trajektorien zum selben Zeitpunkt im Schnittpunkt treffen. Es kann auch ausreichen, dass sich lediglich die Trajektorien des Fahrzeugs und des verdeckten Verkehrsteilnehmers schneiden, damit ein jeweiliger verdeckter Verkehrsteilnehmer dargestellt wird.According to a preferred embodiment of the method according to the invention, this can be used to compare the movement trajectory of the road user and the vehicle and to display only those road users on the augmented reality display for whom there is a risk of a collision with the vehicle. In general, the cognitive processing ability of the person driving the vehicle is limited. Therefore, if possible, only relevant information should be given to the person driving the vehicle in order not to overload the person driving the vehicle mentally. For example, there could be several people and cyclists on a sidewalk obscured by parked vehicles, with the majority of these road users moving parallel to the road. A representation of these road users could quickly overload the augmented reality display and excessively distract the person driving the vehicle. In addition, a representation of these road users is not relevant as there is no potential risk of an accident. Therefore, only those hidden road users who are potentially in danger of colliding with the vehicle are shown. The vehicle and the road user do not necessarily have to meet at the same point in time on their respective trajectories. It may also be sufficient that only the trajectories of the vehicle and the hidden road user intersect so that a respective hidden road user is displayed.
Die Darstellung der verdeckten Verkehrsteilnehmer kann auch in Abhängigkeit unterschiedlicher Randbedingungen angepasst werden. Beispielsweise könnte als Randbedingung die absolute Anzahl verdeckter Verkehrsteilnehmer herangezogen werden. Werden dann beispielsweise nur einige wenige verdeckte Verkehrsteilnehmer identifiziert, so können bevorzugt auch solche verdeckten Verkehrsteilnehmer dargestellt werden, für die keine Kollision mit dem Fahrzeug droht, da keine Gefahr besteht, dass die fahrzeugführende Person durch die Darstellung mental überlastet wird. Somit wird die fahrzeugführende Person dennoch über die generelle Anwesenheit verdeckter Verkehrsteilnehmer informiert, was die fahrzeugführende Person zu einer sichereren bzw. defensiveren Fahrweise veranlassen könnte.The representation of the hidden road users can also be adapted depending on different boundary conditions. For example, the absolute number of hidden road users could be used as a boundary condition. If, for example, only a few hidden road users are identified, then those hidden road users who are not at risk of colliding with the vehicle can also preferably be shown, since there is no risk that the person driving the vehicle will be mentally overloaded by the representation. This means that the person driving the vehicle is still informed about the general presence of hidden road users, which could lead the person driving the vehicle to adopt a safer or more defensive driving style.
Auch könnte die Darstellung in Abhängigkeit der Verkehrsteilnehmerklasse angepasst werden. So könnten beispielsweise Fußgänger und Fahrradfahrer immer dargestellt werden und Pkws und Lkws nur dann dargestellt werden, wenn eine Kollision mit dem Fahrzeug droht.The display could also be adapted depending on the class of road user. For example, pedestrians and cyclists could always be shown, and cars and trucks could only be shown if there was a risk of a collision with the vehicle.
Eine weitere vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens sieht ferner vor, dass, sobald der Verkehrsteilnehmer das Sichtfeld der fahrzeugführenden Person betritt:
- - die Darstellung des Verkehrsteilnehmers auf der Erweiterte-Realität-Anzeige eingestellt wird;
- - der nicht mehr durch das Objekt verdeckte Teil des Verkehrsteilnehmers von der Darstellung auf der Erweiterte-Realität-Anzeige ausgespart wird und der noch verdeckte Teil des Verkehrsteilnehmers weiterhin dargestellt wird; oder
- - die Darstellung des Verkehrsteilnehmers auf der Erweiterte-Realität-Anzeige fortgeführt wird.
- - the representation of the road user on the augmented reality display is adjusted;
- - the part of the road user that is no longer covered by the object is omitted from the representation on the augmented reality display and the part of the road user that is still covered continues to be shown; or
- - the representation of the road user continues on the augmented reality display.
Tritt der verdeckte Verkehrsteilnehmer hinter dem Objekt hervor, sodass die fahrzeugführende Person den Verkehrsteilnehmer nun sieht, ist es generell nicht mehr erforderlich den Verkehrsteilnehmer auf der Erweiterte-Realität-Anzeige darzustellen. Die Darstellung könnte jedoch auch fortgeführt werden, um den Verkehrsteilnehmer für die fahrzeugführende Person hervorzuheben. Beispielsweise könnte der Verkehrsteilnehmer schlecht sichtbar sein, beispielsweise weil es sich um Fahrsituation bei Nacht in einer dunklen Umgebung handelt und der Verkehrsteilnehmer dunkle Kleidung trägt. Somit sinkt das Risiko, dass die fahrzeugführende Person den Verkehrsteilnehmer übersieht, auch wenn sich der Verkehrsteilnehmer nun im Sichtfeld der fahrzeugführenden Person aufhält. In einer besonders bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens werden dabei bereits sichtbare Teile des Verkehrsteilnehmers nicht mehr auf der Erweiterte-Realität-Anzeige dargestellt, die noch verdeckten Bereiche jedoch weiterhin. Dies ermöglicht einen Übergang vom Objekt in den Sichtbereich, was der fahrzeugführenden Person insbesondere vermittelt, dass der Verkehrsteilnehmer nun nicht mehr verdeckt wird.If the hidden road user comes out from behind the object so that the person driving the vehicle can now see the road user, it is generally no longer necessary to display the road user on the augmented reality display. However, the representation could also be continued to highlight the road user for the person driving the vehicle. For example, the road user could be poorly visible, for example because it is a driving situation at night in a dark environment and the road user is wearing dark clothing. This reduces the risk that the person driving the vehicle will overlook the road user, even if the road user is now in the field of vision of the person driving the vehicle. In one In a particularly preferred embodiment of the method according to the invention, parts of the road user that are already visible are no longer shown on the augmented reality display, but the areas that are still hidden are still shown. This enables a transition from the object into the field of vision, which in particular conveys to the person driving the vehicle that the road user is no longer obscured.
Entsprechend einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens, wird ein Head-up-Display, eine Augmented-Reality-Brille und/oder eine Anzeigevorrichtung als Erweiterte-Realität-Anzeige verwendet, wobei auf der Anzeigevorrichtung der von einer fahrzeugeigenen Kamera aufgenommene Kamerabildstrom ausgegeben wird, welcher mit der Darstellung des Verkehrsteilnehmers kontaktanalog überlagert wird. Somit stehen die unterschiedlichsten Ausgabemittel zur Darstellung verdeckter Verkehrsteilnehmer zur Verfügung. Mit Hilfe von Head-up-Displays ist eine besonders komfortable Erkennung sowohl des realen Fahrzeugumfelds, als auch der virtuellen Darstellungen für die fahrzeugführende Person möglich. So muss die fahrzeugführende Person, ganz im Gegensatz zum Verwenden der Augmented-Reality-Brille, auch keine Zusatzkomponenten am Körper tragen, was den Komfort verbessert. Unter Verwendung einer Augmented-Reality-Brille bzw. einer entsprechend angepassten Anzeigevorrichtung wird es jedoch auch den übrigen Fahrzeuginsassen ermöglicht verdeckte Verkehrsteilnehmer frühzeitig erkennen zu können. Entsprechende Anzeigevorrichtungen können an beliebiger Stelle im Fahrzeug verbaut sein. Beispielsweise kann hierzu das Display eines Kombiinstruments, das Display der Headunit, ein dediziertes Beifahrerdisplay oder dergleichen verwendet werden.According to a further advantageous embodiment of the method according to the invention, a head-up display, augmented reality glasses and/or a display device is used as an augmented reality display, the camera image stream recorded by a vehicle's own camera being output on the display device, which is overlaid with the representation of the road user in a contact-like manner. A wide variety of output means are therefore available for displaying hidden road users. With the help of head-up displays, a particularly convenient recognition of both the real vehicle surroundings and the virtual representations for the person driving the vehicle is possible. In contrast to using augmented reality glasses, the person driving the vehicle does not have to wear any additional components on their body, which improves comfort. However, using augmented reality glasses or a correspondingly adapted display device also makes it possible for the other vehicle occupants to be able to recognize hidden road users at an early stage. Corresponding display devices can be installed anywhere in the vehicle. For example, the display of an instrument cluster, the display of the head unit, a dedicated passenger display or the like can be used for this purpose.
Bei einem Fahrzeug, umfassend wenigstens einen außerhalb-der-Sichtlinie-Detektor, eine Erweiterte-Realität-Anzeige und eine Recheneinheit zur Auswertung von dem außerhalb-der-Sichtlinie-Detektor erzeugten Sensordaten und zum Ansteuern der Erweiterte-Realität-Anzeige, sind erfindungsgemäß der außerhalb-der-Sichtlinie-Detektor, die Erweiterte-Realität-Anzeige und die Recheneinheit zur Ausführung eines im vorigen beschriebenen Verfahrens eingerichtet. Bei dem Fahrzeug kann es sich um ein beliebiges Straßenfahrzeug wie einen Pkw, Lkw, Transporter, Bus oder dergleichen handeln. Es könnte sich generell auch um ein Schienenfahrzeug, Wasserfahrzeug oder Luftfahrzeug handeln.In a vehicle comprising at least one outside-of-the-line-of-sight detector, an augmented reality display and a computing unit for evaluating sensor data generated by the outside-of-the-line-of-sight detector and for controlling the augmented reality display, according to the invention the outside-the-line-of-sight detector, the augmented reality display and the computing unit are set up to carry out a method described above. The vehicle can be any road vehicle such as a car, truck, van, bus or the like. In general, it could also be a rail vehicle, watercraft or aircraft.
Weitere vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens zur Darstellung verdeckter Verkehrsteilnehmer und des erfindungsgemäßen Fahrzeugs ergeben sich auch aus den Ausführungsbeispielen, welche nachfolgend unter Bezugnahme auf die Figuren näher beschrieben werden.Further advantageous embodiments of the method according to the invention for displaying hidden road users and the vehicle according to the invention also result from the exemplary embodiments, which are described in more detail below with reference to the figures.
Dabei zeigen:
-
1 eine schematische Darstellung des der außerhalb-der-Sichtlinie-Detektion zugrundeliegenden Funktionsprinzips; und -
2 eine schematisierte Darstellung eines Anzeigeinhalts einer Erweiterte-Realität-Anzeige in einer Verkehrssituation zu zwei aufeinanderfolgenden Zeitpunkten.
-
1 a schematic representation of the functional principle underlying out-of-line-of-sight detection; and -
2 a schematic representation of a display content of an augmented reality display in a traffic situation at two consecutive times.
Mit Hilfe der außerhalb-der-Sichtlinie-Detektion lassen sich somit verdeckte Verkehrsteilnehmer 1 zuverlässig erkennen. Um diese Funktion gewinnbringend im Fahrzeug 4 einzusetzen, wird erfindungsgemäß der verdeckte Verkehrsteilnehmer 1 auf einer Erweiterte-Realität-Anzeige 5 (siehe
Unter Verwendung eines Doppler-Radars als außerhalb-der-Sichtlinie-Detektors 3 lässt sich mit Hilfe eines künstlichen neuronalen Netzes der Verkehrsteilnehmer 1 einer Objektklasse zuordnen, beispielsweise wie in dem in
Bei dem in
Mit Hilfe des erfindungsgemäßen Verfahrens und des erfindungsgemäßen Fahrzeugs lässt sich die Verkehrssicherheit verbessern, da die fahrzeugführende Person zuverlässig auf die Anwesenheit verdeckter Verkehrsteilnehmer 1 aufmerksam gemacht wird. Die Verwendung einer Erweiterte-Realität-Anzeige 5 zur Darstellung des verdeckten Verkehrsteilnehmers 1 erlaubt eine kontaktanaloge Darstellung der Aufenthaltsposition des verdeckten Verkehrsteilnehmers 1 an genau der Aufenthaltsposition, an der sich der Verkehrsteilnehmer 1 in der Realität auch aufhält. Somit ist die fahrzeugführende Person besonders zuverlässig dazu in der Lage die Verkehrssituation korrekt einzuschätzen. Dies verbessert die Verkehrssicherheit noch weiter.With the help of the method according to the invention and the vehicle according to the invention, traffic safety can be improved, since the person driving the vehicle is reliably made aware of the presence of hidden
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102016220894 A1 [0010]DE 102016220894 A1 [0010]
Claims (10)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023003826.1A DE102023003826A1 (en) | 2023-09-21 | 2023-09-21 | Method for displaying hidden road users and vehicles |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023003826.1A DE102023003826A1 (en) | 2023-09-21 | 2023-09-21 | Method for displaying hidden road users and vehicles |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102023003826A1 true DE102023003826A1 (en) | 2023-11-16 |
Family
ID=88510533
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102023003826.1A Withdrawn DE102023003826A1 (en) | 2023-09-21 | 2023-09-21 | Method for displaying hidden road users and vehicles |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102023003826A1 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102024002745B3 (en) | 2024-08-24 | 2025-08-21 | Mercedes-Benz Group AG | Method for outputting an augmented reality display in a vehicle and vehicle |
| DE102024205804A1 (en) * | 2024-06-21 | 2025-12-24 | Volkswagen Aktiengesellschaft | Motor vehicle and methods for representing surrounding objects and/or road users |
| DE102024125557B3 (en) * | 2024-07-10 | 2025-12-31 | GM Global Technology Operations LLC | Highlighting vulnerable road users on hybrid augmented reality head-up displays |
| DE102024125553B3 (en) * | 2024-07-10 | 2025-12-31 | GM Global Technology Operations LLC | Warning of an impending accident outside the line of sight using reflective head-up displays |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102016220894A1 (en) | 2016-10-25 | 2018-04-26 | Conti Temic Microelectronic Gmbh | A method and apparatus for generating a vehicle environment view in a vehicle |
-
2023
- 2023-09-21 DE DE102023003826.1A patent/DE102023003826A1/en not_active Withdrawn
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102016220894A1 (en) | 2016-10-25 | 2018-04-26 | Conti Temic Microelectronic Gmbh | A method and apparatus for generating a vehicle environment view in a vehicle |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102024205804A1 (en) * | 2024-06-21 | 2025-12-24 | Volkswagen Aktiengesellschaft | Motor vehicle and methods for representing surrounding objects and/or road users |
| DE102024125557B3 (en) * | 2024-07-10 | 2025-12-31 | GM Global Technology Operations LLC | Highlighting vulnerable road users on hybrid augmented reality head-up displays |
| DE102024125553B3 (en) * | 2024-07-10 | 2025-12-31 | GM Global Technology Operations LLC | Warning of an impending accident outside the line of sight using reflective head-up displays |
| DE102024002745B3 (en) | 2024-08-24 | 2025-08-21 | Mercedes-Benz Group AG | Method for outputting an augmented reality display in a vehicle and vehicle |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102004035842B4 (en) | Dual disparate sensing object detection and detection system | |
| DE102012214852B4 (en) | Method and device for selecting objects in the surroundings of a vehicle | |
| DE10131720B4 (en) | Head-Up Display System and Procedures | |
| EP2427855B1 (en) | Method for the presentation on the display portion of a display device of objects present in the neighborhood of a vehicle | |
| DE10025678B4 (en) | Camera-based precrash detection system | |
| DE102023003826A1 (en) | Method for displaying hidden road users and vehicles | |
| DE102021114620A1 (en) | PRESENTATION OF DYNAMIC THREAT INFORMATION BASED ON THREAT AND TRAJECTORY PREDICTION | |
| DE102020100080A1 (en) | ADAPTIVE TRANSPARENCY OF A VIRTUAL VEHICLE IN A SIMULATED IMAGING SYSTEM | |
| DE10336638A1 (en) | Apparatus for classifying at least one object in a vehicle environment | |
| DE102018203807A1 (en) | Method and device for detecting and evaluating road conditions and weather-related environmental influences | |
| EP3622709B1 (en) | Method and apparatus for the spatially resolved detection of an object outside a vehicle with the aid of a sensor installed in a vehicle | |
| DE102017111468A1 (en) | A vehicle system and method for determining whether a vehicle occupant has sensed an off-vehicle object | |
| DE102014201159A1 (en) | Method and device for classifying a behavior of a pedestrian when crossing a roadway of a vehicle and personal protection system of a vehicle | |
| EP3044727B1 (en) | Method and device for detecting objects from depth-resolved image data | |
| DE102017221191A1 (en) | Method for displaying the course of a safety zone in front of a vehicle or an object with a display unit, device for carrying out the method and motor vehicle and computer program | |
| EP2400473A1 (en) | Method and device for supporting a driver of a vehicle | |
| DE102008020007A1 (en) | Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients | |
| DE102005054972A1 (en) | Motor vehicle`s dead angle monitoring method, involves accomplishing checking of whether lanes change is accomplished based on infrastructure of traffic before warning, where driver warning is omitted if result of checking is not possible | |
| EP2710573A1 (en) | Method and apparatus for identifying a possible collision object | |
| EP1652161B1 (en) | Device for classifying at least one object in the vicinity of a vehicle | |
| DE102012215465A1 (en) | Method and information system for filtering object information | |
| DE102009014437A1 (en) | Object recognition system and method | |
| EP3583488A1 (en) | Automated activation of a vision support system | |
| DE102021203763A1 (en) | Method and warning device for a vehicle for outputting a warning signal to a user of a vehicle | |
| DE102017007958A1 (en) | Driver assistance system for a vehicle and vehicle with such a driver assistance system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed | ||
| R230 | Request for early publication | ||
| R120 | Application withdrawn or ip right abandoned |