[go: up one dir, main page]

DE102023003826A1 - Verfahren zur Darstellung verdeckter Verkehrsteilnehmer und Fahrzeug - Google Patents

Verfahren zur Darstellung verdeckter Verkehrsteilnehmer und Fahrzeug Download PDF

Info

Publication number
DE102023003826A1
DE102023003826A1 DE102023003826.1A DE102023003826A DE102023003826A1 DE 102023003826 A1 DE102023003826 A1 DE 102023003826A1 DE 102023003826 A DE102023003826 A DE 102023003826A DE 102023003826 A1 DE102023003826 A1 DE 102023003826A1
Authority
DE
Germany
Prior art keywords
vehicle
road user
augmented reality
line
reality display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102023003826.1A
Other languages
English (en)
Inventor
Rene Wirtz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102023003826.1A priority Critical patent/DE102023003826A1/de
Publication of DE102023003826A1 publication Critical patent/DE102023003826A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/046Display arrangements using an intermediate storage device, e.g. a recording/reproducing device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/20Stereoscopic displays; Three-dimensional displays; Pseudo-three-dimensional displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/22Producing cursor lines and indicia by electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/24Cathode-ray tube displays or other two dimensional or three-dimensional displays the display being orientated or displaced in accordance with movement of object carrying the transmitting and receiving apparatus, e.g. true-motion radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/062Cathode-ray tube displays or other two dimensional or three-dimensional displays in which different colours are used
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Darstellung verdeckter Verkehrsteilnehmer (1), wobei wenigstens ein durch ein Objekt (2) für einen fahrzeugeigenen innerhalb-der-Sichtlinie-Detektor verdeckter Verkehrsteilnehmer (1) durch die Erfassung durch wenigstens einen fahrzeugeigenen außerhalb-der-Sichtlinie-Detektor (3) im Umfeld eines Fahrzeugs (4) erkannt wird, und wobei zumindest die aktuelle Relativposition des Verkehrsteilnehmers (1) gegenüber dem Fahrzeug (4) bestimmt wird. Das erfindungsgemäß Verfahren ist dadurch gekennzeichnet, dass der Verkehrsteilnehmer (1) auf einer im Fahrzeug (4) genutzten Erweiterte-Realität-Anzeige (5) kontaktanlog zu seiner aktuellen Aufenthaltsposition dargestellt wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Darstellung verdeckter Verkehrsteilnehmer nach der im Oberbegriff von Anspruch 1 näher definierten Art sowie ein Fahrzeug zur Durchführung des Verfahrens.
  • Eine fahrzeugführende Person muss während der Fahrt ihr Umfeld beobachten, um statische und dynamische Objekte, wie beispielsweise weitere Verkehrsteilnehmer, zu identifizieren und Kollisionen mit Ihnen zu vermeiden. Ist die fahrzeugführende Person abgelenkt und/oder liegen widrige Sichtbedingungen vor, kann die Detektionsfähigkeit der fahrzeugführenden Person leiden, was das Unfallpotenzial erhöht. Abhilfe schaffen hier auf einer sensorbasierten Umfelderfassung aufbauende Fahrerassistenzsysteme, die ebenfalls dazu in der Lage sind, Umgebungsobjekte zu detektieren und bei Bedarf Hinweise bzw. Warnungen an die fahrzeugführende Person auszugeben oder sogar automatisiert in die Steuerung des Fahrzeugs einzugreifen. Hierzu werden Sensoren zur Erzeugung von Tiefeninformationen wie Ultraschallsensoren, Radarsensoren, Laserscanner wie LiDARe und Kameras verwendet.
  • Solche Sensoren weisen eine gewisse Detektionsreichweite bzw. einen gewissen Sichtbereich auf. Es können ausschließlich Objekte innerhalb des Sichtbereichs erfasst werden, weshalb solche Sensoren auch als „innerhalb-der-Sichtlinie-Detektor“ bezeichnet werden könnten.
  • Im Straßenverkehr werden jedoch häufig Situationen angetroffen, bei denen Verkehrsteilnehmer durch Objekte, wie beispielsweise parkende Autos, Häuserecken, Hecken, Mauern und dergleichen, verdeckt werden, sodass diese sowohl von der fahrzeugführenden Person, als auch von entsprechenden innerhalb-der-Sichtlinie-Detektoren nicht erkannt werden können. Beispielsweise kann ein Kind plötzlich auf die Fahrbahn rennen oder ein Radfahrer mit überhöhtem Tempo über die Straße fahren. Dies führt zu Verkehrssituationen mit einem besonders hohen Unfallrisiko.
  • Es ist daher wünschenswert Verfahren und Mittel bereitzustellen, mit denen das Unfallrisiko auch in solchen Situationen abgemindert werden kann.
  • Aus dem Stand der Technik sind sogenannte „außerhalb-der-Sichtlinie-Detektoren“, auch als None-Line-Off-Side Detector bezeichnet, bekannt. Mit Hilfe solcher Detektoren ist es möglich „um Ecken zu sehen“ und somit auch durch Objekte verdeckte Verkehrsteilnehmer erkennen zu können.
  • Ein durch ein Doppler-Radar ausgebildeter außerhalb-der-Sichtlinie-Detektor ist beispielsweise bekannt aus: Scheiner, Nikolas, et al.; Seeing Around Street Corners: Non-Line-of-Sight Detection and Tracking In-the-Wild Using Doppler Radar; Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern recognition (CVPR); 2020; pp. 2068-2077. Das Dokument beschreibt ein Verfahren zur Detektion von verdeckten Verkehrsteilnehmern, welches sich auch in komplexen und dynamischen Verkehrssituationen anwenden lässt und hierdurch für die Integration in Fahrzeuge wie beispielsweise Pkws infrage kommt. Dabei können Verkehrsteilnehmer hinter Objekten nicht nur erkannt, sondern auch nachverfolgt werden. Hierzu werden Radarwellen auf im Umfeld befindliche Objekte wie beispielsweise Wände oder parkende Fahrzeuge geworfen, welche die Radarwellen wiederum in die Umgebung zurück reflektieren. Diese Radarechos treffen dann auf den eigentlich zu erkennenden Verkehrsteilnehmer, welcher wiederum Radarechos hervorruft, die über mehrfache Reflektion zurück zum Radar geworfen werden. Als Radar wurde dabei ein sogenanntes frequency-modulated continuous-wave (FMCW) Doppler-Radar mit einer multiple-input-multiple-ouput (MIMO) Array-Konfiguration verwendet. Die derartig generierten Radarsensordaten werden mit Hilfe des maschinellen Lernens ausgewertet. Dabei lassen sich jedoch keine Detailstrukturen eines verdeckten Verkehrsteilnehmers erkennen, was eine Rekonstruktion seines Aussehens erlauben würde. Es lassen sich jedoch Aussagen über die ungefähren Dimensionen des Verkehrsteilnehmers machen, was eine Klassifizierung zu beispielsweise einer der Gruppen: Fußgänger, Fahrradfahrer, Pkw, Lkw oder dergleichen, erlaubt.
  • Ferner ist es bekannt Kameras und entsprechend angepasste Algorithmen zur Analyse der Kamerabilder als außerhalb-der-Sichtlinie-Detektor zu nutzen, was beispielsweise bekannt ist aus: Stanford camera can watch moving objects around corners, 29.07.2019, https://news.stanford.edu/press/view/29312.
  • Aufgrund der im Vergleich zu Radar genutzten kleineren Wellenlänge lassen sich dabei detaillierte Informationen erhalten, was es auch erlaubt das konkrete Aussehen eines verdeckten Verkehrsteilnehmers zu ermitteln.
  • Ferner sind aus der DE 10 2016 220 894 A1 ein Verfahren und eine Vorrichtung zum Erzeugen einer Fahrzeugumgebungsansicht bei einem Fahrzeug bekannt. Die Druckschrift beschreibt ein Fahrzeug, welches mit am Umfang verteilt angeordneten Kameras sein Umfeld erfasst. Dabei können Bereiche des erfassten Umfelds durch Hindernisse wie beispielsweise Pfosten verdeckt sein. Kann eine erste Kamera einen bestimmten Bereich nicht einsehen, jedoch eine zweite Kamera, so werden die von der zweiten Kamera aufgenommen Kamerabilder zur Umgebungsrepräsentation genutzt. Ist es jedoch gar nicht möglich einen bestimmten Umgebungsbereich einzusehen, so kann der entsprechende Umgebungsbereich durch Extrapolation von den Kameras erzeugter Kamerabilder nachkonstruiert werden. Nachteilig ist dabei jedoch, dass innerhalb eines entsprechend verdeckten Bereichs befindliche Objekte nicht erkannt werden können.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde ein verbessertes Verfahren zur Darstellung verdeckter Verkehrsteilnehmer anzugeben, mit dem die Verkehrssicherheit weiter gesteigert werden kann.
  • Erfindungsgemäß wird diese Aufgabe durch ein Verfahren zur Darstellung verdeckter Verkehrsteilnehmer mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen sowie ein Fahrzeug zur Durchführung des Verfahrens ergeben sich aus den hiervon abhängigen Ansprüchen.
  • Ein gattungsgemäßes Verfahren zur Darstellung verdeckter Verkehrsteilnehmer, wobei wenigstens ein durch ein Objekt für einen fahrzeugeigenen innerhalb-der-Sichtlinie-Detektor verdeckter Verkehrsteilnehmer durch die Erfassung durch wenigstens einen fahrzeugeigenen außerhalb-der-Sichtlinie-Detektor im Umfeld eines Fahrzeugs erkannt wird, und wobei zumindest die aktuelle Relativposition des Verkehrsteilnehmers gegenüber dem Fahrzeug bestimmt wird, wird erfindungsgemäß dadurch weitergebildet, dass der Verkehrsteilnehmer auf einer im Fahrzeug genutzten Erweiterte-Realität-Anzeige kontaktanlog zu seiner aktuellen Aufenthaltsposition dargestellt wird. Hierdurch lässt sich die Verkehrssicherheit verbessern, da die fahrzeugführende Person des Fahrzeugs bereits über die Anwesenheit des verdeckten Verkehrsteilnehmers informiert wird, obwohl die fahrzeugführende Person den verdeckten Verkehrsteilnehmer selbst mit nacktem Auge nicht sehen kann. Die fahrzeugführende Person kann entsprechend ihr Fahrverhalten daran anpassen und beispielsweise die Fortbewegungsgeschwindigkeit des Fahrzeugs reduzieren, zur Seite lenken, den Fuß vom Gaspedal nehmen und auf das Bremspedal legen und dergleichen.
  • Die Darstellung des verdeckten Verkehrsteilnehmers auf einer Erweiterte-Realität-Anzeige hat dabei den weiteren Vorteil, dass der Verkehrsteilnehmer direkt im Sichtfeld der fahrzeugführenden Person und kontaktanalog zu seiner realen Aufenthaltsposition dargestellt wird. Somit wird die fahrzeugführende Person nicht nur über die Anwesenheit des verdeckten Verkehrsteilnehmers informiert, sondern kann diesen auch relativ gegenüber dem Fahrzeug verorten. Somit kann die fahrzeugführende Person noch angemessener auf den verdeckten Verkehrsteilnehmer reagieren.
  • Das Fahrzeug muss dabei nicht zwangsweise innerhalb-der-Sichtlinie-Detektoren aufweisen, sondern der verdeckten Verkehrsteilnehmer hält sich lediglich in solchen Bereichen auf, die durch einen solchen potenziell vom Fahrzeug mitgeführten Detektor nicht einsehbar wären. Selbstverständlich kann das Fahrzeug aber auch über innerhalb-der-Sichtlinie-Detektoren verfügen. Hierzu kommen insbesondere Ultraschallsensorsysteme, Radarsensorsysteme, LiDARe und Kameras infrage.
  • Die Einbaulage des außerhalb-der-Sichtlinie-Detektors am Fahrzeug sowie die Einbaulage bzw. Position und Orientierung der Erweiterte-Realität-Anzeige im Fahrzeug ist ebenfalls bekannt. Unter Berücksichtigung der Kopfposition der fahrzeugführenden Person und deren Blickrichtung lässt sich dann der jeweilige verdeckte Verkehrsteilnehmer kontaktanlog zu seiner tatsächlichen Aufenthaltsposition auf der Erweiterte-Realität-Anzeige darstellen.
  • Unter Analyse der vom außerhalb-der-Sichtlinie-Detektor generierten Sensordaten lassen sich auch die Dimensionen des Verkehrsteilnehmers zumindest abschätzen. Dies ermöglicht in einer bevorzugten Ausführungsform die Größe der Darstellung des Verkehrsteilnehmers auf der Erweiterte-Realität-Anzeige an die tatsächlichen Dimensionen des Verkehrsteilnehmers in der Realität unter Berücksichtigung dessen Abstands zum Fahrzeug anzupassen. So kann beispielsweise ein verdeckter Lkw größer dargestellt werden als ein Radfahrer und/oder ein in einer großen Entfernung verdeckter Pkw kleiner als ein in kurzer Distanz verdeckter Pkw.
  • Die Darstellung des verdeckten Verkehrsteilnehmers auf der Erweiterte-Realität-Anzeige kann in Abhängigkeit verschiedener Randbedingungen unterschiedlich gewählt werden. So kann insbesondere die Farbe, der Kontrast, die Transparenz und dergleichen verschiedener Partien der Darstellung unterschiedlich sein bzw. in Abhängigkeit der verstrichenen Zeitdauer bzw. des Eintreffens eines Ereignisses verändert werden. Zur besseren Kennzeichnung des verdeckten Verkehrsteilnehmers kann beispielsweise die Darstellung mittels eines oder mehrerer Filter verfremdet werden. So könnte, beispielsweise durch das Aufprägen einer Transparenz, eine geisterhafte Erscheinung vorgetäuscht werden.
  • Von dem wenigstens einen außerhalb-der-Sichtlinie-Detektor generierte Sensordaten sowie optional von dem oder den innerhalb-der-Sichtlinie-Detektor generierten Sensordaten werden dabei von einer fahrzeuginternen Recheneinheit verarbeitet. In Abhängigkeit dieser Verarbeitung steuert dann die jeweilige Recheneinheit die Erweiterte-Realität-Anzeige an, um den verdeckten Verkehrsteilnehmer kontaktanalog zu seiner tatsächlichen Aufenthaltsposition relativ gegenüber dem Fahrzeug darzustellen.
  • Eine vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens sieht dabei vor, dass ein Doppler-Radar als außerhalb-der-Sichtlinie-Detektor verwendet wird. Entsprechend wird auf der Recheneinheit ein zur Verarbeitung der vom Doppler-Radar generierten Sensordaten geeigneter Programmcode bzw. Algorithmus implementiert. Dieser kann bevorzugt auf künstlicher Intelligenz basieren, insbesondere unter Verwendung von Modellen des maschinellen Lernens. Mit Hilfe eines Doppler-Radars und einer entsprechenden Sensorauswertung können verdeckte Verkehrsteilnehmer durch Reflektionen der Radarwellen von Wänden, anderen Fahrzeugen und sogar von Bordsteinen detektiert werden.
  • Bevorzugt werden dabei vom Doppler-Radar generierte Sensordaten mittels eines entsprechend trainierten Modells des maschinellen Lernens zur Klassifizierung des Verkehrsteilnehmers analysiert und der Verkehrsteilnehmer wird auf der Erweiterte-Realität-Anzeige durch ein klassenspezifisches Symbolbild dargestellt. Bevorzugt wird als Modell des maschinellen Lernens ein künstliches neuronales Netz verwendet. Mittels eines speziell hierzu trainierten künstlichen neuronalen Netzes ist es zuverlässig möglich anhand der verfügbaren Radarsignale charakteristische Geometriemerkmale des Verkehrsteilnehmers zu identifizieren und den Verkehrsteilnehmer anhand dieser Geometriemerkmale bestimmten Klassen zuzuordnen, wie beispielsweise einem Fußgänger, einem Fahrradfahrer, einem Pkw, einem Lkw und dergleichen. Unter Verwendung von Radarwellen lassen sich die Dimensionen des verdeckten Verkehrsteilnehmers nicht exakt bestimmen, sondern nur in einer vergleichsweise groben Näherung bestimmen. Dies reicht jedoch zur Klassifizierung in entsprechende Gruppen aus. Durch das Zuordnen einer jeweiligen Gruppe und Anpassen der Darstellung durch die Wahl des klassenspezifischen Symbolbilds lässt sich die fahrzeugführende Person noch umfangreicher über den verdeckten Verkehrsteilnehmer informieren, da die fahrzeugführende Person nun weiß, um welche Art von verdeckten Verkehrsteilnehmer es sich handelt. So würde beispielsweise die fahrzeugführende Person bei einer Darstellung eines Kinds als Verkehrsteilnehmer eher damit rechnen, dass das Kind auf die Straße rennt, als für den Fall, dass ein Lkw dargestellt wird, da sich typischerweise Lkws erst langsam in eine Einmündung hineintasten.
  • Das klassenspezifische Symbolbild kann wechselbar sein. Dies bedeutet, dass für ein und dieselbe Klasse verschiedene Symbolbilder auf der Recheneinheit vorgehalten werden können. Ein jeweiliges Symbolbild kann per Zufall ausgewählt werden. Die fahrzeugführende Person kann jedoch auch eine manuelle Bedieneingabe tätigen, um ein bestimmtes Symbolbild in Übereinkunft mit ihren Vorlieben auszuwählen. So könnte als Pkw beispielsweise immer ein silberner Mercedes 300 SL und als Fahrrad ein grünes Mountainbike mit einem männlichen Fahrer im grauen Anzug und gelben Helm dargestellt werden.
  • Eine weitere vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens sieht ferner vor, dass eine Kamera als außerhalb-der-Sichtlinie-Detektor verwendet wird. Auch hier wird ein speziell zur Auswertung von der Kamera generierter Kamerabilder angepasster Algorithmus in der Recheneinheit implementiert, der das Detektieren verdeckter Verkehrsteilnehmer ermöglicht. Entsprechende Algorithmen sind hinreichend aus dem eingangs zitierten Stand der Technik bekannt. Dabei kann sichtbares Licht, UV-Licht oder auch Infrarotlicht verwendet werden. Die Szenerie kann dabei aktiv durch eine ultrahelle Lichtquelle, beispielsweise einen Laser, ausgeleuchtet werden, um entsprechende Schatten/Reflexionen hervorzurufen. Durch die im Vergleich zu Radarwellen geringere Wellenlänge lassen sich feinere Strukturen erkennen, was nicht nur eine Klassifizierung der Verkehrsteilnehmer zu Objektklassen ermöglicht, sondern eine ausreichend genau Erfassung der Dimensionen des Verkehrsteilnehmers erlaubt, sodass der Verkehrsteilnehmer auf der Erweiterte-Realität-Anzeige so dargestellt werden kann, wie er auch in der Realität tatsächlich aussieht. Hiermit sind lediglich die Dimensionen des Verkehrsteilnehmers gemeint, da aus entsprechenden Lichtreflektionen nicht zwangsweise auch die Farbe der jeweiligen Oberflächenbereiche des Verkehrsteilnehmers identifiziert werden kann.
  • Radarsensoren und Kameras lassen sich somit sowohl als innerhalb-der-Sichtlinie-Detektor, als auch als außerhalb-der-Sichtlinie-Detektor verwenden. Jedoch sind gewisse Anpassungen notwendig, wie die Verwendung eines speziell angepassten Auswertealgorithmus zum Auswerten der Sensordaten, zudem müssen die jeweiligen Detektoren eine ausreichende Erfassungsgenauigkeit aufweisen. Hierzu wird wieder auf die eingangs zitierten Quellen aus dem Stand der Technik verwiesen.
  • Generell wäre es möglich, dass ein und dasselbe Radarsystem sowie ein und dieselbe Kamera gleichzeitig als innerhalb-der-Sichtlinie-Detektor und außerhalb-der-Sichtlinie-Detektor verwendet wird.
  • Das Fahrzeug kann auch über mehrere Doppler-Radare sowie mehrere Kameras verfügen. Es kann auch ein Doppler-Radar mit einer als außerhalb-der-Sichtlinie-Detektor fungierenden Kamera zusammenwirken. So können entsprechende Sensordaten fusioniert werden, was eine noch zuverlässigere Detektion von verdeckten Verkehrsteilnehmern erlaubt.
  • Entsprechend einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens, erfasst der wenigstens eine außerhalb-der-Sichtlinie-Detektor das Umfeld des Fahrzeugs fortwährend und die Relativposition des Verkehrsteilnehmers wird nach jeder Abtastung des Umfelds aktualisiert. Somit kann der verdeckte Verkehrsteilnehmer nicht nur einmalig im Umfeld des Fahrzeugs verortet und entsprechend dargestellt werden, sondern mehrmals über der Zeit. Ändert sich die Position des Fahrzeugs und/oder des verdeckten Verkehrsteilnehmers, kann somit die fahrzeugführende Person über die veränderte Relativlage informiert werden.
  • Bevorzugt wird dabei eine Bewegungstrajektorie für den Verkehrsteilnehmer bestimmt. Hierzu kann der Unterschied zwischen der detektierten Relativposition des verdeckten Verkehrsteilnehmers zum Fahrzeug über die Zeit nachverfolgt werden, und daraus wiederum bestimmt werden, in welche Richtung und mit welcher Geschwindigkeit sich der verdeckte Verkehrsteilnehmer bewegt. So kann beispielsweise ermittelt werden, ob der verdeckte Verkehrsteilnehmer in kürze die vom Fahrzeug befahrene Fahrbahn betreten wird.
  • Dies kann gemäß einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens dazu genutzt werden, die Bewegungstrajektorie des Verkehrsteilnehmers und des Fahrzeugs miteinander abzugleichen, und nur solche Verkehrsteilnehmer auf der Erweiterte-Realität-Anzeige darzustellen, für die eine Kollision mit dem Fahrzeug droht. Generell ist die kognitive Verarbeitungsfähigkeit der fahrzeugführenden Person begrenzt. Somit sollten möglichst nur relevante Informationen an die fahrzeugführende Person ausgegeben werden, um die fahrzeugführende Person nicht mental zu überlasten. Beispielsweise könnten sich auf einem durch parkende Fahrzeuge verdeckten Bürgersteig mehrere Personen und Radfahrer befinden, wobei ein Großteil dieser Verkehrsteilnehmer sich parallel zur Fahrbahn bewegen wird. Eine Darstellung dieser Verkehrsteilnehmer könnte die Erweiterte-Realität-Anzeige schnell überfrachten und die fahrzeugführende Person übermäßig ablenken. Zudem ist eine Darstellung dieser Verkehrsteilnehmer nicht relevant, da kein potenzieller Unfall droht. Bevorzugt werden daher nur solche verdeckten Verkehrsteilnehmer auch dargestellt, für die potenziell eine Kollision mit dem Fahrzeug bevorsteht. Dabei müssen sich das Fahrzeug und der Verkehrsteilnehmer nicht zwangsweise auf ihren jeweiligen Trajektorien zum selben Zeitpunkt im Schnittpunkt treffen. Es kann auch ausreichen, dass sich lediglich die Trajektorien des Fahrzeugs und des verdeckten Verkehrsteilnehmers schneiden, damit ein jeweiliger verdeckter Verkehrsteilnehmer dargestellt wird.
  • Die Darstellung der verdeckten Verkehrsteilnehmer kann auch in Abhängigkeit unterschiedlicher Randbedingungen angepasst werden. Beispielsweise könnte als Randbedingung die absolute Anzahl verdeckter Verkehrsteilnehmer herangezogen werden. Werden dann beispielsweise nur einige wenige verdeckte Verkehrsteilnehmer identifiziert, so können bevorzugt auch solche verdeckten Verkehrsteilnehmer dargestellt werden, für die keine Kollision mit dem Fahrzeug droht, da keine Gefahr besteht, dass die fahrzeugführende Person durch die Darstellung mental überlastet wird. Somit wird die fahrzeugführende Person dennoch über die generelle Anwesenheit verdeckter Verkehrsteilnehmer informiert, was die fahrzeugführende Person zu einer sichereren bzw. defensiveren Fahrweise veranlassen könnte.
  • Auch könnte die Darstellung in Abhängigkeit der Verkehrsteilnehmerklasse angepasst werden. So könnten beispielsweise Fußgänger und Fahrradfahrer immer dargestellt werden und Pkws und Lkws nur dann dargestellt werden, wenn eine Kollision mit dem Fahrzeug droht.
  • Eine weitere vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens sieht ferner vor, dass, sobald der Verkehrsteilnehmer das Sichtfeld der fahrzeugführenden Person betritt:
    • - die Darstellung des Verkehrsteilnehmers auf der Erweiterte-Realität-Anzeige eingestellt wird;
    • - der nicht mehr durch das Objekt verdeckte Teil des Verkehrsteilnehmers von der Darstellung auf der Erweiterte-Realität-Anzeige ausgespart wird und der noch verdeckte Teil des Verkehrsteilnehmers weiterhin dargestellt wird; oder
    • - die Darstellung des Verkehrsteilnehmers auf der Erweiterte-Realität-Anzeige fortgeführt wird.
  • Tritt der verdeckte Verkehrsteilnehmer hinter dem Objekt hervor, sodass die fahrzeugführende Person den Verkehrsteilnehmer nun sieht, ist es generell nicht mehr erforderlich den Verkehrsteilnehmer auf der Erweiterte-Realität-Anzeige darzustellen. Die Darstellung könnte jedoch auch fortgeführt werden, um den Verkehrsteilnehmer für die fahrzeugführende Person hervorzuheben. Beispielsweise könnte der Verkehrsteilnehmer schlecht sichtbar sein, beispielsweise weil es sich um Fahrsituation bei Nacht in einer dunklen Umgebung handelt und der Verkehrsteilnehmer dunkle Kleidung trägt. Somit sinkt das Risiko, dass die fahrzeugführende Person den Verkehrsteilnehmer übersieht, auch wenn sich der Verkehrsteilnehmer nun im Sichtfeld der fahrzeugführenden Person aufhält. In einer besonders bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens werden dabei bereits sichtbare Teile des Verkehrsteilnehmers nicht mehr auf der Erweiterte-Realität-Anzeige dargestellt, die noch verdeckten Bereiche jedoch weiterhin. Dies ermöglicht einen Übergang vom Objekt in den Sichtbereich, was der fahrzeugführenden Person insbesondere vermittelt, dass der Verkehrsteilnehmer nun nicht mehr verdeckt wird.
  • Entsprechend einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens, wird ein Head-up-Display, eine Augmented-Reality-Brille und/oder eine Anzeigevorrichtung als Erweiterte-Realität-Anzeige verwendet, wobei auf der Anzeigevorrichtung der von einer fahrzeugeigenen Kamera aufgenommene Kamerabildstrom ausgegeben wird, welcher mit der Darstellung des Verkehrsteilnehmers kontaktanalog überlagert wird. Somit stehen die unterschiedlichsten Ausgabemittel zur Darstellung verdeckter Verkehrsteilnehmer zur Verfügung. Mit Hilfe von Head-up-Displays ist eine besonders komfortable Erkennung sowohl des realen Fahrzeugumfelds, als auch der virtuellen Darstellungen für die fahrzeugführende Person möglich. So muss die fahrzeugführende Person, ganz im Gegensatz zum Verwenden der Augmented-Reality-Brille, auch keine Zusatzkomponenten am Körper tragen, was den Komfort verbessert. Unter Verwendung einer Augmented-Reality-Brille bzw. einer entsprechend angepassten Anzeigevorrichtung wird es jedoch auch den übrigen Fahrzeuginsassen ermöglicht verdeckte Verkehrsteilnehmer frühzeitig erkennen zu können. Entsprechende Anzeigevorrichtungen können an beliebiger Stelle im Fahrzeug verbaut sein. Beispielsweise kann hierzu das Display eines Kombiinstruments, das Display der Headunit, ein dediziertes Beifahrerdisplay oder dergleichen verwendet werden.
  • Bei einem Fahrzeug, umfassend wenigstens einen außerhalb-der-Sichtlinie-Detektor, eine Erweiterte-Realität-Anzeige und eine Recheneinheit zur Auswertung von dem außerhalb-der-Sichtlinie-Detektor erzeugten Sensordaten und zum Ansteuern der Erweiterte-Realität-Anzeige, sind erfindungsgemäß der außerhalb-der-Sichtlinie-Detektor, die Erweiterte-Realität-Anzeige und die Recheneinheit zur Ausführung eines im vorigen beschriebenen Verfahrens eingerichtet. Bei dem Fahrzeug kann es sich um ein beliebiges Straßenfahrzeug wie einen Pkw, Lkw, Transporter, Bus oder dergleichen handeln. Es könnte sich generell auch um ein Schienenfahrzeug, Wasserfahrzeug oder Luftfahrzeug handeln.
  • Weitere vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens zur Darstellung verdeckter Verkehrsteilnehmer und des erfindungsgemäßen Fahrzeugs ergeben sich auch aus den Ausführungsbeispielen, welche nachfolgend unter Bezugnahme auf die Figuren näher beschrieben werden.
  • Dabei zeigen:
    • 1 eine schematische Darstellung des der außerhalb-der-Sichtlinie-Detektion zugrundeliegenden Funktionsprinzips; und
    • 2 eine schematisierte Darstellung eines Anzeigeinhalts einer Erweiterte-Realität-Anzeige in einer Verkehrssituation zu zwei aufeinanderfolgenden Zeitpunkten.
  • 1 dient zur Erläuterung des aus dem Stand der Technik bekannten Funktionsprinzips der außerhalb-der-Sichtlinie-Detektion. Gezeigt ist ein Fahrzeug 4, umfassend wenigstens einen außerhalb-der-Sichtlinie-Detektor 3 sowie einen durch ein Objekt 2 verdeckten Verkehrsteilnehmer 1. Bei dem außerhalb-der-Sichtlinie-Detektor 3 handelt es sich beispielsweise um ein Doppler-Radar oder eine Kamera. Zur Abtastung der Umgebung wirft der außerhalb-der-Sichtlinie-Detektor 3 elektromagnetische Strahlen 8 in die Umgebung. Diese werden von einer in der Umgebung befindlichen Oberfläche 9 reflektiert. Bei den elektromagnetischen Strahlen 8 handelt es sich entsprechend um Radarwellen oder Licht, beispielsweise sichtbares Licht oder auch Infrarotlicht oder UV-Licht. Bei einer Verwendung einer Kamera als außerhalb-der-Sichtlinie-Detektor 3 kann zudem eine Lichtquelle vorgesehen sein, die entsprechende elektromagnetische Strahlung 8 in die Umgebung wirft, wie beispielsweise ein vergleichsweise starker Laser. Die von der Oberfläche 9 zurückgeworfenen Reflektionen treffen auf den verdeckten Verkehrsteilnehmer 1 und werden von diesem wiederum reflektiert. Die vom Verkehrsteilnehmer 1 zurückgeworfenen Reflektionen treffen erneut auf die Oberfläche 9 und gelangen von dort zurück zum Fahrzeug 4 bzw. zum außerhalb-der-Sichtlinie-Detektor 3. Durch das mehrfache hintereinander Abtasten der Umgebung lässt sich nicht nur der Aufenthaltsort des Verkehrsteilnehmers 1 erkennen, sondern auch noch dessen Bewegungsgeschwindigkeit und Bewegungsrichtung. Dies erlaubt es eine Bewegungstrajektorie 7 für den verdeckten Verkehrsteilnehmer 1 zu berechnen.
  • Mit Hilfe der außerhalb-der-Sichtlinie-Detektion lassen sich somit verdeckte Verkehrsteilnehmer 1 zuverlässig erkennen. Um diese Funktion gewinnbringend im Fahrzeug 4 einzusetzen, wird erfindungsgemäß der verdeckte Verkehrsteilnehmer 1 auf einer Erweiterte-Realität-Anzeige 5 (siehe 2), beispielsweise in Form eines Head-up-Displays, einer Augmented-Reality-Brille oder einer typischen Anzeigevorrichtung dargestellt. Die typische Anzeigevorrichtung zeigt dabei einen vom Fahrzeug 4 aufgenommen Kamerabildstrom, welcher mit dem verdeckten Verkehrsteilnehmer 1 überlagert wird.
  • 2 zeigt dabei eine Verkehrssituation, bei der das Fahrzeug 4 an parkenden Autos 10 vorbeifährt. 2a) zeigt die Darstellung auf der Erweiterte-Realität-Anzeige 5 zum Zeitpunkt während der Verkehrsteilnehmer 1 noch vollständig hinter den parkenden Autos 10 verdeckt ist. 2b) zeigt hingegen den Zeitpunkt, an dem der Verkehrsteilnehmer 1 partiell hinter dem Objekt 2 in Form eines parkenden Autos 10 hervortritt.
  • Unter Verwendung eines Doppler-Radars als außerhalb-der-Sichtlinie-Detektors 3 lässt sich mit Hilfe eines künstlichen neuronalen Netzes der Verkehrsteilnehmer 1 einer Objektklasse zuordnen, beispielsweise wie in dem in 2 gezeigten Ausführungsbeispiel der Klasse „Fahrradfahrer“. Eine genaue Darstellung des Verkehrsteilnehmers 1 ist aufgrund der Auflösung des außerhalb-der-Sichtlinie-Detektors 3 nicht möglich. Stattdessen wird ein klassenspezifisches Symbolbild 6 zur Darstellung des verdeckten Verkehrsteilnehmers 1 verwendet.
  • Bei dem in 2b) gezeigten Ausführungsbeispiel wird das klassenspezifische Symbolbild 6 nur für denjenigen vom Objekt 2 verdeckten Teil des Verkehrsteilnehmers 1 dargestellt. Der hinter dem Objekt 2 hervorgetretene Teil des Verkehrsteilnehmers 1 wird nicht mehr mit dem klassenspezifischen Symbolbild 6 überlagert. Dies sorgt für eine verbesserte Erkennbarkeit und kognitive Verarbeitung des in das Sichtfeld der fahrzeugführenden Person eintretenden Verkehrsteilnehmers 1.
  • Mit Hilfe des erfindungsgemäßen Verfahrens und des erfindungsgemäßen Fahrzeugs lässt sich die Verkehrssicherheit verbessern, da die fahrzeugführende Person zuverlässig auf die Anwesenheit verdeckter Verkehrsteilnehmer 1 aufmerksam gemacht wird. Die Verwendung einer Erweiterte-Realität-Anzeige 5 zur Darstellung des verdeckten Verkehrsteilnehmers 1 erlaubt eine kontaktanaloge Darstellung der Aufenthaltsposition des verdeckten Verkehrsteilnehmers 1 an genau der Aufenthaltsposition, an der sich der Verkehrsteilnehmer 1 in der Realität auch aufhält. Somit ist die fahrzeugführende Person besonders zuverlässig dazu in der Lage die Verkehrssituation korrekt einzuschätzen. Dies verbessert die Verkehrssicherheit noch weiter.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102016220894 A1 [0010]

Claims (10)

  1. Verfahren zur Darstellung verdeckter Verkehrsteilnehmer (1), wobei wenigstens ein durch ein Objekt (2) für einen fahrzeugeigenen innerhalb-der-Sichtlinie-Detektor verdeckter Verkehrsteilnehmer (1) durch die Erfassung durch wenigstens einen fahrzeugeigenen außerhalb-der-Sichtlinie-Detektor (3) im Umfeld eines Fahrzeugs (4) erkannt wird, und wobei zumindest die aktuelle Relativposition des Verkehrsteilnehmers (1) gegenüber dem Fahrzeug (4) bestimmt wird, dadurch gekennzeichnet, dass der Verkehrsteilnehmer (1) auf einer im Fahrzeug (4) genutzten Erweiterte-Realität-Anzeige (5) kontaktanlog zu seiner aktuellen Aufenthaltsposition dargestellt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass ein Doppler-Radar als außerhalb-der-Sichtlinie-Detektor (3) verwendet wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass vom Doppler-Radar generierte Sensordaten mittels eines entsprechend trainierten Modells des maschinellen Lernens zur Klassifizierung des Verkehrsteilnehmers (1) analysiert werden und der Verkehrsteilnehmer (1) auf der Erweiterte-Realität-Anzeige (5) durch ein klassenspezifisches Symbolbild (6) dargestellt wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass eine Kamera als außerhalb-der-Sichtlinie-Detektor (3) verwendet wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der wenigstens eine außerhalb-der-Sichtlinie-Detektor (3) das Umfeld des Fahrzeugs (4) fortwährend erfasst und die Relativposition des Verkehrsteilnehmers (1) nach jeder Abtastung des Umfelds aktualisiert wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass eine Bewegungstrajektorie (7) für den Verkehrsteilnehmer (1) bestimmt wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Bewegungstrajektorie (7) des Verkehrsteilnehmers (1) und des Fahrzeugs (4) miteinander abgeglichen werden und nur solche Verkehrsteilnehmer (1) auf der Erweiterte-Realität-Anzeige (5) dargestellt werden, für die eine Kollision mit dem Fahrzeug (4) droht.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass sobald der Verkehrsteilnehmer (1) das Sichtfeld der fahrzeugführenden Person betritt: - die Darstellung des Verkehrsteilnehmers (1) auf der Erweiterte-Realität-Anzeige (5) eingestellt wird; - der nicht mehr durch das Objekt (2) verdeckte Teil des Verkehrsteilnehmers (1) von der Darstellung auf der Erweiterte-Realität-Anzeige (5) ausgespart wird und der noch verdeckte Teil des Verkehrsteilnehmers (1) weiterhin dargestellt wird; oder - die Darstellung des Verkehrsteilnehmers (1) auf der Erweiterte-Realität-Anzeige (5) fortgeführt wird.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass ein Head-up-Display, eine Augmented-Reality-Brille und/oder eine Anzeigevorrichtung als Erweiterte-Realität-Anzeige (5) verwendet wird, wobei auf der Anzeigevorrichtung der von einer fahrzeugeigenen Kamera aufgenommene Kamerabildstrom ausgegeben wird, welcher mit der Darstellung des Verkehrsteilnehmers (1) kontaktanalog überlagert wird.
  10. Fahrzeug (4), umfassend wenigstens einen außerhalb-der-Sichtlinie-Detektor (3), eine Erweiterte-Realität-Anzeige (5) und eine Recheneinheit zur Auswertung von dem außerhalb-der-Sichtlinie-Detektor (3) erzeugten Sensordaten und zum Ansteuern der Erweiterte-Realität-Anzeige (5), dadurch gekennzeichnet, dass der außerhalb-der-Sichtlinie-Detektor (3), die Erweiterte-Realität-Anzeige (5) und die Recheneinheit zur Ausführung eines Verfahrens nach einem der Ansprüche 1 bis 9 eingerichtet sind.
DE102023003826.1A 2023-09-21 2023-09-21 Verfahren zur Darstellung verdeckter Verkehrsteilnehmer und Fahrzeug Withdrawn DE102023003826A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102023003826.1A DE102023003826A1 (de) 2023-09-21 2023-09-21 Verfahren zur Darstellung verdeckter Verkehrsteilnehmer und Fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023003826.1A DE102023003826A1 (de) 2023-09-21 2023-09-21 Verfahren zur Darstellung verdeckter Verkehrsteilnehmer und Fahrzeug

Publications (1)

Publication Number Publication Date
DE102023003826A1 true DE102023003826A1 (de) 2023-11-16

Family

ID=88510533

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023003826.1A Withdrawn DE102023003826A1 (de) 2023-09-21 2023-09-21 Verfahren zur Darstellung verdeckter Verkehrsteilnehmer und Fahrzeug

Country Status (1)

Country Link
DE (1) DE102023003826A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102024002745B3 (de) 2024-08-24 2025-08-21 Mercedes-Benz Group AG Verfahren zur Ausgabe einer Erweiterte-Realität-Darstellung in einem Fahrzeug und Fahrzeug
DE102024205804A1 (de) * 2024-06-21 2025-12-24 Volkswagen Aktiengesellschaft Kraftfahrzeug und Verfahren zur Darstellung von Umfeldobjekten und/oder Verkehrsteilnehmern
DE102024125557B3 (de) * 2024-07-10 2025-12-31 GM Global Technology Operations LLC Hervorheben gefährdeter Verkehrsteilnehmer auf hybriden Augmented-Reality-Head-up-Displays
DE102024125553B3 (de) * 2024-07-10 2025-12-31 GM Global Technology Operations LLC Warnung vor einem drohenden Unfall außerhalb der Sichtlinie unter Verwendung reflektierender Head-up-Displays

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016220894A1 (de) 2016-10-25 2018-04-26 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zum Erzeugen einer Fahrzeugumgebungsansicht bei einem Fahrzeug

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016220894A1 (de) 2016-10-25 2018-04-26 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zum Erzeugen einer Fahrzeugumgebungsansicht bei einem Fahrzeug

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102024205804A1 (de) * 2024-06-21 2025-12-24 Volkswagen Aktiengesellschaft Kraftfahrzeug und Verfahren zur Darstellung von Umfeldobjekten und/oder Verkehrsteilnehmern
DE102024125557B3 (de) * 2024-07-10 2025-12-31 GM Global Technology Operations LLC Hervorheben gefährdeter Verkehrsteilnehmer auf hybriden Augmented-Reality-Head-up-Displays
DE102024125553B3 (de) * 2024-07-10 2025-12-31 GM Global Technology Operations LLC Warnung vor einem drohenden Unfall außerhalb der Sichtlinie unter Verwendung reflektierender Head-up-Displays
DE102024002745B3 (de) 2024-08-24 2025-08-21 Mercedes-Benz Group AG Verfahren zur Ausgabe einer Erweiterte-Realität-Darstellung in einem Fahrzeug und Fahrzeug

Similar Documents

Publication Publication Date Title
DE102004035842B4 (de) Duales ungleichartiges erfassendes Objektdetektions- und Zielerfassungssystem
DE102012214852B4 (de) Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
DE10131720B4 (de) Head-Up Display System und Verfahren
EP2427855B1 (de) Verfahren zur darstellung von objekten aus der umgebung eines fahrzeugs auf der anzeige einer anzeigevorrichtung
DE10025678B4 (de) Kamerabasiertes Precrash-Erkennungssystem
DE102023003826A1 (de) Verfahren zur Darstellung verdeckter Verkehrsteilnehmer und Fahrzeug
DE102021114620A1 (de) Präsentation von dynamischer bedrohungsinformation basierend auf bedrohungs- und trajektorienvorhersage
DE102020100080A1 (de) Adaptive transparenz eines virtuellen fahrzeugs in einem simulierten bildgebungssystem
DE10336638A1 (de) Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
DE102018203807A1 (de) Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
EP3622709B1 (de) Verfahren und vorrichtung zur ortsaufgelösten detektion von einem fahrzeugexternen objekt mithilfe eines in einem fahrzeug verbauten sensors
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
DE102014201159A1 (de) Verfahren und Vorrichtung zum Klassifizieren eines Verhaltens eines Fußgängers beim Überqueren einer Fahrbahn eines Fahrzeugs sowie Personenschutzsystem eines Fahrzeugs
EP3044727B1 (de) Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten
DE102017221191A1 (de) Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
EP2400473A1 (de) Verfahren und Vorrichtung zum Unterstützen eines Fahrzeugführers
DE102008020007A1 (de) Verfahren zum Unterstützen eines Fahrers beim Fahren mit einem Fahrzeug mit einer Fahrspurerkennung
DE102005054972A1 (de) Verfahren zur Totwinkelüberwachung bei Fahrzeugen
EP2710573A1 (de) Verfahren und vorrichtung zum erkennen eines möglichen kollisionsobjektes
EP1652161B1 (de) Vorrichtung zur klassifizierung wenigstens eines objekts in einem fahrzeugumfeld
DE102012215465A1 (de) Verfahren und Informationssystem zum Filtern von Objektinformationen
DE102009014437A1 (de) Objekterkennungssystem und -verfahren
EP3583488A1 (de) Automatisierte aktivierung eines sichtunterstützungssystems
DE102021203763A1 (de) Verfahren und Warnvorrichtung für ein Fahrzeug zur Ausgabe eines Warnsignals an einen Nutzer eines Fahrzeugs
DE102017007958A1 (de) Fahrerassistenzsystem für ein Fahrzeug und Fahrzeug mit einem solchen Fahrerassistenzsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R230 Request for early publication
R120 Application withdrawn or ip right abandoned