[go: up one dir, main page]

DE102018203807A1 - Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen - Google Patents

Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen Download PDF

Info

Publication number
DE102018203807A1
DE102018203807A1 DE102018203807.4A DE102018203807A DE102018203807A1 DE 102018203807 A1 DE102018203807 A1 DE 102018203807A1 DE 102018203807 A DE102018203807 A DE 102018203807A DE 102018203807 A1 DE102018203807 A1 DE 102018203807A1
Authority
DE
Germany
Prior art keywords
vehicle
reflection type
disturbance
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018203807.4A
Other languages
English (en)
Inventor
Bernd Hartmann
Manuel Amthor
Joachim Denzler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Friedrich Schiller Universtaet Jena FSU
Continental Teves AG and Co OHG
Original Assignee
Friedrich Schiller Universtaet Jena FSU
Continental Teves AG and Co OHG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Friedrich Schiller Universtaet Jena FSU, Continental Teves AG and Co OHG filed Critical Friedrich Schiller Universtaet Jena FSU
Priority to DE102018203807.4A priority Critical patent/DE102018203807A1/de
Priority to JP2020519331A priority patent/JP7291129B2/ja
Priority to DE112019000092.6T priority patent/DE112019000092A5/de
Priority to PCT/DE2019/200016 priority patent/WO2019174682A1/de
Priority to CN201980005798.XA priority patent/CN111357012B/zh
Publication of DE102018203807A1 publication Critical patent/DE102018203807A1/de
Priority to US17/019,824 priority patent/US12249153B2/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Klassifikation eines Fahrbahnzustands auf der Basis von Bilddaten eines Fahrzeugkamerasystems und ein entsprechendes Fahrzeugkamerasystem.Das Verfahren weist die folgenden Schritte auf:- Bereitstellen (S12) von Bilddaten durch ein Fahrzeugkamerasystem, welches dazu konfiguriert ist mindestens einen Ausschnitt einer Umgebung außerhalb des Fahrzeugs abzubilden, wobei der Ausschnitt zumindest teilweise die Fahrbahn, auf der das Fahrzeug fährt, enthält- Unterscheiden (S14) von diffuser Reflexion und spiegelnder Reflexion der Fahrbahn durch Bewerten von Unterschieden der Erscheinungsbilder wenigstens eines Punktes der Fahrbahn in mindestens zwei Bildern des Kamerasystems, wobei die Bilder aus unterschiedlichen Aufnahmeperspektiven aufgenommen wurden;- Ermitteln (S16), ob in mindestens einem Bild des Kamerasystems Störungen vorliegen, die dadurch hervorgerufen worden sind, dass mindestens ein Rad eines Fahrzeugs eine Fahrbahnauflage beim Überrollen aufgewirbelt hat,- Klassifizieren (S18) des Fahrbahnzustands unter Berücksichtigung der Ergebnisse bezüglich des Reflexionstyps und der Störungsintensität in eine der folgenden fünf Fahrbahnzustandsklassen:a) Trockene Fahrbahn: Reflexionstyp diffus ohne Störungb) Normal nasse Fahrbahn: Reflexionstyp spiegelnd mit Störungc) Sehr nasse Fahrbahn mit Aquaplaningrisiko: Reflexionstyp spiegelnd mit viel Störungd) Schneefahrbahn: Reflexionstyp diffus mit Störunge) Eisfahrbahn (Glatteis): Reflexionstyp spiegelnd ohne Störung.

Description

  • Die Erfindung betrifft ein Verfahren zur Klassifikation eines Fahrbahnzustands auf der Basis von Bilddaten eines Fahrzeugkamerasystems und ein entsprechendes Fahrzeugkamerasystem.
  • Der technologische Fortschritt im Bereich der optischen Bilderfassung erlaubt den Einsatz von kamerabasierten Fahrerassistenzsystemen, die an unterschiedlichen Positionen am Fahrzeug platziert der visuellen Wahrnehmung des Fahrers entsprechend das Umfeld des Fahrzeugs erfassen. Die funktionalen Umfänge dieser Systeme erstrecken sich dabei von der Fernlichtautomatik über Erkennung und Anzeige von Geschwindigkeitsbegrenzungen bis hin zur Warnung bei Spurhaltefehlern oder drohender Kollision. Ausgehend von der reinen Vorfelderfassung bis hin zum vollständigen 360° Rundumblick bei sogenannten Surround View Systemen sind heute Kameras in vielfältigen Applikationen und unterschiedlichen Funktionen für Fahrerassistenzsysteme in modernen Fahrzeugen zu finden. Aufgabe der digitalen Bildverarbeitung als Stand-alone Funktion oder in Fusion mit Radar- oder Lidarsensoren ist es dabei primär, Objekte zu erkennen, zu klassifizieren und im Bildausschnitt zu verfolgen. Klassische Objekte sind in der Regel verschiedenste Fahrzeuge wie PKW, LKW, Zweiräder oder Fußgänger. Darüber hinaus übernehmen Kameras die Erfassung von Schildern, Fahrspurmarkierungen, Leitplanken, Freiräumen oder sonstigen generischen Objekten.
  • Das automatische Erlernen und Erkennen von Objektkategorien und deren Instanzen gehört zu den wichtigsten Aufgaben der digitalen Bildverarbeitung. Viele Methoden sind hierzu bekannt. Aufgrund der aktuell sehr weit fortgeschrittenen Verfahren, die diese Aufgaben beinahe so gut wie ein Mensch erfüllen können, hat sich inzwischen der Schwerpunkt von einer groben auf eine genaue Lokalisierung der Objekte verlagert.
  • Im Bereich moderner Fahrerassistenz werden unterschiedliche Sensoren u.a. auch Videokameras eingesetzt um das gesamte Fahrzeugumfeld möglichst genau und robust zu erfassen. Diese Umfeldinformationen zusammen mit den fahrdynamischen Informationen des Fahrzeugs über z.B. die Inertialsensorik verschaffen einen guten Eindruck über den aktuellen Fahrzustand des Fahrzeugs und die gesamte Fahrsituation. Daraus lässt sich die Kritikalität von Fahrsituationen ableiten und die entsprechenden Fahrerinformationen/-warnungen bis hin zu fahrdynamischen Eingriffen über Bremse und Lenkung initiieren.
  • Da der zur Verfügung stehende Reibbeiwert oder Fahrbahnzustand für Fahrerassistenzsysteme jedoch bislang nicht zur Verfügung steht bzw. nicht benannt werden kann, erfolgt die Auslegung der Warn- und Eingriffszeitpunkte grundsätzlich auf Basis einer trockenen Fahrbahn mit hohem Kraftschlusspotential zwischen Reifen und Fahrbahn. Der Reibbeiwert, auch Reibwert, Kraftschlussbeiwert, (Haft-) Reibungs-zahl oder Reibungskoeffizient gibt an, welche Kraft bezogen auf die Radlast zwischen einer Fahrbahnoberfläche und einem Fahrzeugreifen (z.B. in Tangentialrichtung) maximal übertragen werden kann und ist somit ein wesentliches Maß für die Fahrsicherheit. Neben dem Fahrbahn-zustand sind Eigenschaften des Reifens zu einer vollständigen Bestim-mung des Reibwerts erforderlich.
  • Daraus leitet sich die eigentliche Herausforderung für Fahrerassistenzsysteme aber auch für das Automatisierte Fahren ab. Die Fahrerwarnung bzw. der systemseitige Eingriff bei unfallvermeidenden oder -abschwächenden Systemen erfolgt so spät, dass es bei tatsächlich trockener Fahrbahn gerade noch zur Unfallvermeidung oder zur akzeptablen Unfallfolgenminderung reicht. Ist die Fahrbahn bei Nässe, Schnee oder gar Eis weniger griffig, kann der Unfall nicht mehr verhindert werden und auch die Minderung der Unfallfolgen erzielt nicht den gewünschten Effekt.
  • Wäre man also systemseitig in der Lage, den Fahrbahnzustand oder gar den zur Verfügung stehenden Reibbeiwert zu bestimmen, könnten Fahrerwarnungen und auch Systemeingriffe entsprechend zielgerichteter erfolgen. Die Wirksamkeit von unfallvermeidenden Fahrerassistenzsystemen würde sich damit deutlich erhöhen. Die Fahrbahnzustandsüberwachung bzw. die Reibwertschätzung ist eine elementare Voraussetzung für Systeme des Automatisierten Fahrens.
  • Eine Bildbasierte Bestimmung eines Fahrbahnzustands mittels einer Fahrzeugkamera zeigt z.B. WO 2014/127777 A2 . Hier wird ein Bildbereich, der eine Abbildung der Fahrbahnoberfläche umfasst einem Klassifikator zugeführt.
  • Es ist eine Aufgabe der Erfindung, eine verbesserte kamerabasierte Klassifikation des Fahrbahnzustands und ggfs. auftretender witterungsbedingter Umwelteinflüsse anzugeben.
  • Ein Ausgangspunkt der vorliegenden Lösung ist die Erkenntnis, dass eine Unterscheidung nach diffusen und spiegelnden Reflexionen auf der Fahrbahnoberfläche in Kamerabilddaten charakteristisch für bestimmte Fahrbahnzustände ist. Ein solches Verfahren ist in WO 2016/177371 A1 beschrieben. Insbesondere in einer Kombination aus verschiedenen Kameras und Kamerasystemen am Fahrzeug mit unterschiedlichen Blickwinkeln und Blickrichtungen mit Mitteln der Digitalen Bildverarbeitung und des maschinellen Lernens kann zunächst nach diffusen und spiegelnden Reflexionen auf der Fahrbahnoberfläche in Bildern oder in Teilbereichen der Bilder oder in einer Abfolge von Bildern unterschieden werden. Unterschiedliche Blickwinkel bietet beispielsweise eine einzelne Kamera, die infolge der Bewegung des Fahrzeugs zu unterschiedlichen Zeitpunkten unterschiedliche Blickwinkel auf einen Raumpunkt einnimmt. Zwei Kameras mit teilweise überlappendem Erfassungsbereich bieten als weiteres Beispiel bereits zu einem Zeitpunkt unterschiedliche Blickwinkel auf einen Raumpunkt im Überlappungsbereich.
  • Eine zweite wesentliche Charakteristik für den Zustand einer Fahrbahnoberfläche liefert die Ermittlung von Störungen in Bildern oder in Teilbereichen der Bilder oder in einer Abfolge von Bildern, die durch das Aufwirbeln von einer Fahrbahnauflage (z.B. Wasser oder Schnee) beim Überfahren bzw. infolge des Überrollens mit den Fahrzeugrädern des eigenen Fahrzeugs oder den Rädern anderer Fahrzeuge entstehen. Die Fahrbahnauflagen können nach ihrer Auswirkung im Bild bewertet werden. Durch Fahrzeugräder aufgewirbelte Partikel der Fahrbahnauflage verursachen Störungen im Bild bzw. in den Teilbereichen von Bildern bzw. in der Abfolge von Bildern mit unterschiedlichen Ausprägungen. Ein solches Verfahren ist in WO 2015/070861 A1 beschrieben.
  • Beide Charakteristika können nun miteinander verknüpft und gemeinsam einem präzise definierten Fahrbahnzustand zugeordnet werden. Dadurch kann alleine auf Basis von Kamerabildern eine Unterscheidung von folgenden fünf relevanten Fahrbahnzuständen, gewährleistet werden:
    • - Trockene Fahrbahn
    • - Nasse Fahrbahn mit wenig Wasser
    • - Nasse Fahrbahn mit viel Wasser (Aquaplaninggefahr)
    • - Schneefahrbahn
    • - Eisfahrbahn.
  • Die Unterscheidung erfolgt anhand der folgenden einfachen Kriterien:
    • Trockene Fahrbahn: diffuse Reflexion, bei der durch die Fahrzeugräder keine Störung erfolgt;
    • Nasse Fahrbahn mit wenig Wasser: Spiegelnde Reflexion mit wenigen Störungen;
    • Nasse Fahrbahn mit viel Wasser (Aquaplaning-Risiko): Spiegelnde Reflexion mit viel Störung;
    • Schneefahrbahn: Diffuse Reflexion mit Störung; und Eisfahrbahn: Spiegelnde Reflexion ohne Störung.
  • Eine Störung auf nasser Fahrbahn, die durch Spritzwasser verursacht wird, wird bevorzugt dadurch erkennbar, dass sich Helligkeits- und/oder Kontrast- und/oder Farb- als auch strukturelle Unterschiede im Vergleich mit einem ungestörten Bild bzw. mit ungestörten Teilbereichen des Bildes oder in der Abfolge von ungestörten Bildern ergeben.
    Auf Schnee ergeben sich hingegen vorteilhaft keine Helligkeits- und/oder Kontrast und/oder Farbunterschiede. Der aufgewirbelte Schnee erzeugt lediglich strukturelle Unterschiede.
    Eine trockene Fahrbahn zeichnet sich insbesondere durch eine diffuse Reflexion ohne Störungen aus.
    Die Eisfahrbahn (Glatteis/„Black Ice“) zeigt typischerweise eine spiegelnde Reflexion ohne Störung.
  • Grundsätzlich lässt sich das Verfahren auf einzelne Kameras anwenden, sofern sie geeignet sind, Aufwirbelungen von den Rädern des eigenen Fahrzeugs oder anderer Fahrzeuge zu erfassen. Das Kamerasystem kann also aus einer einzelnen Kamera bestehen, sofern diese einen geeigneten Erfassungsbereich aufweist, in dem Störungen detektiert werden (falls diese auftreten) und in dem die Art der Reflexion bestimmt werden kann.
  • Dies gilt z.B. bevorzugt für eine (monokulare) Fahrzeugfrontkamera, die die vorausliegende Fahrbahn zumindest teilweise erfasst und eine Fahrbahnauflage dann erkennen kann, wenn ein vorausfahrendes, querendes oder ein entgegenkommendes Fahrzeug beim Überfahren der Fahrbahnauflage mit den Reifen diese z.B. in Form von Spritzwasser oder Schneewolken aufwirbelt.
  • Besonders bevorzugt erzeugt eine seitlich angeordnete Kamera, also z.B. eine auf ein Rad des eigenen Fahrzeugs, eine Fahrzeugseite des eigenen Fahrzeugs oder zumindest einen das Rad umgebenden Bereich gerichtete Kamera die Bilddaten. Mit anderen Worten befindet sich mindestens ein Rad oder das Radhaus, welches dieses eine Rad umgibt, oder eine Seite des Fahrzeugs im Sichtbereich (Englisch: field of view - FOV) der Seitenkamera. Dies gilt z.B. für eine erste Seitenkamera eines Rundumsichtkamerasystems (Surround View Systems) . Die auszuwertende Bildregion (Region of interest, ROI) betrifft vorzugsweise den Raum um das Vorderrad auf dieser Seite, wo der Effekt von auftretendem Spritzwasser oder aufgewirbeltem Schnee am größten ist. Alternativ bzw. zusätzlich kann als (zweite) ROI der Raum um das Hinterrad dienen.
    Mit anderen Worten werden Bildstörungen in der wenigsten einen Region von besonderem Interesse (ROI) ermittelt, die dadurch hervorgerufen werden, dass das radnah beobachtete Fahrzeugrad die Fahrbahnauflage durch sein Überrollen aufwirbelt, was zu Störungen in der wenigstens einen Region von besonderem Interesse (ROI) führt.
  • Gemäß einer bevorzugten Weiterbildung erzeugt eine zweite seitlich angeordnete Kamera auf der gegenüberliegenden Fahrzeugseite in vergleichbarer Weise zweite Bilddaten. So können z.B. beide Vorderräder und/oder beide Hinterräder „überwacht“ werden.
  • In vorteilhafter Weise umfasst das Fahrzeugkamerasystem eine Heckkamera, die einen rückwärtigen Bereich des Fahrzeugs erfasst.
  • Vorzugsweise werden Bilddaten aus unterschiedlichen einzelnen Kameras eines Fahrzeugkamerasystems mit unterschiedlichen Blickrichtungen und/oder -winkeln bereitgestellt. Dadurch kann der Reflexionstyp der Fahrbahn robuster unterschieden werden. Auch die Störungsintensität kann robuster bestimmt werden.
  • Ein Rundumsichtkamerasystem mit mindestens oder genau vier weitwinklingen (bis zu 180° Bildwinkel) Kameras, die die Bereiche vorne, links, rechts und hinten bezüglich des Fahrzeugs und seiner Umgebung erfassen, würde vorteilhaft ideale Möglichkeiten zur robusten Detektion von Reflexionstyp und Störung bieten.
  • Bevorzugt werden Kamerabilder in multiple unterschiedliche Regionen von besonderem Interesse (ROIs) unterteilt, die je nach Inhalt gezielt unterschiedlich zur Bewertung von Reflexionstyp und Störung genutzt werden.
  • Vorzugsweise werden einzelne Kameras gezielt unterschiedlich zur Bewertung von Reflexionstyp und Störung genutzt. Beispielsweise kann eine Seitenkamera zur Bewertung der Störung im Bereich des Rads genutzt werden und eine Front- oder eine Heckkamera zur Bestimmung des Reflexionstyps.
  • Ein besonderer Vorteil einer bevorzugten Kombination verschiedener Kameras und Bildregionen liegt darin, dass in den verschiedenen Bildern und/oder Regionen ganz gezielt nach den Störungen durch die fahrzeugräderbedingten Verwirbelungen von Fahrbahnauflage gesucht werden kann.
    Eine solche Kombination macht das Gesamtergebnis deutlich robuster und erhöht die Verfügbarkeit von Informationen.
  • Eine weitere vorteilhafte Ausprägung liegt darin, eine oder mehrere Frontkamera(s) mit den Kameras eines Surround View Systems zu kombinieren. Die Frontkamera biete für vorausliegende (entferntere) Umgebungsbereiche eine bessere Auflösung (und geringere Verzerrung) als eine vorwärtsgerichtete Satelittenkamera eines Rundumsichtkamerasystems.
  • Vorzugsweise können Fahrdynamik- und/oder andere Sensordaten und/oder Umfeldinformationen anderer nicht-kamerabasierter Umfeldsensoren eines Fahrzeugs und/oder Wetterinformationen als zusätzliche Entscheidungsgrundlage für die Bewertung bzw. Klassifikation des Fahrbahnzustands und der witterungsbedingten Umwelteinflüsse herangezogen werden.
  • Bevorzugt wird zur Unterscheidung der Fahrbahnzustände ein erstes maschinelles Lernverfahren anhand einer ersten Trainingsstichprobe trainiert. Das erste maschinelle Lernverfahren umfasst die Schritte:
    • - Detektion und/oder Klassifikation des Reflexionstyps; und
    • - Detektion und/oder Regression der Störungsintensität.
  • Gemäß einer bevorzugten Ausführungsform wird eine Abbildung von Reflexionstyp und Störungsintensität auf eine der Fahrbahnzustandsklassen mit Hilfe eines zweiten maschinellen Lernverfahrens anhand einer zweiten Trainingsstichprobe gelernt.
  • Bevorzugt werden Bildmerkmale aus der mindestens einen Region aus dem mindestens einen Kamerabild extrahiert werden, optional in eine Zwischenrepräsentation überführt, und mittels eines Regressors auf eine Störungsintensität oder mittels eines Klassifikators auf einen Reflexionstyp und/oder einen Fahrbahnzustand abgebildet.
  • Alternativ bevorzugt wird ein Neuronales Netz trainiert, welches anhand einer dritten Trainingsstichprobe eine Abbildung von einem oder mehreren Bildausschnitten aus einem oder mehreren Kamerabildern auf Fahrbahnzustände lernt. Dieses Ende-zu-Ende Klassifizieren kann insbesondere als Deep Learning Verfahren erfolgen, das Neuronale Netz kann ein Convolutional Neuronales Netz (CNN) sein.
  • Vorzugsweise werden Fahrdynamik- und/oder Sensordaten als zusätzliche Eingabe für ein maschinelles Lernverfahren bzw. Trainieren eines neuronalen Netzes verwendet.
  • Die Erfindung betrifft zudem ein Fahrzeugkamerasystem umfassend mindestens eine Kamera und eine Bilddatenauswertungseinheit. Die Kamera ist dazu konfiguriert (insbesondere angeordnet und wird angesteuert), mindestens einen Ausschnitt einer Umgebung außerhalb des Fahrzeugs abzubilden, wobei der Ausschnitt zumindest teilweise die Fahrbahn enthält, auf der das Fahrzeug fährt, und die Bilddaten der Bilddatenauswertungseinheit bereitzustellen. Die Bilddatenauswertungseinheit ist dazu konfiguriert, zwischen diffuser Reflexion und spiegelnder Reflexion der Fahrbahn zu unterscheiden durch Bewerten von Unterschieden der Erscheinungsbilder wenigstens eines Punktes der Fahrbahn in mindestens zwei Bildern des Kamerasystems, die aus unterschiedlichen Aufnahmeperspektiven aufgenommen wurden.
    Die Bilddatenauswertungseinheit ist ferner dazu konfiguriert, zu ermitteln, ob in mindestens einem Bild des Kamerasystems Störungen vorliegen, die dadurch hervorgerufen worden sind, dass ein Rad eines Fahrzeugs eine Fahrbahnauflage beim Überrollen aufgewirbelt hat. Die Bilddatenauswertungseinheit ist ferner dazu konfiguriert, den Fahrbahnzustand unter Berücksichtigung der Ergebnisse aus Reflexionstyp und Störungsintensität in eine der folgenden fünf Fahrbahnzustandsklassen zu klassifizieren:
    1. a) Trockene Fahrbahn: Reflexionstyp diffus ohne Störung
    2. b) Normal nasse Fahrbahn: Reflexionstyp spiegelnd mit Störung
    3. c) Sehr nasse Fahrbahn mit Aquaplaningrisiko: Reflexionstyp spiegelnd mit viel Störung
    4. d) Schneefahrbahn: Reflexionstyp diffus mit Störung
    5. e) Eisfahrbahn (Glatteis): Reflexionstyp spiegelnd ohne Störung.
  • Insbesondere ist das Fahrzeugkamerasystem dazu eingerichtet, unter Verwendung von Algorithmen der digitalen Bildverarbeitung und des maschinellen Lernens, Fahrbahnzustände wie trocken, nass, schneebedeckt, vereist als auch Gefahrensituationen wie beispielsweise Aquaplaning robust zu detektieren und robust durch Kreuzvergleich von Reflexionstyp der Fahrbahn und Störungsintensität zu unterscheiden.
  • Die Bilddatenauswertungseinheit kann insbesondere einen Mikrocontroller oder -prozessor, einen Digital Signal Processor (DSP), einen ASIC (Application Specific Integrated Circuit), einen FPGA (Field Programmable Gate Array) und dergleichen mehr sowie Software zur Durchführung der entsprechenden Verfahrensschritte umfassen.
    Die vorliegende Erfindung kann somit in digitalen elektronischen Schaltkreisen, Computer-Hardware, Firmware oder Software implementiert sein.
  • Das Fahrzeugkamerasystem kann ferner eine Ausgabeeinheit zur Information des Fahrers oder zur Steuerung eines (teilweise oder vollständig) automatisiert fahrenden Fahrzeugs umfassen. Eine Recheneinheit zur Bewertung des Reibbeiwerts kann in das Fahrzeugkamerasystem bzw. in die Bilddatenauswertungseinheit integriert sein.
  • Ein weiterer Gegenstand der Erfindung betrifft ein Fahrzeug mit einem erfindungsgemäßen Fahrzeugkamerasystem. Das Fahrzeug umfasst bevorzugt Aktuatoren zum Eingriff in die Fahrdynamik des Fahrzeugs, die von dem Fahrzeugkamerasystem entsprechend dem ermittelten Fahrbahnzustand angesteuert werden.
  • Im Folgenden werden Ausführungsbeispiele und Fig. näher beschrieben. Dabei zeigen
    • 1: unterschiedliche Erfassungsbereiche eines Fahrzeugkamerasystems mit mehreren einzelnen Kameras;
    • 2: vier einzelne Bilder eines Rundumsichtkamerasystems mit vier Kameras mit Fischaugenoptiken
    • 3: eine schematische Darstellung eines Fahrzeugreifens bei starker Nässe;
    • 4: schematisch ein binarisiertes Kamerabild von einem Fahrzeugreifen beim Überfahren einer regennassen Fahrbahn;
    • 5: drei Beispielbildausschnitte einer rechten Fahrzeugseitenkamera für jeweils eine Klasse einer Störungsintensität bei unterschiedlich nasser Fahrbahn;
    • 6: eine schematische Darstellung einer Fahrzeugkameravorrichtung; und
    • 7: ein schematisches Diagramm von Schritten eines Verfahrens zur Erkennung und Bewertung von Fahrbahnzuständen.
  • 1 zeigt die Erfassungsbereiche (1a-1d, 2, 3) eines in bzw. an einem ersten Fahrzeug (E) angeordneten Kamerasystems. In Fahrtrichtung vor dem ersten Fahrzeug (E) befindet sich seitlich versetzt ein zweites Fahrzeug (F). Das Kamerasystem des ersten Fahrzeugs (E) umfasst drei unterschiedliche Kamerauntersysteme (1, 2 und 3) : ein Rundumsichtsystem (1) umfassend vier einzelne Kamerasensoren mit weitwinkligen Erfassungsbereichen (1a-1d), die zusammen eine 360°-Erfassung des Fahrzeugs ermöglichen, eine Frontkamera mit einem nach vorne gerichteten Erfassungsbereich (2) und eine Heckkamera mit einem nach hinten gerichteten Erfassungsbereich (3).
  • Mit Kamerasensoren, die einen in Fahrtrichtung nach vorne gerichteten Erfassungsbereich (1a, 2) aufweisen, können Störungen im Bild bzw. in einem Bildausschnitt detektiert werden, die auftreten bei Vorliegen einer Fahrbahnauflage beim Überfahren der Fahrbahn durch vorausfahrende Fahrzeugen (F) oder durch entgegenkommende Fahrzeuge (nicht dargestellt) ermittelt werden.
    Die Bildverarbeitung zur Ermittlung einer Fahrbahnauflage kann sich vorteilhaft auf einen oder mehrere Bereiche des Kamerabilds beschränken, in dem sich eine Reifenkontaktzone der Fahrbahn befindet.
  • Mit Kamerasensoren, die einen zur Seite gerichteten Erfassungsbereich (1b, 1c) aufweisen, können Störungen im Bild durch eine Fahrbahnauflage beim Überfahren der Fahrbahn durch die Reifen des eigenen Fahrzeugs (E) ermittelt werden.
    Der Vorteil hierbei ist, dass man nicht auf voraus- oder spurversetzt fahrende Fremdfahrzeuge (F) angewiesen ist, sondern anhand der Detektion und Ermittlung der durch das eigene Fahrzeug (E) hervorgerufenen Auswirkungen anhand einer seitlich ausgerichteten Sensorik unabhängig von anderen Fahrzeugen (F) eine aktuell relevante Fahrbahnauflage ermitteln kann. Da Fahrzeuge bereits heute zunehmend mit einer 360° Kamerasensorik ausgestattet werden, die einen Surround View erfasst, welcher dem Fahrer z.B. als „Top View“ in einer Vogelperspektive angezeigt werden kann, ist so die zuverlässige Ermittlung einer Fahrbahnauflage vorteilhaft gewährleitstbar.
  • 2 zeigt beispielhaft vier einzelne Bilder eines Rundumsichtkamerasystems mit vier Kameras mit Fischaugenoptiken. Die Bilder oben (20a), links (20b), rechts (20c) und unten (20d) entsprechen den in 1 dargestellten Erfassungsbereichen vorne (1a), links (1b), rechts (1c) und hinten (1d) . Insbesondere in den Bildern der linken (20b) und rechten (20c) Seitenkamera sind die jeweiligen Vorder- und Hinterräder enthalten. Die entsprechenden Bildbereiche bzw. ROIs sollten ausgewählt und einer Klassifikation zugeführt werden, die eine Intensität von Bildstörungen in diesen Bereichen aufgrund von Fahrbahnauflagen ermittelt.
  • 3 zeigt eine schematische Darstellung einer Situation mit Aquaplaning-Gefahr. Entscheidend ist der Kontakt zwischen einem Reifen 30 und einer Fahrbahn 35. Das auf der Fahrbahn 35 befindliche Wasser 37, also die Fahrbahnauflage, ist schraffiert dargestellt. Dabei kann die Kontaktfläche des Reifens 30 mit der Fahrbahn 35 in drei Bereiche 31-33 unterteilt werden. Bewegt sich das Fahrzeug und somit auch der Reifen 30 in die durch die Pfeilrichtung gekennzeichnete Fahrtrichtung, so bildet sich an dem Reifen zunächst eine Annäherungszone 31, in welcher sich etwa keilförmig Wasser zwischen dem Reifen 30 und der Fahrbahn 35 befindet. An diese Annäherungszone 31 schließt sich eine Übergangszone 32 an. Im Bereich der Kontaktzone 33, welche sich der Übergangszone 32 anschließt, steht der Reifen 30 in direktem Kontakt mit der Fahrbahn 35, wodurch eine entsprechende Haftwirkung erreicht werden kann. Mit zunehmendem Wasserstand und/oder zunehmender Fahrgeschwindigkeit verringert sich die Kontaktzone 33 und damit die Kontaktfläche zwischen Reifen 30 und Fahrbahn 35. Geht diese Ausdehnung der Kontaktzone 33 gegen Null, so steht die Gefahr von Aquaplanings unmittelbar bevor. Dieser Zustand wird daher als Mikroaquaplaning bezeichnet. Existiert keine Kontaktzone 33 mehr, das heißt es befindet sich zwischen dem Reifen 30 und der Fahrbahn 35 im gesamten Bereich Wasser, so tritt Aquaplaning auf, und ein Fahrzeug kann während dieses Zustandes nicht mehr kontrolliert gesteuert oder abgebremst werden.
  • In 4 ist eine schwarz-weiße (invertierte) Abbildung eines Kamerabilds von einem Fahrzeugreifen 30 beim Überfahren einer regennassen Fahrbahn dargestellt. Der Fahrzeugreifen 30 befindet sich auf einer Felge (weiß, kreisförmig) und das Fahrzeug bewegt sich nach links. Zu erkennen sind Wassertropfen und Wasserfäden 40 (weiße Punkte und Fäden), die beim Überfahren der mit Wasser bedeckten Fahrbahnoberfläche durch den Reifen verdrängt und beschleunigt werden. Beim Überfahren von nassen Straßen bildet sich nämlich Spritzwasser, ausgehend von den Fahrzeugreifen.
  • Durch die hohe Flächenpressung verdrängt der Reifen das auf der Fahrbahn stehende Wasser zu allen Seiten. Besonders ausgeprägt ist die Erscheinung bei LKW, deren Reifen entsprechend höhere Flächenpressung haben mehr Wasser als PKW verdrängen müssen. Das Spritzwasser befindet sich hauptsächlich in Fahrtrichtung gesehen hinter und seitlich neben dem Fahrzeugreifen. Dort kann es von einer Fahrzeugkamera detektiert werden und von einer Bildverarbeitung als Spritzwasser erkannt werden, woraus auf eine Regenwasserschicht als Fahrbahnauflage geschlossen werden kann.
    Beim Vorliegen von Schneematsch auf der Fahrbahn entsteht in vergleichbarer Weise Spritzschneematsch, der als solcher detektiert und erkannt werden kann.
    Je nach Fahrbahnauflage, z.B. bei feuchter statt nasser Fahrbahn, und der Struktur des Fahrbahnbelags tritt beim Überfahren kein Spritzwasser sondern nur Sprühnebel oder Gischt oder beides auf. Beim Überfahren von mit Neuschnee oder Pulverschnee bedeckten Straßen treten typische Schneeverwirbelungen auf, die sich an den Fahrzeugseiten und als Schneefahne am Fahrzeugheck ausbreiten. Jede aufgewirbelte Fahrbahnauflage sorgt somit für Störungen im einem radnahen Bildbereich und kann anhand der Intensität dieser Störungen identifiziert werden.
  • 5 zeigt drei Beispielbildausschnitte einer (rechten) Fahrzeugseitenkamera bei unterschiedlich nasser Fahrbahn.
    5a zeigt eine trockene Fahrbahn, bei der im an die Fahrzeugseite (unten) angrenzenden Bereich 51 die Fahrbahnoberfläche abgebildet und deren Struktur im Bild ungestört und somit erkennbar ist.
    5b zeigt eine normal nasse Fahrbahn, bei der die Abbildung der Fahrbahnoberfläche durch einzelne erkennbare Spritzwassertropfen 52 gestört ist.
    5c zeigt eine sehr nasse Fahrbahn (vgl. 3), bei der akute Aquaplaning-Gefahr vorliegt. Die Fahrbahnoberfläche ist hier kaum noch zu erkennen, da starke Spritzwassergischt 53 für gravierende Störungen in diesem Bildbereich sorgt.
  • 6 zeigt eine schematische Darstellung einer Fahrzeugkameravorrichtung umfassend mindestens eine Kamera 10 und eine Bilddatenauswertungseinheit 60. Die Bilddatenauswertungseinheit 60 ermittelt den Reflexionstyp und die Störungsintensität und kann so den Fahrbahnzustand klassifizieren. Die Fahrbahnzustandsklasse kann an eine Fahrzeugaktuatorik 66, eine Fahrerwarneinrichtung oder eine Fahrerassistenzfunktionssteuereinheit ausgegeben werden.
  • 7 zeigt ein schematisches Diagramm von Schritten eines Verfahrens zur Erkennung und Bewertung von Fahrbahnzuständen. In Schritt S12 werden Bilddaten durch ein Fahrzeugkamerasystem bereitgestellt. In Schritt S14 wird anhand der Bilddaten unterschieden, ob eine diffuse oder eine spiegelnde Reflexion durch die Fahrbahnoberfläche bzw. eine Fahrbahnauflage vorliegt. In Schritt S16 wird die Intensität von Störungen in einem Bildbereich ermittelt. In Schritt S18 wird anhand der Ergebnisse der Schritte S14 und S16 der Fahrbahnzustand klassifiziert. In einem optionalen Schritt S20 wird die Fahrbahnzustandsklasse ausgegeben.
  • Verfahren der Digitalen Bildverarbeitung und des maschinellen Lernen:
  • Eine vorteilhafte Ausführungsform verwendet Algorithmen der digitalen Bildverarbeitung und des maschinellen Lernens, mit dem Ziel Fahrbahnreflexionen in Verbindung mit potentiellen Aufwirbelungen von Fahrbahnauflage wie Wasser oder Schnee zur Erkennung von Fahrbahnzuständen wie trocken, nass, schneebedeckt, vereist als auch Gefahrensituationen wie beispielsweise Aquaplaning robust zu detektieren. Das Verfahren eignet sich in Auszügen sowohl für Mono-, Stereo- als auch Surround-View-Kameras und/oder deren Kombination.
  • Grundlage sind eine oder mehrere Regionen in einem oder mehreren Kamerabildern, welche statisch festgelegt oder automatisiert durch z.B. maschinelles Lernen bestimmt werden können. Hierbei ist wichtig, dass die Bildregionen Informationen zum Reflexionstyp als auch zum Vorhandensein oder Nichtvorhandensein von Aufwirbelungen der Fahrbahnauflage liefern. Oder, dass die Kombination aus mehreren Bildregionen und/oder mehreren Kameras mit mehreren Bildregionen die Informationen zum Refexionstyp als auch zum Vorhandensein oder Nichtvorhandensein von Aufwirbelungen, die zu Störungen in den Bildregionen führen, liefern.
  • Zur Detektion von Fahrbahnreflexionen wird eine oder mehrere Regionen in einem oder mehreren Kamerabildern verwendet, die die Fahrbahnoberfläche repräsentiert. Je nach Anforderung an Laufzeit und Genauigkeit kann dies ein segmentierter Ausschnitt sein oder in einer besonders vorteilhaften Ausführungsform ein Trapez, welches mit Hilfe einer geschätzten Homographie in eine rechtwinklige Draufsicht („Bird's-eye view“) transformiert wird. Wie in WO 2016/177371 A1 vorgestellt, können nun verschiedene Fahrbahnreflexionstypen (diffuse und spiegelnde Reflexionen) z.B. aus dem zeitlichen Kontext bestimmt werden.
  • Zur Detektion von Aufwirbelungen der Fahrbahnauflage werden in einem oder mehreren Kamerabildern Regionen festgelegt, In einer besonders vorteilhaften Form sind dies die Bildausschnitte in einem SurroundView-Kamerasystem in der Nähe der Fahrzeugräder und/oder der Fahrzeugkarosserie aus seitlicher Sicht. Somit können auftretende Aufwirbelungen gezielt in einem eingeschränkten Bereich frei von Störeinflüssen aus dem Fahrzeugumfeld bestimmt werden. Eine weitere Möglichkeit bietet die Detektion von Fahrzeugrädern und/oder Radausschnitten in der Szene (eigenes und auch fremde Fahrzeuge) mittels maschinellen Lernens. Hierbei kann ein Detektor trainiert werden, welcher den gewünschten Bildausschnitt liefert.
  • Die Klassifikation in eine der gegebenen Fahrbahnzustandsklassen stellt einen zentralen Aspekt dar. Als Basis dienen die detektierten Bildausschnitte für potentiell auftretende Aufwirbelungen der Fahrbahnauflage und die Information über den aktuellen Reflexionstyp auf der Fahrbahn. Diese Daten werden nun einem maschinellen Lernsystem zugeführt, welches anhand einer Trainingsstichprobe eine Abbildung von Bildausschnitten, Reflexionstyp und Zusatzinformationen auf eine der definierten Fahrbahnzustände lernt. Es wird also ein Modell gebildet, welches zum einen strukturbasierte Merkmale zum Beschreiben von Aufwirbelungen der Fahrbahnauflage extrahiert/lernt und zum anderen eine geeignete Kombination aus diesen und dem Reflexionstyp und/oder Zusatzinformationen schätzt. Tabelle 1: Klassifikation des Fahrbahnzustands durch Kreuzvergleich von Reflexionstyp und Störungsgrad
    Reflexion\Störung Keine Normale Stark
    Diffus trocken Schnee -
    Spiegelnd Glatteis Normal nass Aquaplaninggefahr
  • Darüberhinaus kann die Klassifikation durch Kontextwissen/Zusatzinformation gestützt werden. Besonders geeignet sind hierbei die Integration von Fahrdynamikdaten des Fahrzeugs sowie die Verwendung von verfügbaren Sensordaten (Temperatur, Luftfeuchtigkeit, Regensensor, Scheibenwischeraktivität etc).
  • Fisher-Vector-Encoding mit Front- und Surrondviewkamerasystem:
  • Die vorgeschlagene Methodik verlangt als Eingabe ein oder mehrere Kamerabilder, welche den für die Entscheidung wichtigen Bereich im Bild beinhaltet und zugleich unnötigen Hintergrund ausschließt. Dies ist wichtig, da durch Störungen von umgebender Infrastruktur und anderen Verkehrsteilnehmern das Verfahren beeinträchtigt werden kann.
    Durch einen zu groß gewählten Bildausschnitt ist es sogar bei einer sehr kleinen Datenbasis möglich, dass die Entscheidung nicht anhand der gewünschten Aufwirbelungsstrukturen von Fahrbahnauflage getroffen wird, sondern basierend auf Hintergrunderscheinungen, welche zufällig in den individuellen Situationen auftreten.
    Es werden nun aus den Eingabebildbereichen aller Trainingsbilder lokale Merkmale auf einem dichten Gitter extrahiert, welche Teile des Bildes durch ein Kantenhistogramm (u.a. HOG „Histogram of oriented gradients“, LBP „Local binary patterns“) beschreiben. Anschließend wird aus der gesamten Menge an Merkmalen ein Gauß'sches Mischverteilungsmodell geschätzt. Ein Einzelbild wird nun anhand von Statistiken höherer Ordnung aus dessen Merkmalsvektoren und dem Mischverteilungsmodell beschrieben, dem sogenannten Fisher-Vector-Encoding. Mit Hilfe der erhaltenen Bildrepräsentationen der gesamten Trainingsmenge wird abschließend ein linearer Klassifikator gelernt welcher zur Laufzeit probabilistische Klassenzugehörigkeiten für ein gegebenes Bilder liefert.
    Eine besonders vorteilhafte Form ist die Verwendung von zwei Bildregionen aus der Frontkamera und die Verwendung von Bildausschnitten der Surroundviewkameras. Ein erster Bildbereich der Frontkamera dient dazu, auf der Fahrspur vorhandene Reflexionen zu typisieren. Ein weiterer größerer Bildausschnitt liefert darüber hinaus globalen Bildkontext zu Wetterbedingungen und als auch fahrbahnzustandsrelevante Effekte, welche durch Infrastruktur hervorgerufen werden (beispielsweise schneebedeckte Gehwege oder eben begrünter Randstreifen). Die Bildausschnitte der Surroundviewkamera liefern hingegen Informationen zu Aufwirbelungen der Fahrbahnauflage. Die Kombination dieser Bildausschnitte aus unterschiedlichen Kameras kann dann als Eingabe für das Fish-Vector-Encoding dienen.
  • Durch das Encoding können zum einen charakteristische Strukturen für das Aufwirbeln als auch das Verhältnis dieser zu Reflexionsinformationen und Zusatzinformationen abgebildet werden. Zusätzlich können auch strukturelle Merkmale vor und neben dem Fahrzeug erfasst werden, welche ebenfalls hilfreich bei der Unterscheidung der Fahrbahnzustände sein können (Fahrspuren bei schneebedeckter Fahrbahn).
  • Das Klassifikationsergebnis kann bei Bedarf durch eine Nachbearbeitung stabilisiert werden, indem die Schätzungen aus den Einzelbildern zeitlich geglättet werden. Alternativ kann auch ein Hysterese-Schwellwert-Verfahren unsichere Entscheidung filtern.
  • Deep Learning mit Front- und Surrondviewkamerasystem:
  • Klassisches maschinelles Lernen besteht, wie auch das Verfahren für die Fahrbahnzustandsschätzung mittels Fisher-Vector-Encoding (s.o.), aus mehreren Schritten, welche unabhängig voneinander ausgeführt werden. Als erstes werden Merkmale aus dem Bild extrahiert, welche entweder direkt genutzt oder in eine Zwischenrepräsentation überführt werden. Anschließend wird anhand der Merkmale oder der Zwischenrepräsentation ein Klassifikator gelernt, welcher eine Klassenentscheidung trifft.
  • Im Gegensatz dazu werden beim Deep Learning die Einzelschritte nicht explizit ausgeführt, sondern finden eher implizit mit wachsender Tiefe in einem neuronalen Netz statt. Dies wird als sogenanntes End-to-End-Learning bezeichnet, was eine gemeinsame Optimierung aller in einem System vorhandenen Parameter zur Folge hat. Dies bedeutet für die vorliegende Erfindung, dass Bildausschnitte oder ganze Bilder aus Front- und Surroundviewkameras als Eingabe für das neuronale Netz dienen. Zusätzlich können Reflexionstyp und Zusatzinformationen, wie Sensor- und Fahrdynamikdaten als Eingabe integriert werden. Anhand einer Trainingsstichprobe wird nun das Netz trainiert, ohne eine Merkmalsextraktion oder Zwischenrepräsentation explizit zu modellieren. Es wird lediglich eine Abbildung von Eingabedaten auf den dazugehörigen Fahrbahnzustand gelernt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2014/127777 A2 [0008]
    • WO 2016/177371 A1 [0010, 0050]
    • WO 2015/070861 A1 [0011]

Claims (16)

  1. Verfahren zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen, umfassend die Verfahrensschritte: - Bereitstellen (S12) von Bilddaten durch ein Fahrzeugkamerasystem, welches dazu konfiguriert ist mindestens einen Ausschnitt einer Umgebung außerhalb des Fahrzeugs abzubilden, wobei der Ausschnitt zumindest teilweise die Fahrbahn, auf der das Fahrzeug fährt, enthält - Unterscheiden (S14) von diffuser Reflexion und spiegelnder Reflexion der Fahrbahn durch Bewerten von Unterschieden der Erscheinungsbilder wenigstens eines Punktes der Fahrbahn in mindestens zwei Bildern des Kamerasystems, wobei die Bilder aus unterschiedlichen Aufnahmeperspektiven aufgenommen wurden; - Ermitteln (S16), ob in mindestens einem Bild des Kamerasystems Störungen vorliegen, die dadurch hervorgerufen worden sind, dass mindestens ein Rad eines Fahrzeugs eine Fahrbahnauflage beim Überrollen aufgewirbelt hat, - Klassifizieren (S18) des Fahrbahnzustands unter Berücksichtigung der Ergebnisse bezüglich des Reflexionstyps und der Störungsintensität in eine der folgenden fünf Fahrbahnzustandsklassen: a) Trockene Fahrbahn: Reflexionstyp diffus ohne Störung b) Normal nasse Fahrbahn: Reflexionstyp spiegelnd mit Störung c) Sehr nasse Fahrbahn mit Aquaplaningrisiko: Reflexionstyp spiegelnd mit viel Störung d) Schneefahrbahn: Reflexionstyp diffus mit Störung e) Eisfahrbahn (Glatteis): Reflexionstyp spiegelnd ohne Störung.
  2. Verfahren nach Anspruch 1, wobei das Fahrzeugkamerasystem dazu konfiguriert ist, mindestens einen Teil eines Raums um ein Rad des Fahrzeugs zu erfassen und ermittelt wird, ob Störungen in mindestens einem Bereich mindestens eines Bildes vorliegen, die dadurch hervorgerufen worden sind, dass das Rad des Fahrzeugs die Fahrbahnauflage beim Überrollen aufgewirbelt hat.
  3. Verfahren nach Anspruch 2, wobei das Fahrzeugkamerasystem eine erste Seitenkamera umfasst.
  4. Verfahren nach Anspruch 3, wobei das Fahrzeugkamerasystem eine zweite Seitenkamera umfasst, die auf der gegenüberliegenden Seite der ersten Seitenkamera des Fahrzeugs angeordnet ist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Fahrzeugkamerasystem eine Fahrzeugheckkamera umfasst.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Fahrzeugkamerasystem eine Fahrzeugfrontkamera umfasst.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei Bilddaten aus unterschiedlichen einzelnen Kameras eines Fahrzeugkamerasystems mit unterschiedlichen Blickrichtungen und/oder -winkeln bereitgestellt werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei Kamerabilder in multiple unterschiedliche Regionen von besonderem Interesse unterteilt werden, die je nach Inhalt gezielt unterschiedlich zur Bewertung von Reflexionstyp und Störung genutzt werden.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei einzelne Kameras gezielt unterschiedlich zur Bewertung von Reflexionstyp und Störung genutzt werden.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Fahrzeugkamerasystem einen vor dem eigenen Fahrzeug (E) liegenden Erfassungsbereich (2, 1a) aufweist, und Bildstörungen ermittelt werden, die dadurch hervorgerufen sind, dass die Fahrbahnauflage beim Überfahren der Fahrbahn durch ein vorausfahrendes, querendes oder ein entgegenkommendes Fahrzeug aufgewirbelt wird.
  11. Verfahren nach einem der Ansprüche 1 bis 10, wobei Fahrdynamik- und/oder andere Sensordaten und/oder Umfeldinformationen anderer nicht-kamerabasierter Umfeldsensoren eines Fahrzeugs und/oder Wetterinformationen als zusätzliche Entscheidungsgrundlage für die Bewertung von Fahrbahnzuständen und die witterungsbedingten Umwelteinflüsse herangezogen werden.
  12. Verfahren nach einem der vorhergehenden Ansprüche, wobei zur Unterscheidung der Fahrbahnzustände ein maschinelles Lernsystem anhand einer Trainingsstichprobe trainiert wird, umfassend folgende Schritte: - Detektion und/oder Klassifikation des Reflexionstyps; - Detektion und/oder Regression der Störungsintensität.
  13. Verfahren nach Anspruch 12, wobei eine Abbildung von Reflexionstyp und Störungsintensität auf eine der Fahrbahnzustandsklassen mit Hilfe eines maschinellen Lernsystems anhand einer Trainingsstichprobe gelernt wird.
  14. Verfahren nach Anspruch 10 oder 11, wobei Bildmerkmale aus der mindestens einen Region aus dem mindestens einen Kamerabild extrahiert werden und mittels eines Regressors auf eine Störungsintensität oder mittels eines Klassifikators auf einen Reflexionstyp und/oder einen Fahrbahnzustand abgebildet werden.
  15. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet dass, ein Neuronales Netz trainiert wird, welches anhand einer Trainingsstichprobe eine Abbildung von einem oder mehreren Bildausschnitten aus einem oder mehreren Kamerabildern auf Fahrbahnzustände lernt.
  16. Fahrzeugkamerasystem umfassend mindestens eine Kamera und eine Bilddatenauswertungseinheit, wobei die Kamera dazu konfiguriert ist, mindestens einen Ausschnitt einer Umgebung außerhalb des Fahrzeugs abzubilden, wobei der Ausschnitt zumindest teilweise die Fahrbahn enthält, auf der das Fahrzeug fährt, und die Bilddaten der Bilddatenauswertungseinheit bereitzustellen; und die Bilddatenauswertungseinheit dazu konfiguriert ist, zwischen diffuser Reflexion und spiegelnder Reflexion der Fahrbahn zu unterscheiden durch Bewerten von Unterschieden der Erscheinungsbilder wenigstens eines Punktes der Fahrbahn in der Abfolge von mindestens zwei Bildern des Kamerasystems; zu ermitteln, ob in mindestens einem Bild des Kamerasystems Störungen vorliegen, die dadurch hervorgerufen worden sind, dass ein Rad eines Fahrzeugs eine Fahrbahnauflage beim Überrollen aufgewirbelt hat; und den Fahrbahnzustand unter Berücksichtigung der Ergebnisse aus Reflexionstyp und Störungsintensität in eine der folgenden fünf Fahrbahnzustandsklassen zu klassifizieren: a) Trockene Fahrbahn: Reflexionstyp diffus ohne Störung b) Normal nasse Fahrbahn: Reflexionstyp spiegelnd mit Störung c) Sehr nasse Fahrbahn mit Aquaplaningrisiko: Reflexionstyp spiegelnd mit viel Störung d) Schneefahrbahn: Reflexionstyp diffus mit Störung e) Eisfahrbahn (Glatteis): Reflexionstyp spiegelnd ohne Störung.
DE102018203807.4A 2018-03-13 2018-03-13 Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen Withdrawn DE102018203807A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102018203807.4A DE102018203807A1 (de) 2018-03-13 2018-03-13 Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
JP2020519331A JP7291129B2 (ja) 2018-03-13 2019-02-26 路面状態と天候に基づく環境影響を認識し評価する方法及び装置
DE112019000092.6T DE112019000092A5 (de) 2018-03-13 2019-02-26 Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
PCT/DE2019/200016 WO2019174682A1 (de) 2018-03-13 2019-02-26 Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
CN201980005798.XA CN111357012B (zh) 2018-03-13 2019-02-26 用于识别与评估车道状况和与天气相关的环境影响的方法和装置
US17/019,824 US12249153B2 (en) 2018-03-13 2020-09-14 Method and device for recognizing and evaluating roadway conditions and weather-related environmental influences

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018203807.4A DE102018203807A1 (de) 2018-03-13 2018-03-13 Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen

Publications (1)

Publication Number Publication Date
DE102018203807A1 true DE102018203807A1 (de) 2019-09-19

Family

ID=66175116

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102018203807.4A Withdrawn DE102018203807A1 (de) 2018-03-13 2018-03-13 Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
DE112019000092.6T Pending DE112019000092A5 (de) 2018-03-13 2019-02-26 Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112019000092.6T Pending DE112019000092A5 (de) 2018-03-13 2019-02-26 Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen

Country Status (5)

Country Link
US (1) US12249153B2 (de)
JP (1) JP7291129B2 (de)
CN (1) CN111357012B (de)
DE (2) DE102018203807A1 (de)
WO (1) WO2019174682A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019209268A1 (de) * 2019-06-26 2020-12-31 Continental Teves Ag & Co. Ohg Verfahren zur Bewertung eines Fahrbahnzustandes einer Fahrbahn, auf der sich ein Kraftfahrzeug bewegt, sowie Verfahren zum Reduzieren eines Gefährdungsgrades für ein sich auf einer Fahrbahn bewegendes Kraftfahrzeug in Bezug auf eine Gefahrenstelle
DE102019210935A1 (de) * 2019-07-24 2021-01-28 Zf Friedrichshafen Ag Erkennen und Bewerten einer Wasseransammlung auf einer Fahrbahn
DE102019218461A1 (de) * 2019-11-28 2021-06-02 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln einer Aquaplaninggefahr für ein Fortbewegungsmittel
DE102019135751A1 (de) * 2019-12-23 2021-06-24 Nira Dynamics Ab Verfahren, Vorrichtungen, Systeme und Computerprogrammprodukte zum Schätzeneiner Fahrbahnoberflächentemperatur
WO2021247364A1 (en) 2020-06-05 2021-12-09 Waymo Llc Road condition deep learning model
JP2022040023A (ja) * 2020-08-26 2022-03-10 ヒュンダイ・モービス・カンパニー・リミテッド ディープラーニング基盤路面判断モデルを用いたテレインモード制御方法及び装置
DE102021110184A1 (de) 2021-04-22 2022-10-27 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Computerimplementiertes Verfahren zur Abschätzung von Fahrbahneigenschaften
CN116229765A (zh) * 2023-05-06 2023-06-06 贵州鹰驾交通科技有限公司 一种基于数字数据处理的车路协同方法
DE102022211241A1 (de) 2022-10-24 2024-04-25 Continental Autonomous Mobility Germany GmbH Erkennen von Fahrbahnauflage auf einer Fahrbahn

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017214030A1 (de) * 2017-08-11 2019-02-14 Robert Bosch Gmbh Verfahren zum Bestimmen eines Reibwerts für einen Kontakt zwischen einem Reifen eines Fahrzeugs und einer Fahrbahn und Verfahren zum Steuern einer Fahrzeugfunktion eines Fahrzeugs
KR102297683B1 (ko) * 2019-07-01 2021-09-07 (주)베이다스 복수의 카메라들을 캘리브레이션하는 방법 및 장치
CN112131963B (zh) * 2020-08-31 2023-09-01 青岛秀山移动测量有限公司 一种基于行驶方向结构特征约束的道路标识线提取方法
AT524256B1 (de) * 2020-10-08 2023-06-15 Thomas Genitheim Ing Dipl Ing Fh Verfahren zur Ermittlung eines Reibbeiwertes
DE102021101788A1 (de) 2021-01-27 2022-07-28 Zf Cv Systems Global Gmbh Verfahren zum ortsaufgelösten Ermitteln einer Oberflächeneigenschaft eines Untergrundes, Verarbeitungseinheit und Fahrzeug
JP2022152402A (ja) * 2021-03-29 2022-10-12 本田技研工業株式会社 認識装置、車両システム、認識方法、およびプログラム
US12066571B2 (en) 2021-05-03 2024-08-20 Waymo Llc Methods and systems for detecting adverse road conditions using radar
JP7600971B2 (ja) * 2021-12-03 2024-12-17 トヨタ自動車株式会社 車載通知装置
KR102414233B1 (ko) * 2022-01-18 2022-06-29 (주)에스알디코리아 주행차량의 노면인지에 의한 제어 시스템 및 그 방법
US11878717B2 (en) 2022-01-24 2024-01-23 International Business Machines Corporation Mirage detection by autonomous vehicles
DE112022006314T5 (de) * 2022-03-11 2025-04-30 Hitachi Astemo, Ltd. Aussenumgebungserkennungsvorrichtung und aussenumgebungserkennungsverfahren
DE102022206625A1 (de) * 2022-06-29 2024-01-04 Continental Autonomous Mobility Germany GmbH Verfahren und System zur Straßenzustandsüberwachung durch ein maschinelles Lernsystem sowie Verfahren zum Trainieren des maschinellen Lernsystems
KR102449392B1 (ko) * 2022-07-05 2022-10-07 전해석 노면 상태에 기반한 주행 안전 확보를 위한 차량용 ecu의 최적화 및 제어 시스템 및 이를 이용한 차량용 ecu의 최적화 및 제어 방법
IT202200015960A1 (it) * 2022-07-28 2024-01-28 Fca Italy Spa Assistenza alla guida di un autoveicolo in presenza di aquaplaning
US12327413B2 (en) * 2022-10-04 2025-06-10 Nvidia Corporation Image stitching with color harmonization for surround view systems and applications
US12462447B2 (en) 2022-10-04 2025-11-04 Nvidia Corporation Image stitching with color harmonization of de-processed images for surround view systems and applications

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005044486A1 (de) * 2005-09-16 2007-03-29 Daimlerchrysler Ag Verfahren zur Detektion des Oberflächenzustandes einer Fahrbahn, sowie Detektionssystem und Fahrerassistenzsystem zur Umsetzung des Verfahrens
WO2014127777A2 (de) 2013-02-19 2014-08-28 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur bestimmung eines fahrbahnzustands
WO2015070861A1 (de) 2013-11-15 2015-05-21 Continental Teves Ag & Co. Ohg Verfahren und vorrichtung zur bestimmung eines fahrbahnzustands mittels eines fahrzeugkamerasystems
WO2016177371A1 (de) 2015-05-06 2016-11-10 Continental Teves Ag & Co. Ohg Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnreflexionen
DE102016009928A1 (de) * 2016-08-16 2017-02-02 Daimler Ag Verfahren zum Erfassen von Nässe auf einer Fahrbahn
US20180059677A1 (en) * 2016-08-24 2018-03-01 GM Global Technology Operations LLC Vision-based on-board real-time estimation of water film thickness

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602004009422T2 (de) * 2003-03-14 2008-07-24 Liwas Aps Einrichtung zur detektion eines strassenoberflächenzustands
DE10346510B4 (de) * 2003-10-02 2007-11-15 Daimlerchrysler Ag Vorrichtung zur Verbesserung der Sichtverhältnisse in einem Kraftfahrzeug
EP2181415A2 (de) * 2007-08-28 2010-05-05 Valeo Schalter und Sensoren GmbH Verfahren und anordnung zur auswertung von helligkeitswerten in sensorbildern bei bildauswertenden umfelderkennungssystemen, insbesondere hinsichtlich einer tag-/nachtunterscheidung
US8781170B2 (en) * 2011-12-06 2014-07-15 GM Global Technology Operations LLC Vehicle ghosting on full windshield display
JP6036421B2 (ja) * 2013-03-14 2016-11-30 富士通株式会社 道路管理支援方法、道路管理支援装置、及び道路管理支援プログラム
US9286520B1 (en) * 2013-07-16 2016-03-15 Google Inc. Real-time road flare detection using templates and appropriate color spaces
DE102015208428A1 (de) * 2015-05-06 2016-11-10 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Erkennung und Bewertung von Umwelteinflüssen und Fahrbahnzustandsinformationen im Fahrzeugumfeld
WO2017053415A1 (en) * 2015-09-24 2017-03-30 Quovard Management Llc Systems and methods for surface monitoring
JP2017078972A (ja) * 2015-10-20 2017-04-27 トヨタ自動車株式会社 運転支援装置
US10562412B1 (en) * 2016-03-24 2020-02-18 Xsensor Technology Corporation Intelligent seat systems

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005044486A1 (de) * 2005-09-16 2007-03-29 Daimlerchrysler Ag Verfahren zur Detektion des Oberflächenzustandes einer Fahrbahn, sowie Detektionssystem und Fahrerassistenzsystem zur Umsetzung des Verfahrens
WO2014127777A2 (de) 2013-02-19 2014-08-28 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur bestimmung eines fahrbahnzustands
WO2015070861A1 (de) 2013-11-15 2015-05-21 Continental Teves Ag & Co. Ohg Verfahren und vorrichtung zur bestimmung eines fahrbahnzustands mittels eines fahrzeugkamerasystems
WO2016177371A1 (de) 2015-05-06 2016-11-10 Continental Teves Ag & Co. Ohg Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnreflexionen
DE102016009928A1 (de) * 2016-08-16 2017-02-02 Daimler Ag Verfahren zum Erfassen von Nässe auf einer Fahrbahn
US20180059677A1 (en) * 2016-08-24 2018-03-01 GM Global Technology Operations LLC Vision-based on-board real-time estimation of water film thickness

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019209268B4 (de) 2019-06-26 2023-03-02 Continental Automotive Technologies GmbH Verfahren zur Bewertung eines Fahrbahnzustandes einer Fahrbahn, auf der sich ein Kraftfahrzeug bewegt, sowie Verfahren zum Reduzieren eines Gefährdungsgrades für ein sich auf einer Fahrbahn bewegendes Kraftfahrzeug in Bezug auf eine Gefahrenstelle
DE102019209268A1 (de) * 2019-06-26 2020-12-31 Continental Teves Ag & Co. Ohg Verfahren zur Bewertung eines Fahrbahnzustandes einer Fahrbahn, auf der sich ein Kraftfahrzeug bewegt, sowie Verfahren zum Reduzieren eines Gefährdungsgrades für ein sich auf einer Fahrbahn bewegendes Kraftfahrzeug in Bezug auf eine Gefahrenstelle
DE102019210935A1 (de) * 2019-07-24 2021-01-28 Zf Friedrichshafen Ag Erkennen und Bewerten einer Wasseransammlung auf einer Fahrbahn
DE102019218461A1 (de) * 2019-11-28 2021-06-02 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln einer Aquaplaninggefahr für ein Fortbewegungsmittel
CN114868043B (zh) * 2019-12-23 2024-05-28 尼拉动力公司 估计路面温度的方法、装置、系统和计算机程序产品
DE102019135751A1 (de) * 2019-12-23 2021-06-24 Nira Dynamics Ab Verfahren, Vorrichtungen, Systeme und Computerprogrammprodukte zum Schätzeneiner Fahrbahnoberflächentemperatur
CN114868043A (zh) * 2019-12-23 2022-08-05 尼拉动力公司 估计路面温度的方法、装置、系统和计算机程序产品
US12311952B2 (en) 2019-12-23 2025-05-27 Nira Dynamics Ab Methods, apparatuses, systems and computer program products for estimating road surface temperature
DE102019135751B4 (de) 2019-12-23 2024-11-14 Nira Dynamics Ab Verfahren, Vorrichtungen, Systeme und Computerprogrammprodukte zum Schätzen einer Fahrbahnoberflächentemperatur
US12210947B2 (en) 2020-06-05 2025-01-28 Waymo Llc Road condition deep learning model
EP4128073A4 (de) * 2020-06-05 2024-04-10 Waymo LLC Tiefenlernmodell für strassenzustand
WO2021247364A1 (en) 2020-06-05 2021-12-09 Waymo Llc Road condition deep learning model
US12511581B2 (en) 2020-06-05 2025-12-30 Waymo Llc Road condition deep learning model
JP2022040023A (ja) * 2020-08-26 2022-03-10 ヒュンダイ・モービス・カンパニー・リミテッド ディープラーニング基盤路面判断モデルを用いたテレインモード制御方法及び装置
JP7788817B2 (ja) 2020-08-26 2025-12-19 ヒュンダイ・モービス・カンパニー・リミテッド ディープラーニング基盤路面判断モデルを用いたテレインモード制御方法及び装置
DE102021110184A1 (de) 2021-04-22 2022-10-27 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Computerimplementiertes Verfahren zur Abschätzung von Fahrbahneigenschaften
DE102022211241A1 (de) 2022-10-24 2024-04-25 Continental Autonomous Mobility Germany GmbH Erkennen von Fahrbahnauflage auf einer Fahrbahn
CN116229765A (zh) * 2023-05-06 2023-06-06 贵州鹰驾交通科技有限公司 一种基于数字数据处理的车路协同方法

Also Published As

Publication number Publication date
CN111357012A (zh) 2020-06-30
WO2019174682A1 (de) 2019-09-19
US20200406897A1 (en) 2020-12-31
CN111357012B (zh) 2025-02-18
JP7291129B2 (ja) 2023-06-14
JP2021517675A (ja) 2021-07-26
DE112019000092A5 (de) 2020-06-10
US12249153B2 (en) 2025-03-11

Similar Documents

Publication Publication Date Title
DE102018203807A1 (de) Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
DE102011086512B4 (de) Nebeldetektion
DE102007043164B4 (de) Nebelerkennungsvorrichtung für Kraftfahrzeuge
DE102011088130B4 (de) Verfahren und Vorrichtung zur Erkennung einer Bremssituation
DE102013101639A1 (de) Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands
EP3292510B1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnreflexionen
DE102012112724A1 (de) Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten
DE102013223367A1 (de) Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands mittels eines Fahrzeugkamerasystems
DE102015121952A1 (de) Verfahren zum Identifizieren eines Objektes in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3183721A1 (de) Verfahren und achsenzähl-vorrichtung zur berührungslosen achsenzählung eines fahrzeugs sowie achsenzählsystem für den strassenverkehr
DE102012215322A1 (de) Verfahren und Vorrichtung zum Erkennen einer Position eines Fahrzeugs auf einer Fahrspur
EP3488607B1 (de) Kameravorrichtung zur aufnahme eines umgebungsbereichs eines eigenen fahrzeugs sowie verfahren zur bereitstellung einer fahrerassistenzfunktion
WO2016177372A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von umwelteinflüssen und fahrbahnzustandsinformationen im fahrzeugumfeld
EP3520023B1 (de) Detektion und validierung von objekten aus sequentiellen bildern einer kamera
DE102019216348A1 (de) Fahrzeugunterstützungssystem
EP3655299B1 (de) Verfahren und vorrichtung zum ermitteln eines optischen flusses anhand einer von einer kamera eines fahrzeugs aufgenommenen bildsequenz
DE102008020007A1 (de) Verfahren zum Unterstützen eines Fahrers beim Fahren mit einem Fahrzeug mit einer Fahrspurerkennung
DE102013022076A1 (de) Verfahren zum Bestimmen einer Breite eines Zielfahrzeugs mittels eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
WO2019057252A1 (de) Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
DE102023003826A1 (de) Verfahren zur Darstellung verdeckter Verkehrsteilnehmer und Fahrzeug
DE102007025147B4 (de) System zur Spurverlassenswarnung und/oder Spurhaltefunktion
DE102012221652B4 (de) Verfahren und Vorrichtung zum Bestimmen, ob in einer Verkehrssituation Linksverkehr oder Rechtsverkehr besteht
DE102013022050A1 (de) Verfahren zum Verfolgen eines Zielfahrzeugs, insbesondere eines Motorrads, mittels eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs

Legal Events

Date Code Title Description
R163 Identified publications notified
R118 Application deemed withdrawn due to claim for domestic priority