DE102010006828A1 - Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug - Google Patents
Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug Download PDFInfo
- Publication number
- DE102010006828A1 DE102010006828A1 DE102010006828A DE102010006828A DE102010006828A1 DE 102010006828 A1 DE102010006828 A1 DE 102010006828A1 DE 102010006828 A DE102010006828 A DE 102010006828A DE 102010006828 A DE102010006828 A DE 102010006828A DE 102010006828 A1 DE102010006828 A1 DE 102010006828A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- grid
- environment
- model
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000007613 environmental effect Effects 0.000 claims description 11
- 238000011156 evaluation Methods 0.000 claims description 8
- 230000002123 temporal effect Effects 0.000 claims 1
- 238000005259 measurement Methods 0.000 description 7
- 230000003068 static effect Effects 0.000 description 6
- 230000004807 localization Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241001136792 Alle Species 0.000 description 2
- 230000008094 contradictory effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
Eine Erstellung eines Modells des Umfelds eines Fahrzeugs (10) wird beschrieben. Dabei werden mit Hilfe mindestens eines Sensors (4, 9) das Umfeld des Fahrzeugs (10) erfasst, und es werden ausgehend davon entsprechende Sensordaten erzeugt. Auf Grundlage dieser Sensordaten werden automatisch mindestens zwei Umfeldmodelle (1–3) erzeugt und zu dem Modell, welches das Umfeld des Fahrzeugs (10) beschreibt, kombiniert. Die mindestens zwei Umfeldmodelle sind dabei aus einer Menge ausgewählt, welche ein objektbasiertes Umfeldmodell (1), ein gitterbasiertes Umfeldmodell (2) und ein graphenbasiertes Umfeldmodell (3) umfasst. Das objektbasierte Umfeldmodell (1) beschreibt diskrete Objekte (11) in dem Umfeld des Fahrzeugs (10). Das gitterbasierte Umfeldmodell (2) beschreibt das Umfeld mittels eines Gitters, wobei Eigenschaften des Umfelds über Gitterzellen (5) des Gitters erfasst werden. Das graphenbasierte Umfeldmodell (3) beschreibt das Umfeld mit einem Graph, bei welchem Kanten des Graphen Fahrwegen entsprechen und Knoten (12) des Graphen jeweils am Ende der Kanten (13) angeordnet sind. Attribute der Kanten (13) stellen Eigenschaften des entsprechenden Fahrwegs dar, und Attribute der Knoten (12) stellen Eigenschaften über das entsprechende Ende der Kante (13) dar.
Description
- Die vorliegende Erfindung betrifft ein Verfahren, um ein Umfeldmodell eines Fahrzeugs zu erstellen, sowie ein Fahrerassistenzsystem, welches mit diesem Umfeldmodell arbeitet. Darüber hinaus offenbart die vorliegende Erfindung ein Fahrzeug, welches das beschriebene Fahrerassistenzsystem aufweist.
- Die
DE 10 2007 012 458 A1 beschreibt ein Verfahren zur Objektbildung für eine Umfeldmodellierung. - Die
DE 102 48 401 A1 betrifft ein Verfahren zur vorausschauenden Fahrzeugsteuerung durch Verarbeitung von Informationen, die von einer Vielzahl von Sensoren und/oder Aggregaten zur Erfassung des Fahrzeugzustandes, der Fahrzeugumgebung und der Fahrzeugposition stammen. - Die
DE 10 2004 008 894 A1 beschreibt ein Unfallvermeidungssystem. - Die
DE 10 2008 061 301 A1 beschreibt eine Fahrerassistenz mit fusionierten Sensordaten. - Für den Einsatz von Fahrerassistenz- und Sicherheitsfunktionen in komplexen Umgebungen (z. B. im Stadtverkehr und bei Baustellensituationen) ist ein umfassendes Umfeldmodell eines Fahrzeugs notwendig, welches als Grundlage für eine maschinelle Situationsinterpretation dient. Nach dem Stand der Technik werden in einem Fahrzeug überwiegend objektbasierte Umfeldmodelle eingesetzt. Bei diesen objektbasierten Umfeldmodellen wird die reale Umgebung des Fahrzeugs mittels weniger relevanter Objekte beschrieben, wobei diese Objekte unter Verwendung klassischer Zustandschätzverfahren (z. B. mit einem Kalmanfilter) durch von einem oder von mehreren Sensorsystemen (z. B. Radar oder LIDAR) erfassten Messdaten und durch eine entsprechende Bildverarbeitung aktualisiert werden.
- Das objektbasierte Umfeldmodell erreicht bei nicht komplexen Umgebungen (z. B. bei einem Autobahn-Szenario) eine zufriedenstellende Güte und ermöglicht bekannte Fahrerassistenz-Applikationen, wie beispielsweise eine automatische Abstandsregelung. Die vereinfachende Objektdarstellung des objektbasierten Umfeldmodells scheitert jedoch bei komplexen Szenarien, insbesondere wenn neben den bewegten (dynamischen) Elementen der Fahrzeugumgebung auch Informationen über den statischen Randbereich des Fahrzeugs erforderlich sind, um beispielsweise eine Kollision mit einer Randbebauung einer Straße zu vermeiden. Eine Ursache für das Scheitern des objektbasierten Umfeldmodells bei komplexen Umgebungen ist die vereinfachende Objektmodellhypothese, bei welcher das jeweilige Objekt z. B. mit einem Quadermodell beschrieben wird, was nur für einen geringen Teil von real existierenden Hindernissen gültig ist.
- In
1 ist ein objektbasiertes Umfeldmodell1 dargestellt, bei welchem die Objekte11 , in diesem Fall andere Kraftfahrzeuge, mit einem Quader beschrieben oder dargestellt sind. - Im Bereich der mobilen Robotik und in letzter Zeit auch in einem Fahrzeug zum Einsatz bei Parkassistenzfunktionen hat sich ein gitterbasiertes Umfeldmodell etabliert. Bei dem gitterbasierten Umfeldmodell wird die Fahrzeugumgebung nicht durch einzelne, diskrete Objekte, sondern durch ein äquidistant oder nicht äquidistant aufgelöstes Gitter beschrieben. Ein Zustand oder Eigenschaften jeder Gitterzelle beschreiben dabei den realen Zustand des durch die jeweilige Gitterzelle beschriebenen Umgebungsausschnitts, welcher durch die Position und die Ausmaße der zugehörigen Gitterzelle definiert ist. Durch das gitterbasierte Umfeldmodell wird die Fahrzeugumgebung quasi vollständig mittels einer gitterartigen Karte dargestellt. Für die Aktualisierung der Eigenschaften der einzelnen Gitterzellen auf Basis neuer Messinformationen sind eine Reihe von Algorithmen bekannt (z. B. Bayes, Dempster-Shafer). Ein wichtiger Unterschied zum objektbasierten Umfeldmodell besteht in der Möglichkeit des gitterbasierten Umfeldmodells freie Bereiche (Bereiche ohne Hindernisse, d. h. Bereiche ohne die Fahrt des Fahrzeugs behindernde Objekte) explizit anzugeben, welche eine wichtige Grundlage für eine optimierte Trajektorienplanung oder Fahrwegplanung des Fahrzeugs im Rahmen einer Kollisionsvermeidung bilden.
- In
2 ist ein gitterbasiertes Umfeldmodell2 beispielhaft dargestellt. - Das gitterbasierte Umfeldmodell ist aufgrund seiner integrierenden Arbeitsweise insbesondere zur Darstellung statischer Umfeldmerkmale geeignet, da sich bewegende bzw. bewegte Objekte widersprüchliche Eigenschaften der entsprechenden Gitterzellen erzeugen und daher geeignet unterdrückt werden müssen.
- Unter einem sich bewegenden oder bewegten Objekt wird dabei im Rahmen der vorliegenden Erfindung ein Objekt verstanden, welches sich selbst bewegt. Ein feststehendes Objekt, welches sich nur relativ zum Fahrzeug bewegt, da sich das Fahrzeug selbst bewegt, ist demnach kein sich bewegendes Objekt.
- Im Bereich von Navigationssystemen wird darüber hinaus ein graphenbasiertes Umfeldmodell eingesetzt. Dabei wird das Straßennetz als ein Verbundnetz beschrieben, welches aus Knoten und Kanten besteht. Dabei kann es sich bei den Knoten z. B. um Positionsstützstellen und bei den Kanten um das Verbindungselement von zwei Knotenhandeln. Häufig besitzt eine Strecke eine Liste von Positionspunkten, die den Verlauf der Strecke angeben. In diesem Fall dienen die diese Positionspunkte definierenden Knoten nur als Verbindungselement der entsprechenden Kanten. Zusätzliche Attribute, wie beispielsweise Angaben über die Anzahl der Fahrspuren einer Straße oder die Breite einer Straße, verbessern einen Informationsgehalt des graphenbasierten Umfeldmodells.
- In
3 ist beispielhaft ein graphenbasiertes Umfeldmodell3 dargestellt, mit welchem, wie vorab beschrieben, ein Straßennetz über Knoten12 und Kanten13 beschrieben wird. - Mit dem graphenbasierten Umfeldmodell kann auch das aktuelle Umfeld des Fahrzeugs beschrieben werden, wenn das graphenbasierte Umfeldmodell auch sich rasch ändernde (dynamische) Information umfasst.
- Da jedes der nach dem Stand der Technik bekannten Umfeldmodelle bestimmte Nachteile aufweist, stellt sich die vorliegende Erfindung die Aufgabe, ein Umfeldmodell eines Fahrzeugs zu erstellen, welches besser als die nach dem Stand der Technik bekannten Umfeldmodelle ist.
- Erfindungsgemäß wird diese Aufgabe durch ein Verfahren zur Erstellung eines Modells des Umfelds eines Fahrzeugs nach Anspruch 1 oder Anspruch 8, durch ein Fahrerassistenzsystem für ein Fahrzeug nach Anspruch 10 und durch ein Fahrzeug nach Anspruch 12 gelöst. Die abhängigen Ansprüche definieren bevorzugte und vorteilhafte Ausführungsformen der vorliegenden Erfindung.
- Im Rahmender vorliegenden Erfindung wird ein Verfahren zur Erstellung eines Modells des Umfelds eines Fahrzeugs bereitgestellt. Dabei wird das Umfeld des Fahrzeugs mit einem oder mit mehreren Sensoren erfasst, und mittels dieses einen oder dieser mehreren Sensoren werden Sensordaten erzeugt. Abhängig von diesen Sensordaten werden automatisch mindestens zwei Umfeldmodelle erzeugt und zu dem Umfeldmodell, welches das Umfeld des Fahrzeugs beschreibt, kombiniert. Dabei sind die mindestens zwei Umfeldmodelle aus einer Menge ausgewählt, welche umfasst:
- • ein objektbasiertes Umfeldmodell,
- • ein gitterbasiertes Umfeldmodell, und
- • ein graphenbasiertes Umfeldmodell.
- Bei diesen drei Umfeldmodellen handelt es sich um die vorab beschriebenen nach dem Stand der Technik bekannten Umfeldmodelle.
- Durch die Kombination von zumindest zwei nach dem Stand der Technik bekannten Umfeldmodellen ist es vorteilhafterweise möglich, die jeweiligen Nachteile eines Umfeldmodells durch entsprechende Ergebnisse des jeweils anderen Umfeldmodells auszugleichen, so dass das kombinierte Umfeldmodell das Umfeld des Fahrzeugs besser beschreibt als das einzelne Umfeldmodell.
- Das von dem gitterbasierten Umfeldmodell eingesetzte Gitter oder Gitternetz ist dabei insbesondere zweidimensional und überspannt bzw. beschreibt diejenige Ebene, auf welcher das Fahrzeug sich bewegt. Dabei kann das Gitternetz auch gekrümmt sein, um Erhebungen und Senken zu repräsentieren. Es ist allerdings erfindungsgemäß auch möglich, dass das gitterbasierte Umfeldmodell mit einem dreidimensionalen Gitter arbeitet oder dass das Gitter mehrere Gitterebenen umfasst, welche parallel zu der Ebene angeordnet sind.
- Zur Kombination der Umfeldmodelle werden die Sensordaten insbesondere derart automatisch ausgewertet, dass sich bewegende Anteile der Sensordaten, welche von sich bewegenden Objekten erfasst werden, von denjenigen sich nicht bewegenden Anteilen der Sensordaten, welche von sich nicht bewegenden Objekten erfasst werden, unterschieden werden. Die sich bewegenden Anteile werden dabei in dem objektbasierten Umfeldmodell und die sich nicht bewegenden Anteile in dem gitterbasierten Umfeldmodell berücksichtigt.
- Dadurch wird das gitterbasierte Umfeldmodell vorteilhafterweise zur Beschreibung stationärer Objekte oder Freibereiche und das objektbasierte Umfeldmodell oder Objekt-Tracking (Verfolgung von Objekten) zur Beschreibung von sich bewegenden Objekten eingesetzt. Mit anderen Worten wird zum einen jedes Umfeldmodell (d. h. das gitterbasierte und das objektbasierte Umfeldmodell) zur Darstellung derjenigen Information verwendet, welche das jeweilige Umfeldmodell am besten repräsentieren kann, während diejenigen Sensordaten, welche nach dem Stand der Technik für das jeweilige Umfeldmodell ausgefiltert werden, dem jeweils anderen Umfeldmodell zugeordnet werden.
- Eine erfindungsgemäße Ausführungsform des gitterbasierten Umfeldmodells besteht insbesondere darin, neben der nach dem Stand der Technik bekannten Belegungswahrscheinlichkeit für einzelne Zellen weitere ortsbezogene Attribute (z. B. Konvergenzverhalten s. u.) abzulegen, die die Klassifikation von Sensordaten in dynamisch und statisch ermöglichen. Neue Sensordaten können so separiert werden in einen Anteil von potenziell sich bewegenden Objekten, die im objektbasierten Umfeldmodell verfolgt werden können und einen Anteil von potenziell statischen Objekten, die über Belegungswahrscheinlichkeiten eines Belegungsgitters repräsentiert werden können.
- Gemäß einer erfindungsgemäßen Ausführungsform wird zur Klassifikation das Konvergenzverhalten des gitterbasierten Umfeldmodells mit Belegungswahrscheinlichkeiten ausgewertet. Ausgehend von einer initialen Belegungswahrscheinlichkeit (z. B. 0,5; umfeldabhängig kann auch eine kleinere oder größere initiale Wahrscheinlichkeit gewählt werden) kann eine einzelne Gitterzelle nach dem Einbringen neuer Sensordaten unterschiedliche Konvergenzverhalten zeigen:
- • Eindeutige Konvergenz auf „frei”: Alle eingebrachten Sensordaten deuten darauf hin, dass sich in der betreffenden Gitterzelle keine Hindernisse befinden.
- • Eindeutige Konvergenz auf „belegt”: Alle eingebrachten Sensordaten deuten darauf hin, dass sich in der betreffenden Gitterzelle ein Hindernis befindet.
- • Keine Eindeutige Konvergenz/Widersprüchliche Sensorinformation: Die eingebrachten Sensordaten zeigen Widersprüche. So zeigten die Sensordaten beispielsweise zunächst hohe Belegungswahrscheinlichkeiten für eine Zelle und später geringe. Diese Information kann zur Klassifikation von sich bewegenden Objekten genutzt werden.
- Gemäß einer weiteren erfindungsgemäßen Ausführungsform werden zur Klassifikation die Daten eines geschwindigkeitsmessenden Sensors genutzt (z. B. Radar). Diese Geschwindigkeitsinformationen können ebenfalls in einem gitterbasierten Umfeldmodell hinterlegt werden, um zu kennzeichnen, in welchen Raumbereichen mit sich bewegenden Objekten gerechnet werden muss. Die Daten eines zweiten nicht-geschwindigkeitsmessenden Sensors können somit über ihre räumliche Lage in diesem gitterbasierten Umfeldmodell separiert werden in Daten von potenziell sich bewegenden oder statischen Objekten.
- Mittels der Eigenschaften Geschwindigkeit, Konvergenzverhalten und Belegungswahrscheinlichkeit bzw. Belegt-Wahrscheinlichkeit (Wahrscheinlichkeit, dass die Gitterzelle belegt ist) für jede Gitterzelle kann auch eine Aktualisierung oder Korrektur fehlerhaft interpretierter Sensordaten schneller vorgenommen werden, als es nach Stand der Technik möglich ist. Während nach dem Stand der Technik ein Wechsel der Informationen zwischen belegt und frei für dieselbe Gitterzelle in der Regel als Fehler angesehen wird, interpretiert die vorliegende Erfindung dies als eine Bewegung und weist die entsprechenden Sensordaten dem objektbasierten Umfeldmodell bzw. Objekt-Tracking zu. Sobald erfasst wird, dass sich das bewegende Objekt von der Gitterzelle entfernt hat, kann dann derselben Gitterzelle sehr rasch die korrekte Belegt-Wahrscheinlichkeit zugeordnet werden.
- Bei einer erfindungsgemäßen Variante wird ein Stereosensor (z. B. eine Stereokamera) zur Erzeugung der Sensordaten eingesetzt. Dabei wird unter einem Stereosensor ein Sensor verstanden, welcher aus zwei Sensoren besteht, welche denselben Umgebungsbereich des Fahrzeugs aus unterschiedlichen Blickwinkeln erfassen. Aus einem Abstand zwischen demselben Bildinhalt in einem Bild des ersten Sensors und in einem zur selben Zeit erfassten Bild des zweiten Sensors kann auf eine Entfernung eines durch diesen Bildinhalt dargestellten Objekts von dem Stereosensor geschlossen werden. Daher können für einzelne Bildpunkte dreidimensionale Koordinaten von dem Stereosensor bestimmt werden.
- Zusätzlich kann die Bewegung desselben Bildinhalts über die Zeit erfasst werden, indem ein Abstand zwischen einem Bildinhalt in einem Bild des ersten (oder zweiten) Sensors und demselben Bildinhalt in einem zu einer anderen Zeit erfassten Bild desselben Sensors bestimmt wird. Mit anderen Worten erfasst der Stereosensor für jeden Bildpunkt eine so genannte 6D-Information, welche neben den drei Ortkoordinaten des Bildpunkts einen dreidimensionalen Geschwindigkeitsvektor des entsprechenden Bildpunkts aufweist.
- Mit Hilfe der 6D-Information kann für die Sensordaten direkt bestimmt werden, ob sie statisch sind und damit dem gitterbasierten Umfeldmodell zuzuordnen sind, oder ob sie dynamisch sind und damit dem objektbasierten Umfeldmodell zuzuordnen sind.
- Darüber hinaus ist es anhand der 6D-Information möglich, eine Klassifikation von sich bewegenden Objekten vorzunehmen:
- • Bewegen sich die zu demselben Objekt gehörenden Bildpunkte gleichmäßig durch den Raum, handelt es sich bei diesem Objekt mit großer Wahrscheinlichkeit um ein Fahrzeug.
- • Treten bei den zu demselben Objekt gehörenden Bildpunkten differenzierte Bewegungsmuster auf, worunter auch gegenläufige Bewegungen der Bildpunkte fallen, so handelt es sich mit einiger Wahrscheinlichkeit um einen Fußgänger. Die gegenläufigen Bewegungen der Bildpunkte werden dabei von den Armen und Beinen des Fußgängers hervorgerufen.
- • Treten bei den zu demselben Objekt gehörenden Bildpunkten differenzierte Bewegungsmuster auf, welche räumlich stärker eingegrenzt sind, als für den vorab beschriebenen Fall eines Fußgängers, so handelt es sich mit einiger Wahrscheinlichkeit um einen Fahrradfahrer.
- Darüber hinaus können bezüglich des gitterbasierten Umfeldmodells unterschiedliche Sensordaten (z. B. Sensordaten von verschiedenen Sensoren) auf dem Gitter bzw. der Karte des gitterbasierten Umfeldmodells fusioniert werden.
- Dazu kann eine Prognose über eine Sichtbarkeit von Objekten bei den diesen Objekten zugeordneten Gitterzellen abgespeichert werden. Dazu wird bei denjenigen Gitterzellen, welche aufgrund von Abschattungen durch andere von dem erfindungsgemäßen Verfahren bereits erfassten Objekten nicht sichtbar sind (d. h. der entsprechende Sensor kann von diesen Gitterzelle kein Signal erfassen), eine entsprechende Information hinterlegt.
- Diese Information der Sichtbarkeit einer bestimmten Gitterzelle ist dabei sensorspezifisch, d. h. diese Information hängt von dem jeweils eingesetzten Sensor ab. Diese sensorspezifische Sichtbarkeit oder prognostizierte Detektierbarkeit kann auch derart in jeder Gitterzelle vermerkt werden, dass für die jeweilige Gitterzelle angegeben wird, ob erwartet wird, dass im nächsten Messzyklus des jeweiligen Sensors für diese Gitterzelle eine erfolgreiche Messung des Sensors bzw. ein Signal von dem Sensor erfasst wird.
- Im Folgenden wird die Erfassung der Sichtbarkeitsinformation für Gitterzellen anhand verschiedener Sensorsysteme beispielhaft erläutert.
- Optische Systeme, wie beispielsweise Kameras, können Objekte, welche auf der Sichtachse hinter anderen Objekten liegen, nicht wahrnehmen. Mit anderen Worten erhalten Gitterzellen, welche auf der am optischen System beginnenden Sichtachse hinter einem bereits, erfassten Objekt liegen, eine prognostizierte Detektierbarkeit oder Sichtbarkeit vom Wert 0.
- Dagegen können Radarsysteme Fahrzeuge, welche sich hinter anderen Fahrzeugen befinden, durchaus wahrnehmen, so dass in diesem Fall die Sichtbarkeit von Gitterzellen, welche auf der Sichtsachse hinter bereits erfassten Fahrzeugen liegen, den Wert 1 erhält. Allerdings können Radarsysteme Fußgänger, welche sich in unmittelbarer Nähe eines sie überragenden Fahrzeugs, beispielsweise eines LKWs, befinden, meist nicht wahrnehmen, so dass die Sichtbarkeit von Gitterzellen, welche sich in unmittelbarer Nähe von solchen bereits als Fahrzeug erfassten Objekten befinden, den Wert 0,1 erhält, was bedeutet, dass mit einer Wahrscheinlichkeit von 10% im nächsten Messzyklus von dem Radarsystem ein Signal bezüglich dieser Gitterzellen erwartet wird.
- Mit einem solchen Sichtbarkeits-Attribut pro Gitterzelle können Aussagen über eine Existenz von Objekten mit einer größeren Sicherheit vorgenommen werden, was zu einer deutlichen Verbesserung der Objekterkennungsmöglichkeiten des zu erstellenden Umfeldmodells des Fahrzeugs führt. Eine solche Information über die Sichtbarkeit wird beispielsweise verwendet, damit eine als abgeschattet markierte Gitterzelle nicht nur deshalb als frei gekennzeichnet wird, da aktuell kein Signal von ihr erfasst wird.
- Gemäß einer weiteren erfindungsgemäßen Ausführungsform werden die Sensordaten abhängig von Informationen des graphenbasierten Umfeldmodells automatisch bewertet.
- Wenn das objektbasierte und/oder das gitterbasierte Umfeldmodell in einem ortsfesten Koordinatensystem (z. B. in Form von GPS-Daten) vorliegen/t und der Zusammenhang zum Koordinatensystem des graphenbasierten Umfeldmodells bekannt ist, so kann das graphenbasierte Umfeldmodell vorteilhafterweise zur Auswertung der für das objektbasierte und/oder das gitterbasierte Umfeldmodell erfassten Sensordaten ausgewertet werden.
- Der attributierte Graph des graphenbasierten Umfeldmodells umfasst dabei Fahrbahnen und Kreuzungen des Straßennetzes, auf welchen sich das Fahrzeug aktuell befindet. Die Basis dieses Graphen bilden dabei Daten aus einer Navigationsdatenbank. Dieses a priori Wissen wird zur Laufzeit mit den Sensordaten kombiniert und daraus gewonnene Informationen in dem attributierten Graphen abgelegt. Objekt- und Fahrstreifeninformationen aus der daraus resultierenden Objektfusion werden dazu mit weiteren in dem attributierten Graphen enthaltenen Informationen assoziiert. Darüber hinaus werden im Umfeld Informationen, wie beispielsweise Informationen über eine Befahrbarkeit oder eine Randbebauung einer Straße, aus den Sensordaten abstrahiert und ebenfalls mit dem vorhandenen Wissen in dem attributierten Graphen assoziiert. Das graphenbasierte Umfeldmodell ist somit Teil einer funktionsunabhängigen Situationsinterpretation. Es bietet darauf aufbauenden Funktionen ein Umfeldmodell mit einem relativ hohen Abstraktionsniveau aus dem akkumulierten Wissen aller vorhandenen Informationsquellen.
- Im Rahmen der vorliegenden Erfindung wird auch ein weiteres Verfahren zur Erstellung eines Modells des Umfelds eines Fahrzeugs bereitgestellt. Dabei werden mittels mehrerer Sensoren das Umfeld des Fahrzeugs erfasst und entsprechende Sensordaten erzeugt. Ausgehend von diesen Sensordaten wird ein gitterbasiertes Umfeldmodell als das Modell des Umfelds des Fahrzeugs erstellt. Die Sensordaten der unterschiedlichen Sensoren werden dabei kombiniert. Mittels der kombinierten Sensordaten werden Bildpunkte lokalisiert. Beispielsweise können die Sensordaten einer Stereokamera mit den Sensordaten eines Laserscanners kombiniert werden. Dadurch werden die recht genauen Auflösungen der Sensordaten der Stereokamera hinsichtlich der lateralen Position der einzelnen Bildpunkte mit den recht genauen Auflösungen der Sensordaten des Laserscanners hinsichtlich der longitudinalen Position kombiniert.
- Durch die Kombination der Sensordaten kann die Lokalisierung der Bildpunkte genauer durch geführt werden, als es anhand der Sensordaten nur eines Sensors möglich ist. Beispielsweise ist die Lokalisierung der Bildpunkte bei einer Kombination der Sensordaten der Stereokamera und des Laserscanners wesentlich genauer, als die Lokalisierung der Bildpunkte für den Fall wäre, wenn nur die Sensordaten der Stereokamera oder nur die Sensordaten des Laserscanners zur Lokalisierung der Bildpunkte verwendet werden könnten. Dadurch können die kombinierten Sensordaten sehr genau der korrekten Gitterzelle des gitterbasierten Umfeldmodells zugewiesen werden.
- Diese erfinderische Idee, die Sensordaten eines Sensors, welcher hinsichtlich der lateralen Position der Bildpunkte eine höhere Genauigkeit aufweist als hinsichtlich der longitudinalen Position, mit den Sensordaten eines Sensors zu kombinieren, welcher hinsichtlich der longitudinalen Position der Bildpunkte eine höhere Genauigkeit aufweist als hinsichtlich der lateralen Position, ist dabei unabhängig von der eigentlichen Erfindung mehrere Umfeldmodelle zu kombinieren. Mit anderen Worten kann diese erfinderische Idee für sich allein eingesetzt werden, um nur das gitterbasierte Umfeldmodell hinsichtlich der Genauigkeit einer Lokalisierung von Bildpunkten zu verbessern. Natürlich ist es auch möglich, dass vorab beschriebene weitere erfindungsgemäße Verfahren im Rahmen des zuerst beschriebenen erfindungsgemäßen Verfahrens einzusetzen.
- Im Rahmen der vorliegenden Erfindung wird auch ein Fahrerassistenzsystem für ein Fahrzeug bereitgestellt. Dabei umfasst das Fahrerassistenzsystem einen oder mehrere Sensoren, Auswertemittel und eine von den Auswertemitteln gesteuerte Vorrichtung zum Eingriff in einen Betrieb des Fahrzeugs. Mit Hilfe des einen oder der mehreren Sensoren erfasst das Fahrerassistenzsystem das Umfeld des Fahrzeugs und erzeugt entsprechende Sensordaten. Auf Grundlage der Sensordaten werden mindestens zwei der vorab beschriebenen Umfeldmodelle erzeugt und zu dem Modell, welches das Umfeld des Fahrzeugs beschreibt, kombiniert.
- Die Vorteile des erfindungsgemäßen Fahrerassistenzsystems entsprechen im Wesentlichen den Vorteilen des erfindungsgemäßen Verfahrens, welche vorab im Detail ausgeführt worden sind, so dass hier auf eine Wiederholung verzichtet wird.
- Schließlich wird im Rahmen der vorliegenden Erfindung ein Fahrzeug mit einem erfindungsgemäßen Fahrerassistenzsystem beschrieben.
- Die vorliegende Erfindung ist insbesondere für den Einsatz bei Fahrerassistenzsystemen für ein Fahrzeug geeignet. Selbstverständlich ist die vorliegende Erfindung nicht auf diesen bevorzugten Anwendungsbereich beschränkt, da die vorliegende Erfindung auch zur Erstellung von Umfeldmodellen außerhalb des Fahrzeugbereichs sowie bei Schiffen, Flugzeugen und gleisgebundenen Fahrzeugen eingesetzt werden kann.
- Im Folgenden wird die vorliegende Erfindung anhand bevorzugter erfindungsgemäßer Ausführungsformen im Detail mit Bezug zu den Figuren beschrieben.
-
1 stellt beispielhaft ein objektbasiertes Umfeldmodell dar. -
2 stellt beispielhaft ein gitterbasiertes Umfeldmodell dar. -
3 stellt beispielhaft ein graphenbasiertes Umfeldmodell dar. - In
4 ist die Kombination der in1 bis3 dargestellten Umfeldmodelle schematisch dargestellt. - In
5 sind von einer Stereokamera erfasste Daten in einem gitterbasierten Modell dargestellt. - In
6 sind von einem Laserscanner erfasste Daten in einem gitterbasierten Modell dargestellt. - In
7 sind die von einer Stereokamera und die von einem Laserscanner erfassten Daten fusioniert in einem gitterbasierten Modell dargestellt. -
8 stellt schematisch ein erfindungsgemäßes Fahrzeug mit einem erfindungsgemäßen Fahrerassistenzsystem dar. - In
4 wird eine erfindungsgemäße Kombination eines gitterbasierten Umfeldmodells2 , eines objektbasierten Umfeldmodells1 und eines graphenbasierten Umfeldmodells3 zu einem gemeinsamen Umfeldmodell14 , welches eine funktionsunabhängige Situationsinterpretation ermöglicht, dargestellt. Dazu werden Sensordaten, welche mittels einer Sensorik4 ,9 , die Objekte ableiten und dreidimensionale Informationen erstellen kann, einer Klassifikation15 zugeführt welche zu sich bewegenden Objekten gehörende Sensordaten von sich nicht zu bewegenden Objekten gehörenden Sensordaten unterscheidet. Abhängig von dieser Bewegungsklassifikation15 , welche auch mit bereits in dem gitterbasierten Umfeldmodell2 enthaltenen Informationen arbeitet, werden von den Sensordaten abgeleitete Informationen dem gitterbasierten Umfeldmodell2 oder dem objektbasierten Umfeldmodell1 zugeführt. - Darüber hinaus werden zur Erstellung des kombinierten Umfeldmodells
14 auch Informationen des attributierten Graphen des graphenbasierten Umfeldmodells3 verwendet. Ein a priori Wissen des graphenbasierten Umfeldmodells3 stammt dabei aus Navigationskarten16 und Informationen von anderen Verkehrsteilnehmern oder Verkehrsinfrastrukturobjekten17 . - In
5 ist das gitterbasierte Umfeldmodell2 für ein Objekt11 dargestellt, wobei das Umfeldmodell2 anhand von Sensordaten eines Stereokamera-Systems4 erstellt worden ist. Da die Messgenauigkeit für ein Stereokamera-System4 mit der Entfernung abnimmt, ist die Auflösung der longitudinalen Position bzw. Richtung des Objekts11 nicht so genau wie die laterale Position bzw. Richtung, wie es in5b dargestellt ist. - In
6 ist das gitterbasierte Umfeldmodell2 für dasselbe Objekt11 dargestellt, wobei diesmal das Umfeldmodell2 anhand von Sensordaten eines Laserscanners9 erstellt worden ist. Ein Laserscanner9 bietet aufgrund seines Messprinzips eine gute Auflösung (oder Genauigkeit) bezüglich der longitudinalen Position, aber eine weniger genaue Auflösung bezüglich der lateralen Position, wie es in6b dargestellt ist. - In
7 ist das gitterbasierte Umfeldmodell2 für das Objekt11 dargestellt, wobei das Umfeldmodell2 durch eine Fusion oder Kombination der von der Stereokamera4 und dem Laserscanner9 erfassten Informationen abgeleitet ist, wodurch eine genauere Lokalisierung des Objektes11 auf dem Gitternetz bzw. Gitter des gitterbasierten Umfeldmodells2 erreicht wird. Diese Fusion der von der Stereokamera4 und dem Laserscanner9 erfassten Informationen erfolgt dabei insbesondere durch ein anpassendes Korrelationsverfahren (z. B. durch Faltung oder Addition). - In
8 ist ein erfindungsgemäßes Fahrzeug10 mit einem erfindungsgemäßen Fahrerassistenzsystem6 dargestellt. Dabei umfasst das Fahrerassistenzsystem6 einen Sensor4 , Auswertemittel7 und eine Vorrichtung8 zum Eingriff in den Betrieb des Fahrzeugs10 . - ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102007012458 A1 [0002]
- DE 10248401 A1 [0003]
- DE 102004008894 A1 [0004]
- DE 102008061301 A1 [0005]
Claims (12)
- Verfahren zur Erstellung eines Modells des Umfelds eines Fahrzeugs (
10 ), wobei mit Hilfe mindestens eines Sensors (4 ,9 ) das Umfeld des Fahrzeugs (10 ) erfasst wird und entsprechende Sensordaten erzeugt werden, und wobei automatisch auf Grundlage der Sensordaten mindestens zwei Umfeldmodelle (1 –3 ) erzeugt und zu dem Modell, welches das Umfeld des Fahrzeugs (10 ) beschreibt, kombiniert werden, wobei die mindestens zwei Umfeldmodelle ausgewählt sind aus einer Menge umfassend ein objektbasiertes Umfeldmodell (1 ), ein gitterbasiertes Umfeldmodell (2 ) und ein graphenbasiertes Umfeldmodell (3 ), wobei das objektbasierte Umfeldmodell (1 ) diskrete Objekte (11 ) in dem Umfeld des Fahrzeugs (10 ) beschreibt, wobei das gitterbasierte Umfeldmodell (2 ) das Umfeld mittels eines Gitters beschreibt, wobei Eigenschaften des Umfelds über Gitterzellen (5 ) des Gitters erfasst werden, und wobei das graphenbasierte Umfeldmodell (3 ) das Umfeld mit einem Graph beschreibt, bei welchem Kanten (13 ) des Graphen Fahrwegen entsprechen und Knoten (12 ) des Graphen jeweils am Ende der Kanten (13 ) angeordnet sind, wobei Attribute der Kanten (13 ) Eigenschaften des entsprechenden Fahrwegs darstellen und wobei Attribute der Knoten (12 ) Eigenschaften über das entsprechende Ende der Kante (13 ) darstellen. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Sensordaten derart automatisch ausgewertet werden, dass sich bewegende Anteile der Sensordaten von sich nicht bewegenden Anteilen der Sensordaten unterschieden werden, dass die sich bewegenden Anteile in dem objektbasierten Umfeldmodell (
1 ) berücksichtigt werden, und dass die sich nicht bewegenden Anteile in dem gitterbasierten Umfeldmodell (2 ) berücksichtigt werden. - Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der mindestens eine Sensor (
4 ,9 ) einen eine Geschwindigkeit bestimmenden Sensor und einen weiteren Sensor umfasst, dass für die Gitterzellen (5 ) des gitterbasierten Modells (2 ) mittels des eine Geschwindigkeit erfassenden Sensors eine Geschwindigkeit bestimmt wird, dass Anteile der Sensordaten des weiteren Sensors, welche bezüglich Gitterzellen (5 ) erfasst worden sind, für die eine Geschwindigkeit oberhalb eines Schwellenwerts bestimmt worden ist, in dem objektbasierten Umfeldmodell (1 ) berücksichtigt werden, und dass die restlichen Anteile der Sensordaten desweiteren Sensors von dem gitterbasierten Umfeldmodell (2 ) berücksichtigt werden. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass abhängig von den Sensordaten Belegungswahrscheinlichkeiten für die Gitterzellen (
5 ) über mehrere Zeitpunkte bestimmt werden, so dass pro Zeitpunkt jeweils eine Belegungswahrscheinlichkeit abhängig von den für die jeweilige Gitterzelle (5 ) zu diesem Zeitpunkt bestimmten Sensordaten für die jeweilige Gitterzelle (5 ) bestimmt wird, dass auf ein sich bewegendes Objekt bezüglich einender Gitterzellen (5 ) geschlossen wird, • wenn für diese Gitterzelle zum einen eine erste Häufigkeit, mit welcher die Belegungswahrscheinlichkeiten dieser Gitterzelle (5 ) jeweils über einem Schwellenwert liegen, größer als ein erster weiterer Schwellenwert ist, und • wenn für diese Gitterzelle zum anderen eine zweite Häufigkeit, mit welcher die Belegungswahrscheinlichkeiten dieser Gitterzelle (5 ) jeweils unter dem Schwellenwert liegen, größer als ein zweiter weiterer Schwellenwert ist. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der mindestens eine Sensor (
4 ,9 ) einen Stereosensor umfasst, dass durch eine Auswertung von mehreren von dem Stereosensor mit einem zeitlichen Abstand erfassten Bildern des Umfelds pro Bildpunkt Ortkoordinaten des jeweiligen Bildpunkts und ein dreidimensionaler Geschwindigkeitsvektor des jeweiligen Bildpunkts abhängig von dem zeitlichen Abstand bestimmt werden, und dass abhängig von dem Geschwindigkeitsvektor pro Bildpunkt pro Gitterzelle (5 ) bestimmt wird, ob ein diese Gitterzelle (5 ) betreffender Anteil der Sensordaten in dem objektbasierten Umfeldmodell (1 ) oder in dem gitterbasierten Umfeldmodell (2 ) berücksichtigt wird. - Verfahren nach einem der Ansprüche 2–5, dadurch gekennzeichnet, dass bei einer Auswertung der Sensordaten eine sensorspezifische Sichtbarkeit der Gitterzellen (
5 ) berücksichtigt wird, dass die sensorspezifische Sichtbarkeit für den jeweiligen des mindestens einen Sensors (4 ;9 ) abhängig von bereits in dem Modell des Umfelds berücksichtigten Informationen bestimmt, welche Gitterzellen (5 ) für den jeweiligen Sensor (4 ;9 ) sichtbar sind. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine automatische Analyse der Sensordaten in Abhängigkeit von Informationen des graphenbasierten Umfeldmodells (
3 ) durchgeführt wird. - Verfahren zur Erstellung eines Modells des Umfelds eines Fahrzeugs (
10 ), wobei mit Hilfe mehrerer Sensoren (4 ,9 ) das Umfeld des Fahrzeugs (10 ) erfasst wird und entsprechende Sensordaten erzeugt werden, und wobei automatisch auf Grundlage der Sensordaten ein gitterbasiertes Umfeldmodell (2 ) als das Modell des Umfelds des Fahrzeugs (10 ) erstellt wird, wobei das gitterbasierte Umfeldmodell (2 ) das Umfeld mittels eines Gitters beschreibt, wobei Eigenschaften des Umfelds über Gitterzellen (5 ) des Gitters erfasst werden, dadurch gekennzeichnet, dass die Sensoren einen ersten Sensor (4 ) und einen zweiten Sensor (9 ) umfassen, dass der erste Sensor (4 ) die von ihm erzeugten Sensordaten mit einer besseren Auflösung in der lateralen Richtung erzeugt als der zweite Sensor (9 ), dass der zweite Sensor (9 ) die von ihm erzeugten Sensordaten mit einer besseren Auflösung in der longitudinalen Richtung erzeugt als der erste Sensor (4 ), und dass die Sensordaten des ersten Sensors (4 ) und des zweiten Sensors (9 ) automatisch miteinander kombiniert werden, um auf Grundlage der kombinierten Sensordaten eine Lokalisierung von Anteilen dieser Sensordaten in dem Gitter des gitterbasierten Umfeldmodells (2 ) durchzuführen. - Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der erste Sensor eine Kamera (
4 ) und dass der zweite Sensor einen Laserscanner (9 ) umfasst. - Fahrerassistenzsystem für ein Fahrzeug (
10 ), wobei das Fahrerassistenzsystem (6 ) mindestens einen Sensor (4 ,9 ), Auswertemittel (7 ) und eine von den Auswertemitteln (7 ) gesteuerte Vorrichtung (8 ) zum Eingriff in einen Betrieb des Fahrzeugs (10 ) umfasst, wobei das Fahrerassistenzsystem (6 ) derart ausgestaltet ist, dass das Fahrerassistenzsystem (6 ) mit Hilfe des mindestens einen Sensors (4 ,9 ) das Umfeld des Fahrzeugs (10 ) erfasst, entsprechende Sensordaten erzeugt, auf Grundlage der Sensordaten mindestens zwei Umfeldmodelle (1 –3 ) erzeugt und zu dem Modell, welches das Umfeld des Fahrzeugs (10 ) beschreibt, kombiniert, wobei die mindestens zwei Umfeldmodelle ausgewählt sind aus einer Menge umfassend ein objektbasiertes Umfeldmodells (1 ), ein gitterbasiertes Umfeldmodell (2 ) und ein graphenbasiertes Umfeldmodells (3 ), wobei das objektbasierte Umfeldmodell (1 ) diskrete Objekte (11 ) in dem Umfeld des Fahrzeugs (10 ) beschreibt, wobei das gitterbasierte Umfeldmodell (2 ) das Umfeld mittels eines Gitters beschreibt, wobei Eigenschaften des Umfelds über Gitterzellen (5 ) des Gitters erfasst werden, und wobei das graphenbasierte Umfeldmodell (3 ) das Umfeld mit einem Graph beschreibt, bei welchem Kanten (13 ) des Graphen Fahrwegen entsprechen und Knoten (12 ) des Graphen jeweils am Ende der Kanten (13 ) angeordnet sind, wobei Attribute der Kanten (13 ) Eigenschaften des entsprechenden Fahrwegs darstellen und wobei Attribute der Knoten (12 ) Eigenschaften über das entsprechende Ende der Kante (13 ) darstellen. - Fahrerassistenzsystem nach Anspruch 10, dadurch gekennzeichnet, dass das Fahrerassistenzsystem (
6 ) zur Durchführung des Verfahrens nach einem der Ansprüche 1–9 ausgestaltet ist. - Fahrzeug mit einem Fahrerassistenzsystem (
6 ) nach Anspruch 10 oder 11.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102010006828.4A DE102010006828B4 (de) | 2010-02-03 | 2010-02-03 | Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102010006828.4A DE102010006828B4 (de) | 2010-02-03 | 2010-02-03 | Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE102010006828A1 true DE102010006828A1 (de) | 2011-08-04 |
| DE102010006828B4 DE102010006828B4 (de) | 2021-07-08 |
Family
ID=44316119
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102010006828.4A Active DE102010006828B4 (de) | 2010-02-03 | 2010-02-03 | Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102010006828B4 (de) |
Cited By (36)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102011116169A1 (de) * | 2011-10-14 | 2013-04-18 | Continental Teves Ag & Co. Ohg | Vorrichtung zur Unterstützung eines Fahrers beim Fahren eines Fahrzeugs oder zum autonomen Fahren eines Fahrzeugs |
| WO2013060323A1 (de) * | 2011-10-28 | 2013-05-02 | Conti Temic Microelectronic Gmbh | Gitterbasiertes umfeldmodell für ein fahrzeug |
| DE102011086404A1 (de) * | 2011-11-15 | 2013-05-16 | Robert Bosch Gmbh | Anfahrfreigabe |
| DE102012105332A1 (de) * | 2012-06-19 | 2013-12-19 | Continental Teves Ag & Co. Ohg | Verfahren zur Darstellung einer Fahrzeugumgebung |
| DE102012106932A1 (de) * | 2012-07-30 | 2014-05-15 | Continental Teves Ag & Co. Ohg | Verfahren zur Darstellung einer Fahrzeugumgebung mit Positionspunkten |
| DE102013104257A1 (de) * | 2013-04-26 | 2014-10-30 | Continental Teves Ag & Co. Ohg | Gitterbasiertes Umfeldmodell für ein Fahrzeug |
| DE102013008828A1 (de) | 2013-05-24 | 2014-11-27 | Volkswagen Aktiengesellschaft | Verfahren zur Erstellung eines Modells eines Umfelds eines Fahrzeugs sowie entsprechend ausgestaltetes Fahrerassistenzsystem |
| FR3005923A1 (fr) * | 2013-05-27 | 2014-11-28 | Bosch Gmbh Robert | Procede pour assister un conducteur et appareil de commande pour sa mise en oeuvre |
| WO2015014707A1 (de) * | 2013-08-01 | 2015-02-05 | Bayerische Motoren Werke Aktiengesellschaft | Bereitstellen eines umfeldmodells beim ausfall eines sensors eines fahrzeugs |
| DE102013018315A1 (de) | 2013-10-31 | 2015-04-30 | Bayerische Motoren Werke Aktiengesellschaft | Umfeldmodell mit adaptivem Gitter |
| DE102014208967A1 (de) * | 2014-05-13 | 2015-11-19 | Bayerische Motoren Werke Aktiengesellschaft | Umfeldkarte für Fahrflächen mit beliebigem Höhenverlauf |
| DE102014216008A1 (de) * | 2014-08-13 | 2016-02-18 | Conti Temic Microelectronic Gmbh | Steuervorrichtung, Serversystem und Fahrzeug |
| EP2765048A4 (de) * | 2011-10-03 | 2016-03-09 | Toyota Motor Co Ltd | Fahrhilfesystem für ein fahrzeug |
| DE102015200748A1 (de) * | 2015-01-20 | 2016-07-21 | Volkswagen Aktiengesellschaft | Kraftfahrzeug mit wenigstens einem Fahrerassistenzsystem zur Unterstützung einer Nachtfahrt |
| WO2016124189A1 (de) * | 2015-02-02 | 2016-08-11 | Conti Temic Microelectronic Gmbh | Sensorsystem für ein fahrzeug und verfahren |
| DE102015221481A1 (de) * | 2015-11-03 | 2017-05-04 | Continental Teves Ag & Co. Ohg | Vorrichtung zur Umfeldmodellierung für ein Fahrerassistenzsystem für ein Kraftfahrzeug |
| DE102016206631A1 (de) * | 2016-04-20 | 2017-10-26 | Continental Automotive Gmbh | Vorrichtung zur Datenfusion von Messdaten für eine Generierung eines räumlichen Belegungsrasters für ein Kraftfahrzeug |
| US9896092B2 (en) | 2012-04-26 | 2018-02-20 | Continental Teves Ag & Co. Ohg | Method for representing vehicle surroundings |
| WO2018075895A1 (en) * | 2016-10-21 | 2018-04-26 | Waymo Llc | Radar generated occupancy grid for autonomous vehicle perception and planning |
| CN108216249A (zh) * | 2016-12-21 | 2018-06-29 | 罗伯特·博世有限公司 | 用于车辆的周围环境检测的系统和方法 |
| US10198951B2 (en) | 2013-08-01 | 2019-02-05 | Bayerische Motoren Werke Aktiengesellschaft | Models of the surroundings for vehicles |
| EP3454084A1 (de) * | 2017-09-08 | 2019-03-13 | Valeo Schalter und Sensoren GmbH | Verfahren zum betreiben eines fahrerassistenzsystems für ein kraftfahrzeug unter verwendung einer vektorbasierten und einer gitterbasierten umgebungskarte sowie fahrerassistenzsystem |
| DE102017122440A1 (de) * | 2017-09-27 | 2019-03-28 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Lokalisieren und Weiterbilden einer digitalen Karte durch ein Kraftfahrzeug; Lokalisierungseinrichtung |
| DE102018203583A1 (de) * | 2018-03-09 | 2019-09-12 | Audi Ag | Verfahren, Fahrerassistenzsystem sowie Kraftfahrzeug zur Prädiktion einer Position oder einer Trajektorie mittels eines graphbasierten Umgebungsmodells |
| DE102018118215A1 (de) * | 2018-07-27 | 2020-01-30 | Man Truck & Bus Se | Verfahren zur Aktualisierung einer Umgebungskarte, Vorrichtung für die fahrzeugseitige Durchführung von Verfahrensschritten des Verfahrens, Fahrzeug, Vorrichtung für die zentralrechnerseitige Durchführung von Verfahrensschritten des Verfahrens sowie computerlesbares Speichermedium |
| DE102019205008B3 (de) | 2019-04-08 | 2020-07-02 | Zf Friedrichshafen Ag | System zur Rückwärtigen Kollisionsvermeidung |
| CN111382768A (zh) * | 2018-12-29 | 2020-07-07 | 华为技术有限公司 | 多传感器数据融合方法和装置 |
| DE102020109789A1 (de) | 2020-04-08 | 2021-10-14 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Durchführen einer Selbstlokalisierung eines Fahrzeugs auf der Grundlage einer reduzierten digitalen Umgebungskarte, Computerprogrammprodukt sowie ein Selbstlokalisierungssystem |
| DE102020119954A1 (de) | 2020-07-29 | 2022-02-03 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Erzeugen einer Belegungsgitterkarte für zumindest ein statisches Objekt, Computerprogrammprodukt, computerlesbares Speichermedium sowie Assistenzsystem |
| DE102020211649A1 (de) | 2020-09-17 | 2022-03-17 | Conti Temic Microelectronic Gmbh | Verfahren und System zum Erstellen eines Straßenmodells |
| DE102020211722A1 (de) | 2020-09-18 | 2022-03-24 | Continental Automotive Gmbh | Verfahren und System zur verbesserten Fahrerassistenz |
| US11333520B2 (en) | 2019-06-12 | 2022-05-17 | International Business Machines Corporation | Visually guiding a vehicle |
| DE102015209857B4 (de) | 2014-05-30 | 2022-12-22 | Hl Klemove Corp. | Autonomes Notbremssystem und Verfahren zum Erkennen von Fußgängern in diesem |
| DE102021214767A1 (de) | 2021-12-21 | 2023-06-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Erstellen einer digitalen Karte |
| DE102023201580A1 (de) * | 2023-02-22 | 2024-08-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Verhaltensplanung eines Ego-Fahrzeugs als Teil einer Verkehrsszene |
| DE102023109042A1 (de) * | 2023-04-11 | 2024-10-17 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Fahrassistenzeinrichtung für eine belegungsgitterbasierte prädiktive Unterstützung einer automatischen Fahrzeugsteuerung und entsprechend eingerichtetes Kraftfahrzeug |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE10248401A1 (de) | 2002-10-17 | 2004-04-29 | Zf Friedrichshafen Ag | Verfahren zur vorausschauenden Fahrzeugsteuerung |
| DE102004008894A1 (de) | 2004-02-24 | 2005-09-08 | Robert Bosch Gmbh | Sicherheitssystem für ein Fortbewegungsmittel sowie hierauf bezogenes Verfahren |
| US20060125680A1 (en) * | 2004-12-15 | 2006-06-15 | Thackray Robert G | Method and system for detecting an object using a composite evidence grid |
| DE102007012458A1 (de) | 2007-03-15 | 2008-09-18 | Robert Bosch Gmbh | Verfahren zur Objektbildung |
| DE102007013023A1 (de) * | 2007-03-19 | 2008-09-25 | Ibeo Automobile Sensor Gmbh | Probabilistische Rasterkarte |
| DE102008061301A1 (de) | 2007-12-11 | 2009-06-18 | Continental Teves Ag & Co. Ohg | Fahrerassistenz mit fusionierten Sensordaten |
| DE102009006113A1 (de) * | 2008-03-03 | 2009-09-10 | Volkswagen Ag | Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten |
-
2010
- 2010-02-03 DE DE102010006828.4A patent/DE102010006828B4/de active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE10248401A1 (de) | 2002-10-17 | 2004-04-29 | Zf Friedrichshafen Ag | Verfahren zur vorausschauenden Fahrzeugsteuerung |
| DE102004008894A1 (de) | 2004-02-24 | 2005-09-08 | Robert Bosch Gmbh | Sicherheitssystem für ein Fortbewegungsmittel sowie hierauf bezogenes Verfahren |
| US20060125680A1 (en) * | 2004-12-15 | 2006-06-15 | Thackray Robert G | Method and system for detecting an object using a composite evidence grid |
| DE102007012458A1 (de) | 2007-03-15 | 2008-09-18 | Robert Bosch Gmbh | Verfahren zur Objektbildung |
| DE102007013023A1 (de) * | 2007-03-19 | 2008-09-25 | Ibeo Automobile Sensor Gmbh | Probabilistische Rasterkarte |
| DE102008061301A1 (de) | 2007-12-11 | 2009-06-18 | Continental Teves Ag & Co. Ohg | Fahrerassistenz mit fusionierten Sensordaten |
| DE102009006113A1 (de) * | 2008-03-03 | 2009-09-10 | Volkswagen Ag | Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten |
Cited By (51)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2765048A4 (de) * | 2011-10-03 | 2016-03-09 | Toyota Motor Co Ltd | Fahrhilfesystem für ein fahrzeug |
| DE102011116169A1 (de) * | 2011-10-14 | 2013-04-18 | Continental Teves Ag & Co. Ohg | Vorrichtung zur Unterstützung eines Fahrers beim Fahren eines Fahrzeugs oder zum autonomen Fahren eines Fahrzeugs |
| WO2013060323A1 (de) * | 2011-10-28 | 2013-05-02 | Conti Temic Microelectronic Gmbh | Gitterbasiertes umfeldmodell für ein fahrzeug |
| DE112012003549B4 (de) | 2011-10-28 | 2025-01-23 | Continental Autonomous Mobility Germany GmbH | Gitterbasiertes Umfeldmodell für ein Fahrzeug |
| DE102011086404A1 (de) * | 2011-11-15 | 2013-05-16 | Robert Bosch Gmbh | Anfahrfreigabe |
| US9896092B2 (en) | 2012-04-26 | 2018-02-20 | Continental Teves Ag & Co. Ohg | Method for representing vehicle surroundings |
| US9607229B2 (en) | 2012-06-19 | 2017-03-28 | Conti Temic Microelectronic Gmbh | Method for representing the surroundings of a vehicle |
| DE102012105332A1 (de) * | 2012-06-19 | 2013-12-19 | Continental Teves Ag & Co. Ohg | Verfahren zur Darstellung einer Fahrzeugumgebung |
| WO2013189482A1 (de) * | 2012-06-19 | 2013-12-27 | Conti Temic Microelectronic Gmbh | Verfahren zur darstellung einer fahrzeugumgebung |
| US9829575B2 (en) | 2012-07-30 | 2017-11-28 | Conti Temic Microelectronic Gmbh | Method for representing a vehicle environment with position points |
| DE102012106932A1 (de) * | 2012-07-30 | 2014-05-15 | Continental Teves Ag & Co. Ohg | Verfahren zur Darstellung einer Fahrzeugumgebung mit Positionspunkten |
| DE102013104257A1 (de) * | 2013-04-26 | 2014-10-30 | Continental Teves Ag & Co. Ohg | Gitterbasiertes Umfeldmodell für ein Fahrzeug |
| DE102013008828A1 (de) | 2013-05-24 | 2014-11-27 | Volkswagen Aktiengesellschaft | Verfahren zur Erstellung eines Modells eines Umfelds eines Fahrzeugs sowie entsprechend ausgestaltetes Fahrerassistenzsystem |
| FR3005923A1 (fr) * | 2013-05-27 | 2014-11-28 | Bosch Gmbh Robert | Procede pour assister un conducteur et appareil de commande pour sa mise en oeuvre |
| WO2015014707A1 (de) * | 2013-08-01 | 2015-02-05 | Bayerische Motoren Werke Aktiengesellschaft | Bereitstellen eines umfeldmodells beim ausfall eines sensors eines fahrzeugs |
| US10198951B2 (en) | 2013-08-01 | 2019-02-05 | Bayerische Motoren Werke Aktiengesellschaft | Models of the surroundings for vehicles |
| DE102013018315A1 (de) | 2013-10-31 | 2015-04-30 | Bayerische Motoren Werke Aktiengesellschaft | Umfeldmodell mit adaptivem Gitter |
| DE102013018315B4 (de) | 2013-10-31 | 2025-07-10 | Bayerische Motoren Werke Aktiengesellschaft | Umfeldmodell mit adaptivem Gitter |
| DE102014208967A1 (de) * | 2014-05-13 | 2015-11-19 | Bayerische Motoren Werke Aktiengesellschaft | Umfeldkarte für Fahrflächen mit beliebigem Höhenverlauf |
| US10286901B2 (en) | 2014-05-13 | 2019-05-14 | Bayerische Motoren Werke Aktiengesellschaft | Map of the surroundings for driving areas with random altitude profile |
| DE102015209857B4 (de) | 2014-05-30 | 2022-12-22 | Hl Klemove Corp. | Autonomes Notbremssystem und Verfahren zum Erkennen von Fußgängern in diesem |
| US10705207B2 (en) | 2014-08-13 | 2020-07-07 | Vitesco Technologies Germany Gmbh | Control device, server system and vehicle |
| DE102014216008A1 (de) * | 2014-08-13 | 2016-02-18 | Conti Temic Microelectronic Gmbh | Steuervorrichtung, Serversystem und Fahrzeug |
| DE102015200748A1 (de) * | 2015-01-20 | 2016-07-21 | Volkswagen Aktiengesellschaft | Kraftfahrzeug mit wenigstens einem Fahrerassistenzsystem zur Unterstützung einer Nachtfahrt |
| WO2016124189A1 (de) * | 2015-02-02 | 2016-08-11 | Conti Temic Microelectronic Gmbh | Sensorsystem für ein fahrzeug und verfahren |
| DE102015221481A1 (de) * | 2015-11-03 | 2017-05-04 | Continental Teves Ag & Co. Ohg | Vorrichtung zur Umfeldmodellierung für ein Fahrerassistenzsystem für ein Kraftfahrzeug |
| US10752255B2 (en) | 2015-11-03 | 2020-08-25 | Continental Teves Ag & Co. Ohg | Surroundings modeling device for a driver assistance system for a motor vehicle |
| DE102016206631A1 (de) * | 2016-04-20 | 2017-10-26 | Continental Automotive Gmbh | Vorrichtung zur Datenfusion von Messdaten für eine Generierung eines räumlichen Belegungsrasters für ein Kraftfahrzeug |
| CN109844562A (zh) * | 2016-10-21 | 2019-06-04 | 伟摩有限责任公司 | 用于自主车辆感知和计划的雷达生成的占用网格 |
| WO2018075895A1 (en) * | 2016-10-21 | 2018-04-26 | Waymo Llc | Radar generated occupancy grid for autonomous vehicle perception and planning |
| CN108216249A (zh) * | 2016-12-21 | 2018-06-29 | 罗伯特·博世有限公司 | 用于车辆的周围环境检测的系统和方法 |
| CN108216249B (zh) * | 2016-12-21 | 2022-10-28 | 罗伯特·博世有限公司 | 用于车辆的周围环境检测的系统和方法 |
| EP3454084A1 (de) * | 2017-09-08 | 2019-03-13 | Valeo Schalter und Sensoren GmbH | Verfahren zum betreiben eines fahrerassistenzsystems für ein kraftfahrzeug unter verwendung einer vektorbasierten und einer gitterbasierten umgebungskarte sowie fahrerassistenzsystem |
| DE102017122440A1 (de) * | 2017-09-27 | 2019-03-28 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Lokalisieren und Weiterbilden einer digitalen Karte durch ein Kraftfahrzeug; Lokalisierungseinrichtung |
| US11821752B2 (en) | 2017-09-27 | 2023-11-21 | Valeo Schalter Und Sensoren Gmbh | Method for localizing and enhancing a digital map by a motor vehicle; localization device |
| DE102018203583B4 (de) * | 2018-03-09 | 2019-11-14 | Audi Ag | Verfahren, Fahrerassistenzsystem sowie Kraftfahrzeug zur Prädiktion einer Position oder einer Trajektorie mittels eines graphbasierten Umgebungsmodells |
| DE102018203583A1 (de) * | 2018-03-09 | 2019-09-12 | Audi Ag | Verfahren, Fahrerassistenzsystem sowie Kraftfahrzeug zur Prädiktion einer Position oder einer Trajektorie mittels eines graphbasierten Umgebungsmodells |
| DE102018118215A1 (de) * | 2018-07-27 | 2020-01-30 | Man Truck & Bus Se | Verfahren zur Aktualisierung einer Umgebungskarte, Vorrichtung für die fahrzeugseitige Durchführung von Verfahrensschritten des Verfahrens, Fahrzeug, Vorrichtung für die zentralrechnerseitige Durchführung von Verfahrensschritten des Verfahrens sowie computerlesbares Speichermedium |
| DE102018118215B4 (de) * | 2018-07-27 | 2020-04-16 | Man Truck & Bus Se | Verfahren zur Aktualisierung einer Umgebungskarte, Vorrichtung für die fahrzeugseitige Durchführung von Verfahrensschritten des Verfahrens, Fahrzeug, Vorrichtung für die zentralrechnerseitige Durchführung von Verfahrensschritten des Verfahrens sowie computerlesbares Speichermedium |
| US11940291B2 (en) | 2018-07-27 | 2024-03-26 | Volkswagen Aktiengesellschaft | Method for updating a map of the surrounding area, device for executing method steps of said method on the vehicle, vehicle, device for executing method steps of the method on a central computer, and computer-readable storage medium |
| CN111382768B (zh) * | 2018-12-29 | 2023-11-14 | 华为技术有限公司 | 多传感器数据融合方法和装置 |
| CN111382768A (zh) * | 2018-12-29 | 2020-07-07 | 华为技术有限公司 | 多传感器数据融合方法和装置 |
| DE102019205008B3 (de) | 2019-04-08 | 2020-07-02 | Zf Friedrichshafen Ag | System zur Rückwärtigen Kollisionsvermeidung |
| US11333520B2 (en) | 2019-06-12 | 2022-05-17 | International Business Machines Corporation | Visually guiding a vehicle |
| DE102020109789A1 (de) | 2020-04-08 | 2021-10-14 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Durchführen einer Selbstlokalisierung eines Fahrzeugs auf der Grundlage einer reduzierten digitalen Umgebungskarte, Computerprogrammprodukt sowie ein Selbstlokalisierungssystem |
| DE102020119954A1 (de) | 2020-07-29 | 2022-02-03 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Erzeugen einer Belegungsgitterkarte für zumindest ein statisches Objekt, Computerprogrammprodukt, computerlesbares Speichermedium sowie Assistenzsystem |
| DE102020211649A1 (de) | 2020-09-17 | 2022-03-17 | Conti Temic Microelectronic Gmbh | Verfahren und System zum Erstellen eines Straßenmodells |
| DE102020211722A1 (de) | 2020-09-18 | 2022-03-24 | Continental Automotive Gmbh | Verfahren und System zur verbesserten Fahrerassistenz |
| DE102021214767A1 (de) | 2021-12-21 | 2023-06-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Erstellen einer digitalen Karte |
| DE102023201580A1 (de) * | 2023-02-22 | 2024-08-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Verhaltensplanung eines Ego-Fahrzeugs als Teil einer Verkehrsszene |
| DE102023109042A1 (de) * | 2023-04-11 | 2024-10-17 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Fahrassistenzeinrichtung für eine belegungsgitterbasierte prädiktive Unterstützung einer automatischen Fahrzeugsteuerung und entsprechend eingerichtetes Kraftfahrzeug |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102010006828B4 (de) | 2021-07-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102010006828B4 (de) | Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug | |
| DE102014223363B4 (de) | Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte | |
| DE102015202859B4 (de) | Abtastsystem und -verfahren für autonomes Fahren | |
| EP3491339B1 (de) | Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur bestimmung der lateralen position eines fahrzeuges relativ zu den fahrstreifen einer fahrbahn | |
| DE102015203016B4 (de) | Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld | |
| DE102021113651B3 (de) | System zur Sensordatenfusion für die Umgebungswahrnehmung | |
| DE102016213817B4 (de) | Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn | |
| DE102016210254A9 (de) | Fahrzeugortung an kreuzungen anhand von visuellen anhaltspunkte, stationären objekten und durch gps | |
| DE102017108774A1 (de) | Fahrzeugspurkartenschätzung | |
| DE102016109592A1 (de) | Kollisionsabschwächung und -vermeidung | |
| WO2020229002A1 (de) | Verfahren und vorrichtung zur multi-sensor-datenfusion für automatisierte und autonome fahrzeuge | |
| DE102015209467A1 (de) | Verfahren zur Schätzung von Fahrstreifen | |
| DE102009043458A1 (de) | Fahrunterstützungssystem für Fahrzeuge | |
| DE102016112492A9 (de) | Minimierung inkorrekter Sensordatenassoziationen für autonome Fahrzeuge | |
| DE102008041679A1 (de) | Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung | |
| DE102018005869A1 (de) | System zur Erstellung eines Umgebungsmodells eines Fahrzeugs | |
| DE102015205133A1 (de) | Verfahren und Vorrichtung zum Ermitteln einer Bewegungsplanung für ein zumindest teilweise automatisiertes Fahren eines Fahrzeugs | |
| EP3490862A1 (de) | Verfahren und vorrichtung zum ermitteln eines fahrbahnmodells für ein fahrzeugumfeld | |
| DE112012005261B4 (de) | Freirauminformationen in einem Belegungsgitter als Grundlage für die Bestimmung eines Manöverraums für ein Fahrzeug | |
| DE102016202594A1 (de) | Verfahren und Vorrichtung zum Interpretieren einer Fahrzeugumgebung eines Fahrzeugs sowie Fahrzeug | |
| EP3867601B1 (de) | Verfahren und system zum bestimmen eines umfeldmodells für ein fahrzeug | |
| DE102016011366A1 (de) | Verfahren zur Positionsbestimmung eines Fahrzeugs | |
| DE102019213403A1 (de) | Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges, Egofahrzeug und ein Computerprogramm | |
| EP3391086B1 (de) | Verbessertes verfahren zum ermitteln der randbebauung einer fahrbahn für die lokalisierung von kraftfahrzeugen | |
| DE102013217486A1 (de) | Verfahren zur Repräsentation eines Umfelds eines Fahrzeugs in einem Belegungsgitter |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed | ||
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division | ||
| R020 | Patent grant now final |