[go: up one dir, main page]

DE102023002030B3 - Verfahren zur Erstellung einer digitalen Karte - Google Patents

Verfahren zur Erstellung einer digitalen Karte Download PDF

Info

Publication number
DE102023002030B3
DE102023002030B3 DE102023002030.3A DE102023002030A DE102023002030B3 DE 102023002030 B3 DE102023002030 B3 DE 102023002030B3 DE 102023002030 A DE102023002030 A DE 102023002030A DE 102023002030 B3 DE102023002030 B3 DE 102023002030B3
Authority
DE
Germany
Prior art keywords
tgy
trajectories
digital map
trajectory groups
geographical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102023002030.3A
Other languages
English (en)
Inventor
Tobias Mahler
Anja Severin
Mario Aleksic
Alexander Bracht
Michael Mink
Michael Henzler
Andreas Silvius Weber
Philip Kneißle
Roland Ortloff
Hainan Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102023002030.3A priority Critical patent/DE102023002030B3/de
Priority to PCT/EP2024/060635 priority patent/WO2024240427A1/de
Application granted granted Critical
Publication of DE102023002030B3 publication Critical patent/DE102023002030B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3819Road shape data, e.g. outline of a route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3852Data derived from aerial or satellite images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Erstellung einer digitalen Karte (K), wobei Luftbilder (L) eines vorgegebenen geografischen Raums erfasst werden. Erfindungsgemäß werden mittels einer Mehrzahl von Fahrzeugen (F1 bis Fn) bei Befahrungen in dem geografischen Raum Trajektorien (T1 bis Tm) mit Verläufen von geografischen Positionen des jeweiligen Fahrzeugs (F1 bis Fn) aufgezeichnet. Aus den aufgezeichneten Trajektorien (T1 bis Tm) werden segmentierte Trajektoriengruppen (TG1 bis TGy) gebildet, wobei die segmentierten Trajektoriengruppen (TG1 bis TGy) und die Luftbilder (L) zueinander ausgerichtet werden und aus den Luftbildern (L) und zu diesen ausgerichteten segmentierten Trajektoriengruppen (TG1 bis TGy) mittels eines trainierten Convolutional Neural Networks (CNN) Fahrspursegmente von Fahrbahnen ermittelt und in die digitale Karte (K) aufgenommen werden.Die Erfindung betrifft weiterhin eine Verwendung einer in einem solchen Verfahren erstellten digitalen Karte (K) in einem Fahrzeug (F1 bis Fn) zu einer Ausführung einer Navigationsfunktion und/oder zu einer Ausführung eines automatisierten Fahrbetriebs.

Description

  • Die Erfindung betrifft ein Verfahren zur Erstellung einer digitalen Karte gemäß dem Oberbegriff des Anspruchs 1.
  • Die Erfindung betrifft weiterhin eine Verwendung einer solchen digitalen Karte.
  • Hochaufgelöste digitale Karten, auch als High-Definition-Karten bezeichnet, und darin enthaltene Informationen zu einer Fahrspurgeometrie und -topologie sind für einen automatisierten, beispielsweise hochautomatisierten oder autonomen Fahrbetrieb von Fahrzeugen von großer Bedeutung, da diese notwendigen Informationen über relevante Straßen sowie einer über Erfassungsgrenzen einer fahrzeugseitigen Sensorik hinausgehenden Umgebung des Fahrzeugs bereitstellen. Damit tragen solche digitalen Karten entscheidend zu einer Sicherheit und Zuverlässigkeit des automatisierten Fahrzeugs bei.
  • In den digitalen Karten hinterlegte Fahrspurgeometrien liefern dem Fahrzeug dabei einen physischen Verlauf einer Straße sowie eine Anzahl und tatsächliche globale Positionen konkreter Fahrspuren der Straße. Auf Basis dieser Informationen kann ein zum automatisierten Fahrbetrieb des Fahrzeugs vorgesehenes System Entscheidungen über zukünftige Manöver, eine Fahrtrichtung und notwendige Fahrspurwechsel treffen und eine konkrete zukünftige Trajektorie planen.
  • In den digitalen Karten hinterlegte Fahrspurtopologien beschreibt dabei, wie die Fahrspuren in Beziehung zueinanderstehen und wie sie sich in Bezug auf Straßenkreuzungen, Abzweigungen und andere Straßenmerkmale verändern. Diese Informationen sind ebenfalls wichtig, da sie Algorithmen des zum automatisierten Fahrbetrieb des Fahrzeugs vorgesehenen Systems helfen, sicher und effizient durch Straßenkreuzungen und andere komplexe Verkehrssituationen zu navigieren.
  • Die CN 112418037 A beschreibt ein Verfahren und ein System zur Erkennung von Fahrspurmarkierungen in einem Satellitenbild. Das Verfahren umfasst die folgenden Schritte:
    • - Eingeben eines zu erkennenden Satellitenbilds in ein trainiertes LaneNet-Netzwerkmodell, um ein Satellitenbild markiert mit Koordinatenpunkten von Fahrspurlinien auszugeben,
    • - Gruppieren der Koordinatenpunkte ausgegebener Fahrspurlinien, um einen Koordinatenpunkt zu erhalten, der zu jeder Fahrspurlinie gehört,
    • - Anpassen gemäß dem Koordinatenpunkt, der zu jeder Fahrspurlinie gehört, um jede Fahrspurlinie zu erhalten, wobei das LaneNet-Netzwerkmodell in einem Training mit einem Trainingssatz gebildet wird, der eine Vielzahl von Satellitenbildern und in jedem Satellitenbild markierte Koordinatenpunkten für Fahrspurlinie umfasst, und
    • - Verwendung des LaneNet-Netzwerkmodells, um die Fahrspurlinien in einem erfassten Satellitenbild zu identifizieren und eine Navigationskarte zu erstellen.
  • Aus der DE 10 2022 001 030 B3 ist ein Verfahren zur Erstellung einer digitalen Karte bekannt, bei dem von einer Mehrzahl von Fahrzeugen bei Befahrungen in einem geographischen Raum Sensordaten erfasst werden und bei dem mittels Methoden des maschinellen Lernens aus den erfassten Sensordaten eine Straßenkarte erstellt wird, welche eine Beschreibung von Fahrpfadsegmenten enthält, die in der Vergangenheit aufgezeichnet worden sind.
  • Aus der DE 10 2019 215 522 A1 ist ein Verfahren zum Aktualisieren von Attributen einer digitalen Karte anhand von Luftbildern bekannt, bei dem aus Segmenten der Luftbilder mittels eines trainierten neuronalen Netzwerks Attribute von Fahrbahnen in den jeweiligen Segmenten ermittelt werden und zum Aktualisieren oder Vervollständigen von in der Karte hinterlegten Attributen herangezogen werden.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Erstellung einer digitalen Karte und eine Verwendung einer solchen digitalen Karte anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist, und durch eine Verwendung, welche die im Anspruch 10 angegebenen Merkmale aufweist.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In einem Verfahren zur Erstellung einer digitalen Karte werden Luftbilder eines vorgegebenen geografischen Raums erfasst.
  • Erfindungsgemäß werden mittels einer Mehrzahl von Fahrzeugen bei Befahrungen in dem geografischen Raum Trajektorien mit Verläufen von geografischen Positionen des jeweiligen Fahrzeugs aufgezeichnet, wobei aus den aufgezeichneten Trajektorien segmentierte Trajektoriengruppen gebildet werden. Die segmentierten Trajektoriengruppen und die Luftbilder werden zueinander ausgerichtet, wobei aus den Luftbildern und zu diesen ausgerichteten segmentierten Trajektoriengruppen mittels eines trainierten Convolutional Neural Networks Fahrspursegmente von Fahrbahnen ermittelt und in die digitale Karte aufgenommen werden.
  • Aus Luftbildern, beispielsweise Satellitenbildern oder Flugaufnahmen, können Fahrspurmarkierungen extrahiert werden. Allerdings besteht die Gefahr, dass bei fehlenden, undeutlichen oder nicht eindeutigen Straßenmarkierungen mittels Luftbildern unklare Darstellungen von der Straßenführung geliefert werden. Dies kann zu Fehleinschätzungen bei einer Bestimmung von Fahrspurgeometrien und Fahrspurtopologien führen. Beispielsweise können bei Verdeckungen durch Brücken, Tunnel, Gebäude, Randbebauungen oder Randbewüchsen Unvollständigkeiten in der Ableitung von Fahrspuren auftreten. In einer Ableitung einer Fahrspurtopologie basierend allein auf tatsächlich gefahrenen Fahrzeugtrajektorien wird ausschließlich ein Fahrverhalten der Fahrzeuge berücksichtigt. Eine Berücksichtigung physischer Fahrspurmarkierungen erfolgt dagegen nicht. Dies wiederrum führt zu Limitationen in der Erkennung der tatsächlichen Fahrspurgeometrie und der vollständigen Fahrspurtopologie.
  • Aufgrund der Kombination der Luftbilder mit den korrelierenden segmentierten Trajektoriengruppen kann mittels des vorliegenden Verfahrens eine besonders hohe Genauigkeit und Korrektheit der digitalen Karte erzielt werden. Dies ist insbesondere auch bei fehlenden oder nicht eindeutigen Straßenmarkierungen möglich. Diese Kombination kann dabei durch einen Einsatz von Algorithmen aus dem Bereich des maschinellen Lernens und weiteren Verarbeitungsschritten, das heißt insbesondere durch die Verwendung des trainierten Convolutional Neural Networks, vollständig automatisiert werden.
  • Insbesondere bei fehlenden oder nicht eindeutigen Straßenmarkierungen, wie beispielsweise in Straßenkreuzungsbereichen oder bei schlechten Straßenbedingungen, ermöglicht die Kombination der Luftbilder mit den korrelierenden segmentierten Trajektoriengruppen bei einer Fahrspurerkennung, Informationen über die Fahrspurgeometrie und -topologie aus den Trajektorienverläufen zu extrahieren und mit den Luftbildern zu kombinieren, so dass trotz fehlender Informationen in den Luftbildern eine vollständige Darstellung von Straßen mit Fahrspuren erzeugt wird.
  • Auch kann durch die Kombination der Luftbilder mit den korrelierenden segmentierten Trajektoriengruppen eine Überbrückung von Schatten und Verdeckungen in den Luftbildern erreicht werden. Die durch Verschattungen, baulich bedingte Verdeckungen oder andere verdeckende Objekte, wie beispielsweise Fahrzeuge, in den Luftbildern hervorgerufenen Beeinträchtigungen, welche zu fehlerhaften und unvollständigen Erkennungen von Fahrspurmarkierungen und Straßenrändern führen können, können durch die Erweiterung mit den aufgezeichneten Trajektorienverläufen behoben werden, da die geografischen Positionen der Fahrzeuge unabhängig von Lichtbedingungen oder anderen Einflüssen erfasst werden und so in das entsprechende Luftbild projiziert werden können.
  • Auch wird aufgrund der zusätzlichen Verwendung der Trajektorienverläufe ermöglicht, die Fahrspurtopologien, das heißt regelkonforme Fahrspurverknüpfungen, Abbiege-Vorgänge an Straßenkreuzungen und Fahrspurwechsel, fehlerfrei abzuleiten. Dies ist bei einer alleinigen Verwendung von Luftbildern nicht möglich, da Einschränkungen, beispielsweise aufgrund von Verkehrsschildern, in Aufnahmen aus einer Vogelperspektive nicht erkannt werden können. Hierdurch ermöglicht die Kombination mit den Trajektorienverläufen und damit den von den Fahrzeugen tatsächlich befahrenen Kombinationen eine robuste Erkennung der Fahrspurtopologien.
  • Weiterhin ermöglicht die Verwendung des lernbasierten Convolutional Neural Networks und dessen Generalisierungsfähigkeit, dass auch Sonderfälle robust erkannt und entsprechend klassifiziert bzw. abgeleitet werden können. Somit müssen im Vergleich zu heuristischen oder klassischen Bild-Erkennungs-Verfahren nicht alle Sonderfälle a priori bekannt sein, sondern können durch das Verfahren aufgrund zuvor erlernter Regeln selbst gelöst werden.
  • Des Weiteren führt das vorliegende Verfahren zu einer hohen Skalierbarkeit. Neben der vollständig automatisierten Ausführung nach erfolgreichem Training ermöglicht ein Prozessieren von Daten in durch die segmentierten Trajektoriengruppen segmentierten Bereichen eine Zerlegung des Teilproblems, wodurch der Kartenerstellungsprozess parallelisiert werden kann. Dies reduziert den Zeitaufwand gegenüber herkömmlichen Kartierungsprozessen enorm.
  • Gemäß einer möglichen Ausgestaltung des Verfahrens werden für benachbarte geografische Räume ermittelte Fahrspursegmente zu Fahrspurverläufen von Fahrbahnen der digitalen Karte zusammengesetzt. Somit kann eine globale digitale Karte erzeugt werden.
  • Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens wird die Erstellung der digitalen Karte auf einem Backendserver durchgeführt. Dies ermöglicht eine zentralisierte Erstellung der digitalen Karte, wodurch eine Rechenleistung zur Datenverarbeitung in den einzelnen Fahrzeugen minimiert werden kann. Weiterhin kann die erstellte digitale Karte zentral für eine Vielzahl von Fahrzeugen zur Verfügung gestellt werden.
  • Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens werden geografische Positionen der Trajektorien mittels eines Clustering-Verfahrens optimiert. Dies ermöglicht, dass beispielsweise aus so genannten Multi-Path-Effekten resultierende Ungenauigkeiten in einer die Trajektorien bildenden zeitlichen Abfolge der geografischen Positionen behoben werden können. Hieraus resultiert eine erhöhte Genauigkeit der erzeugten digitalen Karte.
  • Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens werden geografische Positionen der Trajektorien in lateraler und longitudinaler Richtung zueinander ausgerichtet, wobei die Ausrichtung in Abhängigkeit von Fahrzeugbeobachtungen von Lokalisierungsobjekten durchgeführt wird, indem eine Fehlerkorrektur aufgrund gleicher, von mehreren Fahrzeugen beobachteter geografischer Lokalisierungsmerkmale durchgeführt wird. Durch eine so durchgeführte Optimierung von Trajektorienverläufen können tatsächliche Fahrspurverläufe deutlich besser dargestellt werden.
  • Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens wird die Segmentierung der Trajektoriengruppen basierend auf einer Fahrtrichtung und/oder Geschwindigkeit der Fahrzeuge durchgeführt. Die Segmentierung steigert dabei eine Leistungsfähigkeit des mittels des Convolutional Neural Networks durchgeführten lernbasierten Verfahrens. Die Segmentierung kann dabei durch eine Hervorhebung von Mustern in den Eingangsdaten erfolgen und eine Komplexität dieser Eingangsdaten für das lernbasierte Verfahren reduzieren. Die Segmentierung kann beispielsweise durch ein Clusteringverfahren, beispielsweise ein so genanntes DBSCAN-Verfahren (DBSCAN = Density-Based Spatial Clustering of Applications with Noise = Dichtebasierte räumliche Clusteranalyse mit Rauschen) sehr genau und effizient durchgeführt werden.
  • Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens wird die Segmentierung der Trajektoriengruppen basierend auf einem mathematischen Modell in einem Regressionsverfahren durchgeführt. Mittels eines solchen Regressionsverfahrens kann die Komplexität der Eingangsdaten weiter verringert werden und eine große Datenreduktion erreicht werden.
  • Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens werden die Luftbilder in einer radiometrischen Kalibrierung vorprozessiert, wobei in der Vorprozessierung in den Luftbildern bestimmte Merkmale hervorgehoben werden. Hierdurch wird eine verbesserte Verarbeitung der Luftbilder in dem lernbasierten Verfahren ermöglicht.
  • Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens wird die Ausrichtung der Trajektoriengruppen und der Luftbilder zueinander anhand von einer jeweiligen geografischen Lage und/oder jeweiligen Höheninformationen in den Trajektorien der Trajektoriengruppen und/oder in den Luftbildern detektierten Lokalisierungsmerkmalen der Trajektorien der Trajektoriengruppen durchgeführt. Durch diese Ausrichtung kann eine Kombination beider Datenquellen in eine Datenrepräsentation verbessert werden. Durch eine Verwendung von Höheninformationen in den Trajektorien können beispielsweise optische Verzerrungen in den Luftbildern ausgeglichen werden. Weiter können erkannte Lokalisierungsmerkmale der Trajektorien, welche auch innerhalb der Luftbilder gefunden werden können, wie beispielsweise Fahrspurmarkierungen, genutzt werden, um die Trajektoriengruppen anhand der Luftbilder auszurichten. Somit können unter anderem auch Orientierungsabweichungen vermieden werden.
  • In einer Verwendung einer in einem vorgenannten Verfahren erstellten digitalen Karte ist vorgesehen, diese in einem Fahrzeug zu einer Ausführung einer Navigationsfunktion und/oder zu einer Ausführung eines automatisierten Fahrbetriebs einzusetzen. Durch die Verwendung einer somit sehr genau und korrekt ausgeführten digitalen Karte können eine Verfügbarkeit und Zuverlässigkeit einer Navigation des Fahrzeugs und eines automatisierten, insbesondere hochautomatisierten oder autonomen Fahrbetriebs des Fahrzeugs signifikant verbessert werden.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
    • 1 schematisch ein Luftbild einer Straßenkreuzung mit einer Mehrzahl von Fahrzeugen und Trajektorien,
    • 2 schematisch ein Luftbild der Straßenkreuzung gemäß 1 mit Trajektoriengruppen vor einer Optimierung und das Luftbild der Straßenkreuzung gemäß 1 mit Trajektoriengruppen nach einer Optimierung,
    • 3 schematisch ein Luftbild der Straßenkreuzung gemäß 1 mit Trajektorien nach einer Segmentierung von Trajektoriengruppen und
    • 4 schematisch einen Ablauf eines Verfahrens zur Erstellung einer digitalen Karte.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • In 1 ist eine Draufsicht einer Straßenkreuzung mit einer Mehrzahl von Fahrzeugen F1 bis Fn und mittels mehrerer dieser Fahrzeuge F1 bis Fn gefahrener Trajektorien T1, T2 dargestellt.
  • In einem möglichen Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zur Erstellung einer in 4 näher dargestellten digitalen Karte K ist vorgesehen, Luftbilder L eines vorgegebenen geografischen Raums mit korrelierenden segmentierten Trajektoriengruppen TG1 bis TGy, welche in 2 und 3 näher dargestellt sind, zu kombinieren. Dies wird in einem lernbasierten Verfahren, insbesondere mittels eines in 4 näher dargestellten Convolutional Neural Networks CNN, durchgeführt.
  • Hierzu wird eine Erfassung von Luftbilder L des vorgegebenen geografischen Raums durchgeführt. Diese Erfassung erfolgt beispielsweise anhand von Satelliten als Satellitenbilder und/oder anhand zumindest einer Kamera als Luftaufnahme. Dabei wird der geografische Raum mittels eines Luftbilds L aus einer Vogelperspektive dargestellt.
  • Das Luftbild L kann dabei beispielsweise in einem RGB-Format oder einem anderen geeigneten Format vorliegen.
  • Weiterhin werden mittels einer Mehrzahl von Fahrzeugen F1 bis Fn bei Befahrungen in dem geografischen Raum Trajektorien T1, T2 mit Verläufen von geografischen Positionen des jeweiligen Fahrzeugs F1 bis Fn aufgezeichnet.
  • Anschließend wird eine Datenaufbereitung für beide Datenquellen, das heißt für die erfassten Luftbilder L und die aufgezeichneten Trajektorien T1, T2 durchgeführt. Die Datenaufbereitung wird insbesondere getrennt für beide Datenquellen durchgeführt.
  • Die Datenaufbereitung wird anhand der 2 und 3 näher erläutert.
  • 2 zeigt das Luftbild L der Straßenkreuzung gemäß 1 mit einer Vielzahl von Trajektorien T1 bis Tm vor einer Optimierung (linke Darstellung) und das Luftbild L der Straßenkreuzung gemäß 1 mit Trajektorien T1 bis Tm nach einer Optimierung (rechte Darstellung).
  • Die Trajektorien T1 bis Tm der Fahrzeuge F1 bis Fn bestehen zumindest im Wesentlichen aus einer zeitlichen Abfolge von geografischen Positionen, beispielsweise GPS-Positionen, der Fahrzeuge F1 bis Fn, die zusammengefasst eine Trajektoriengruppen TG1 bis TGy, auch als Trajektorienspur oder Trace bezeichnet, ergeben.
  • Solche Trajektoriengruppen TG1 bis TGy können aus verschiedenen Gründen, wie beispielsweise so genannten Multi-Path-Effekten, ungenau sein. Um diese Ungenauigkeit zu verbessern, wird in einer Optimierung der Trajektoriengruppen TG1 bis TGy eine Optimierung der geografischen Positionen der Trajektorien T1 bis Tm der Trajektoriengruppen TG1 bis TGy durchgeführt. Dies kann beispielsweise mit einer Methode aus der Klasse der so genannten Clustering-Verfahren durchgeführt werden. Weiterhin wird eine Ausrichtung der geografischen Positionen in longitudinaler und lateraler Richtung zueinander durchgeführt. Dabei werden vorliegende Fahrzeugbeobachtungen von Lokalisierungsobjekten genutzt und es wird eine Fehlerkorrektur aufgrund gleicher beobachteter geographischer Lokalisierungsmerkmale durchgeführt. Durch diese Optimierung der Trajektoriengruppen TG1 bis TGy können - wie in der rechten Darstellung verdeutlicht - tatsächliche Fahrspurverläufe deutlich besser dargestellt werden.
  • Um eine Leistungsfähigkeit des lernbasierten Verfahrens zu steigern, werden in einer Vorverarbeitung Muster in den Eingangsdaten hervorgehoben, so dass eine Komplexität der Eingangsdaten reduziert werden kann. Dies erfolgt durch eine Segmentierung der Trajektoriengruppen TG1 bis TGy, was durch die Darstellung in 3 verdeutlicht wird.
  • Diese Segmentierung wird basierend auf definierten Merkmalen, wie beispielsweise einer Fahrtrichtung und/oder Geschwindigkeit der Fahrzeuge F1 bis Fn, welche jeweils die Trajektorien T1 bis Tm zur Erstellung der Trajektoriengruppen TG1 bis TGy aufzeichnen, durchgeführt. Die Segmentierung kann beispielsweise durch den Einsatz weiterer Clusteringverfahren, wie beispielsweise des so genannten DBSCAN-Verfahrens, durchgeführt werden. Eine durch Anwendung solcher Clusteringverfahren realisierte Datenreduktion kann durch eine Anwendung von Regressionstechniken ergänzt werden, bei denen ein mathematisches Modell verwendet wird, um die Trajektoriengruppen TG1 bis TGy zu segmentieren.
  • Mittels der Segmentierung können einem in dem lernbasierten Verfahren verwendeten prädiktiven Modell weitere Merkmale bereitgestellt werden, so dass dessen Leistungsfähigkeit gesteigert werden kann. In möglichen Ausführungsbeispielen werden mittels des lernbasierten Verfahrens solche Cluster selbst in den Daten gefunden.
  • Weiterhin werden auch die Luftbilder L für den Einsatz des lernbasierten Verfahrens aufbereitet. Um bestimmte Merkmale in den Luftbildern L hervorzuheben, können diese in einem gesonderten Vorverarbeitungsschritt durch Methoden, wie beispielsweise eine radiometrische Kalibrierung, vorprozessiert werden, um eine spätere Verarbeitung durch das lernbasierte Verfahren zu optimieren.
  • Im Anschluss an die Vorverarbeitung der Eingangsdaten der beiden Datenquellen, das heißt im Anschluss an die Segmentierung der Trajektoriengruppen TG1 bis TGy und der gegebenenfalls durchgeführten Aufbereitung der Luftbilder L, erfolgt eine Kombination beider Datenquellen in eine Datenrepräsentation.
  • Dazu werden die Trajektoriengruppen TG1 bis TGy und die Luftbilder L zunächst zueinander ausgerichtet. Hierzu können neben einer einfachen Ausrichtung anhand einer jeweiligen geografischen Lage weitere Schritte zur Ausrichtung verwendet werden. So können zum einen Höheninformationen der Trajektoriengruppen TG1 bis TGy verwendet werden, um optische Verzerrungen im Luftbild L auszugleichen. Weiter können, ähnlich wie bei der beschriebenen Vorverarbeitung der Trajektoriengruppen TG1 bis TGy, erkannte Lokalisierungsmerkmale der Trajektoriengruppen TG1 bis TGy, welche auch innerhalb der Luftbilder L gefunden werden können, wie beispielsweise Fahrspurmarkierungen, genutzt werden, um die Trajektoriengruppen TG1 bis TGy anhand der Luftbilder L auszurichten. Somit können unter anderem auch Orientierungsabweichungen vermieden werden.
  • Die somit erzeugte gemeinsame Darstellung dient im späteren Verlauf als Datengrundlage für das lernbasierte Verfahren, welches in 4 näher dargestellte Fahrspurgeometrien FG und Fahrspurtopologien FT interferieren soll.
  • Durch die Kombination beider Datenquellen entsteht ein umfassender Datensatz aus Bildern, welche sowohl eine Luftaufnahme L der Straßen als auch die projizierten Trajektoriengruppen TG1 bis TGy enthalten. Eine Datenaufbereitung und Datenvorbereitung werden durch eine Einteilung des Datensatzes in kleinere, homogene Datenpunkte abgeschlossen, welche jeweils einzelne Straßenbereiche enthalten.
  • Zur tatsächlichen Ableitung von Fahrspurgeometrien FG und Fahrspurtopologien FT innerhalb der aufbereiteten Daten kommt ein lernbasiertes Modell aus dem Bereich des KI-basierten Bildverstehens zum Einsatz, wie beispielsweise ein Convolutional Neural Network CNN. Dies zeigt 4.
  • Hierbei wird eine Inferenz der gewünschten Daten als ein so genanntes Instance Segmentation-Problem formuliert, bei dem eine neuronales Netz des Convolutional Neural Networks CNN jede Instanz einer Trajektoriengruppe TG1 bis TGy in den Luftbildern L erkennen und entsprechend ausgeben soll. Die Wahl des neuronalen Netzes motiviert die zuvor beschriebene Aufbereitung der Daten in Form von prozessierten Luftbildern L und projizierten Trajektoriengruppe TG1 bis TGy als Eingangsdaten. Diese werden genutzt, um als Ausgangsinformationen die Fahrspurgeometrien FG und Fahrspurtopologien FT in der digitalen Karte K zu prädizieren.
  • Der Einsatz lernbasierter Verfahren erfordert immer ein Training des verwendeten Modells mit geeigneten, vorausgewählten Daten. Bildverstehen fällt dabei in den Bereich des so genannten Supervised Learnings, was zum erfolgreichen Training des Modells so genannte Ground-Truth-Daten benötigt. Diese Daten sind zuvor von einem Menschen attributiert worden und werden dazu genutzt, Parameter des neuronalen Netzes zu adaptieren.
  • Durch das Convolutional Neural Network CNN wird zunächst das Problem der Erkennung der Fahrspursegmente im Eingangsbild, das heißt im Luftbild L, sowie deren tatsächliche geografische Ausdehnung gelöst. Zur vollständigen Erzeugung eines Fahrspur-Layers muss weiter die Fahrspurtopologie FT, also eine Relation der gefundenen Fahrspursegmente zueinander bestimmt werden. Hierfür eignen sich zwei Ansätze. Zum einen kann das lernbasierte Modell dahingehend ergänzt werden, dass die Relation bereits innerhalb des Modells gelöst wird. Alternativ kann durch eine Berücksichtigung der Fahrtrichtungen der entsprechenden Trajektoriengruppe TG1 bis TGy in einem anschließenden heuristischen Post-Processing-Schritt eine Topologie der erkannten Fahrspursegmente im Luftbild L abgeleitet werden. Beide Varianten lassen sich vollständig automatisiert in das Verfahren integrieren.
  • Ein abschließender Verarbeitungsschritt zur Erzeugung der digitalen Karte K beinhaltet die Rücktransformation der Bilddaten in eine globale geografische Repräsentation und die Zusammenführung der jeweiligen Bildsegmente in eine globale digitale Karte K. Dabei werden die Ergebnisse der aufgeteilten Luftbilder L an Bildergrenzen wieder zusammengeführt. Das heißt, für benachbarte geografische Räume ermittelte Fahrspursegmente werden zu Fahrspurverläufen von Fahrbahnen der digitalen Karte K zusammengesetzt.

Claims (10)

  1. Verfahren zur Erstellung einer digitalen Karte (K), wobei Luftbilder (L) eines vorgegebenen geografischen Raums erfasst werden, dadurch gekennzeichnet, dass - mittels einer Mehrzahl von Fahrzeugen (F1 bis Fn) bei Befahrungen in dem geografischen Raum Trajektorien (T1 bis Tm) mit Verläufen von geografischen Positionen des jeweiligen Fahrzeugs (F1 bis Fn) aufgezeichnet werden, - aus den aufgezeichneten Trajektorien (T1 bis Tm) segmentierte Trajektoriengruppen (TG1 bis TGy) gebildet werden, - die segmentierten Trajektoriengruppen (TG1 bis TGy) und die Luftbilder (L) zueinander ausgerichtet werden und - aus den Luftbildern (L) und zu diesen ausgerichteten segmentierten Trajektoriengruppen (TG1 bis TGy) mittels eines trainierten Convolutional Neural Networks (CNN) Fahrspursegmente von Fahrbahnen ermittelt und in die digitale Karte (K) aufgenommen werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass für benachbarte geografische Räume ermittelte Fahrspursegmente zu Fahrspurverläufen von Fahrbahnen der digitalen Karte (K) zusammengesetzt werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Erstellung der digitalen Karte (K) auf einem Backendserver durchgeführt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die geografischen Positionen der Trajektorien (T1 bis Tm) mittels eines Clustering-Verfahrens optimiert werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - die geografischen Positionen der Trajektorien (T1 bis Tm) in lateraler und longitudinaler Richtung zueinander ausgerichtet werden, wobei - die Ausrichtung in Abhängigkeit von Fahrzeugbeobachtungen von Lokalisierungsobjekten durchgeführt wird, indem eine Fehlerkorrektur aufgrund gleicher, von mehreren Fahrzeugen (F1 bis Fn) beobachteter geografischer Lokalisierungsmerkmale durchgeführt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Segmentierung der Trajektoriengruppen (TG1 bis TGy) basierend auf einer Fahrtrichtung und/oder Geschwindigkeit der Fahrzeuge (F1 bis Fn) durchgeführt wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Segmentierung der Trajektoriengruppen (TG1 bis TGy) basierend auf einem mathematischen Modell in einem Regressionsverfahren durchgeführt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - die Luftbilder (L) in einer radiometrischen Kalibrierung vorprozessiert werden, wobei - in der Vorprozessierung in den Luftbildern (L) bestimmte Merkmale hervorgehoben werden.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Ausrichtung der Trajektoriengruppen (TG1 bis TGy) und der Luftbilder (L) zueinander anhand von einer jeweiligen geografischen Lage und/oder jeweiligen Höheninformationen in den Trajektorien (T1 bis Tm) der Trajektoriengruppen (TG1 bis TGy) und/oder in den Luftbildern (L) detektierten Lokalisierungsmerkmalen der Trajektorien (T1 bis Tm) der Trajektoriengruppen (TG1 bis TGy) durchgeführt wird.
  10. Verwendung einer in einem Verfahren nach einem der vorhergehenden Ansprüche erstellten digitalen Karte (K) in einem Fahrzeug (F1 bis Fn) zu einer Ausführung einer Navigationsfunktion und/oder zu einer Ausführung eines automatisierten Fahrbetriebs.
DE102023002030.3A 2023-05-19 2023-05-19 Verfahren zur Erstellung einer digitalen Karte Active DE102023002030B3 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102023002030.3A DE102023002030B3 (de) 2023-05-19 2023-05-19 Verfahren zur Erstellung einer digitalen Karte
PCT/EP2024/060635 WO2024240427A1 (de) 2023-05-19 2024-04-18 Verfahren zur erstellung einer digitalen karte

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023002030.3A DE102023002030B3 (de) 2023-05-19 2023-05-19 Verfahren zur Erstellung einer digitalen Karte

Publications (1)

Publication Number Publication Date
DE102023002030B3 true DE102023002030B3 (de) 2024-06-06

Family

ID=90825689

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023002030.3A Active DE102023002030B3 (de) 2023-05-19 2023-05-19 Verfahren zur Erstellung einer digitalen Karte

Country Status (2)

Country Link
DE (1) DE102023002030B3 (de)
WO (1) WO2024240427A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102025102286B3 (de) * 2024-12-12 2026-02-05 GM Global Technology Operations LLC Systeme und Verfahren zur Steuerung für autonomes Fahren eines Fahrzeugs

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN119879960B (zh) * 2025-03-27 2025-10-17 高德软件有限公司 地图处理方法、地图处理装置和计算机程序产品

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418037A (zh) 2020-11-12 2021-02-26 武汉光庭信息技术股份有限公司 卫星图片中车道线识别方法、系统、电子设备及存储介质
DE102019215522A1 (de) 2019-10-10 2021-04-15 Robert Bosch Gmbh Verfahren zum Aktualisieren von Attributen in einer digitalen Karte
DE102022001030B3 (de) 2022-03-25 2023-03-30 Mercedes-Benz Group AG Verfahren zur Ermittlung einer Navigationsroute für einen automatisierten Fahrbetrieb eines Fahrzeugs

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10223816B2 (en) * 2015-02-13 2019-03-05 Here Global B.V. Method and apparatus for generating map geometry based on a received image and probe data
US10359295B2 (en) * 2016-09-08 2019-07-23 Here Global B.V. Method and apparatus for providing trajectory bundles for map data analysis
US12056815B2 (en) * 2019-06-14 2024-08-06 GM Global Technology Operations LLC Generating map features based on aerial data and telemetry data
US11380093B2 (en) * 2020-07-30 2022-07-05 GM Global Technology Operations LLC Detecting road edges by fusing aerial image and telemetry evidences
US20220404167A1 (en) * 2021-06-22 2022-12-22 GM Global Technology Operations LLC Roadway occlusion detection and reasoning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019215522A1 (de) 2019-10-10 2021-04-15 Robert Bosch Gmbh Verfahren zum Aktualisieren von Attributen in einer digitalen Karte
CN112418037A (zh) 2020-11-12 2021-02-26 武汉光庭信息技术股份有限公司 卫星图片中车道线识别方法、系统、电子设备及存储介质
DE102022001030B3 (de) 2022-03-25 2023-03-30 Mercedes-Benz Group AG Verfahren zur Ermittlung einer Navigationsroute für einen automatisierten Fahrbetrieb eines Fahrzeugs

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102025102286B3 (de) * 2024-12-12 2026-02-05 GM Global Technology Operations LLC Systeme und Verfahren zur Steuerung für autonomes Fahren eines Fahrzeugs

Also Published As

Publication number Publication date
WO2024240427A1 (de) 2024-11-28

Similar Documents

Publication Publication Date Title
DE112016004370B4 (de) Fahrzeugsteuerung und Fahrzeugsteuervorrichtung
DE102016213817B4 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn
DE102017221407A1 (de) Fahrassistenzsystem, das navigationsinformation verwendet, und dessen betriebsverfahren
EP3616181A1 (de) Verfahren zum automatischen erstellen und aktualisieren eines datensatzes für ein autonomes fahrzeug
DE102023002030B3 (de) Verfahren zur Erstellung einer digitalen Karte
DE102020200169B3 (de) Verfahren zur Zusammenführung mehrerer Datensätze für die Erzeugung eines aktuellen Spurmodells einer Fahrbahn und Vorrichtung zur Datenverarbeitung
EP3491339A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur bestimmung der lateralen position eines fahrzeuges relativ zu den fahrstreifen einer fahrbahn
DE102020127855A1 (de) Sicherheitssystem, automatisiertes fahrsystem und verfahren dafür
WO2017202570A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur bestimmung der lateralen position eines fahrzeuges relativ zu den fahrstreifen einer fahrbahn
DE102021211463A1 (de) Verfahren, Steuereinrichtung und System zum Steuern eines automatisierten Fahrzeugs
DE102020105250A1 (de) Bestimmen des Verlaufs einer Fahrspurbegrenzung
WO2019052867A1 (de) Verfahren zum ermitteln eines verlaufs von fahrspuren eines strassennetzes sowie servervorrichtung zum durchführen des verfahrens
DE112020005630T5 (de) Fahrassistenzvorrichtung
DE102013217060A1 (de) Spurgenaue Positionierung eines Fahrzeugs
WO2023138822A1 (de) Vorrichtung und verfahren zur ermittlung eines referenzverlaufs
DE102020110269B4 (de) Verfahren zum Ermitteln einer Informationslücke in einem Fahrspurmarkierungsmodell für ein Kraftfahrzeug sowie System zum Durchführen eines derartigen Verfahrens
WO2022002564A1 (de) Ermitteln einer ausgangsposition eines fahrzeugs für eine lokalisierung
DE102016212786A1 (de) Fahrerassistenzsystem für ein Ego-Fahrzeug auf einem Weg eines Wegenetzes und Verfahren zum Betreiben des Fahrerassistenzsystems
WO2020224878A1 (de) Verfahren und vorrichtung zum erstellen einer ersten karte
DE102022210504B4 (de) System und Verfahren zur Prädiktion einer zukünftigen Position eines Verkehrsteilnehmers
DE102015211150A1 (de) Verfahren, Fahrerassistenzsystem und Fahrzeug zum Lernen einer Trajektorie eines Straßenabschnitts
DE102014204933A1 (de) Verfahren und eine Vorrichtung zur Erzeugung eines Segmentierungs-Layers
DE102013217061A1 (de) Spurgenaue Positionierung eines Fahrzeugs
DE102017011982A1 (de) Verfahren zur Streckenvorausschau
DE102023119879A1 (de) Vorrichtung und Verfahren zur Ermittlung einer Fahrstreifenbegrenzung auf einem Fahrbahnabschnitt

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final