[go: up one dir, main page]

DE112009000949T5 - Detektion eines freien Fahrpfads für ein Fahrzeug - Google Patents

Detektion eines freien Fahrpfads für ein Fahrzeug Download PDF

Info

Publication number
DE112009000949T5
DE112009000949T5 DE112009000949T DE112009000949T DE112009000949T5 DE 112009000949 T5 DE112009000949 T5 DE 112009000949T5 DE 112009000949 T DE112009000949 T DE 112009000949T DE 112009000949 T DE112009000949 T DE 112009000949T DE 112009000949 T5 DE112009000949 T5 DE 112009000949T5
Authority
DE
Germany
Prior art keywords
image
piece
vehicle
free
floor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112009000949T
Other languages
English (en)
Inventor
Wende Shelby Township Zhang
Mark J. Warren Wolski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE112009000949T5 publication Critical patent/DE112009000949T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Verfahren zur Detektion eines freien Pfads für ein Fahrzeug unter Verwendung einer Kamera, das umfasst, dass:
ein Bodenbereich vor dem Fahrzeug mit der Kamera abgebildet wird, um ein Bodenbild zu erzeugen; und
das Bodenbild analysiert wird, um einen freien Pfad zu formulieren, der frei von Objekten ist, die die Fahrt des Fahrzeugs einschränken, umfassend, dass
iterativ ein Komponentenstück des Bodenbilds identifiziert wird,
ein Merkmal von dem Komponentenstück extrahiert wird, und
das Komponentenstück auf der Grundlage des Merkmals klassifiziert wird.

Description

  • TECHNISCHES GEBIET
  • Diese Offenbarung bezieht sich auf eine automatisierte oder halbautomatisierte Steuerung eines Kraftfahrzeugs.
  • HINTERGRUND
  • Die Aussagen in diesem Abschnitt stellen lediglich Hintergrundinformationen bezüglich der vorliegenden Offenbarung bereit und müssen nicht unbedingt Stand der Technik darstellen.
  • Autonome Fahrsysteme und halbautonome Fahrsysteme verwenden Eingänge bezüglich der Straße und andere Fahrbedingungen, um Drossel- und Lenkmechanismen automatisch zu steuern. Eine genaue Schätzung und Projektion eines freien Pfads, auf dem das Fahrzeug betrieben werden soll, ist hinsichtlich eines erfolgreichen Ersetzens des menschlichen Gehirns als Steuermechanismus für einen Fahrzeugbetrieb kritisch.
  • Die Straßenbedingungen können komplex sein. Bei normalem Betrieb eines Fahrzeugs macht der menschliche Betreiber Hunderte von Beobachtungen pro Minute und passt er den Betrieb des Fahrzeugs auf der Grundlage von wahrgenommenen Straßenbedingungen an. Ein Aspekt des Wahrnehmens von Straßenbedingungen ist die Wahrnehmung der Straße im Kontext von Objekten auf der und um die Fahrbahn herum und das Fahren auf einem freien Pfad durch jegliche Objekte hindurch. Ein Ersetzen der menschlichen Wahrnehmung durch eine Technologie muss ein Mittel, um Objekte genau wahrzunehmen und mit dem effektiven Navigieren um solche Objekte herum fortzufahren, umfassen.
  • Ein technologisches Mittel zum Wahrnehmen eines Objekts umfasst Daten von visuellen Kameras und eine Radarbilderfassung. Kameras übersetzen visuelle Bilder in Form von Strahlung, wie beispielsweise Lichtmuster oder Infrarotsignaturen, in ein lesbares Datenformat. Ein solches Datenformat umfasst Pixel-Bilder, wobei eine wahrgenommene Szene in eine Reihe von Pixeln zerlegt wird. Eine Radarbilderfassung verwendet Funkwellen, die durch einen Sender erzeugt werden, um Formen und Objekte, die vor dem Sender vorhanden sind, zu schätzen. Muster in den Wellen, die von diesen Formen und Objekten reflektiert werden, können analysiert werden und die Orte von Objekten können geschätzt werden.
  • Sobald Daten bezüglich des Bodens vor dem Fahrzeug erzeugt wurden, müssen die Daten analysiert werden, um das Vorhandensein von Objekten aus den Daten zu schätzen. Es sind Verfahren zum Prüfen von Pixeln hinsichtlich eines Vergleichens eines Kontrast zwischen Pixeln, beispielsweise eines Identifizierens von Linien und Formen in den Pixeln und einer Mustererkennung, wobei ein Prozessor nach erkennbaren Formen zum Schätzen eines durch die Formen dargestellten Objekts suchen kann, bekannt. Unter Verwendung von Kameras und Radarbilderfassungssystemen können der Boden und die Fahrbahn vor dem Fahrzeug hinsichtlich des Vorhandenseins von Objekten, die vermieden werden müssten, abgesucht werden. Die ledigliche Identifikation von potentiellen Objekten, die vermieden werden müssen, führt jedoch nicht die Analyse aus. Eine wichtige Komponente jedes autonomen Systems umfasst die Tatsache, wie in den wahrgenommenen Bodendaten identifizierte potentielle Objekte verarbeitet und verändert werden, um einen freien Pfad zu identifizieren, auf dem das Fahrzeug betrieben werden soll.
  • Ein bekanntes Verfahren zum Bilden eines freien Pfads, auf dem das Fahrzeug betrieben werden soll, ist, alle wahrgenommenen Objekte zu katalogisieren und vorläufig zu identifizieren und hinsichtlich der Orte und Verhalten von identifizierten Objekten einen freien Pfad zu bilden. Es können Bilder verarbeitet werden, um Objekte gemäß ihrer Form und Beziehung zu der Fahrbahn zu identifizieren und zu klassifizieren. Während dieses Verfahren beim Bilden eines freien Pfads effektiv sein kann, erfordert es eine große Menge an Verarbeitungsleistung, wobei die Erkennung und Trennung verschiedener Objekte in dem visuellen Bild, beispielsweise ein Unterscheiden zwischen einem Baum an der Seite der Straße und einem Fußgänger, der in Richtung Randstein geht, erforderlich ist. Solche Verfahren können beim Verarbeiten komplexer Situationen langsam oder uneffektiv sein oder können unhandliche und teure Geräte erfordern, um die notwendige Verarbeitungskapazität zu liefern.
  • ZUSAMMENFASSUNG
  • Ein Verfahren zur Detektion eines freien Pfads für ein Fahrzeug unter Verwendung einer Kamera umfasst ein Abbilden eines Bodenbereichs vor dem Fahrzeug mit der Kamera zum Erzeugen eines Bodenbilds und ein Analysieren des Bodenbilds zum Formulieren eines freien Pfads, der frei von Objekten ist, die die Fahrt des Fahrzeugs einschränken, was umfasst, dass iterativ ein Komponentenstück des Bodenbilds identifiziert wird, ein Merkmal von dem Komponentenstück extrahiert wird und das Komponentenstück auf der Grundlage des Merkmals klassifiziert wird.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Nachstehend werden eine oder mehrere Ausführungsformen beispielhaft in Bezug auf die begleitenden Zeichnungen beschrieben, wobei:
  • 1 eine beispielhafte Anordnung eines Fahrzeugs, das mit einer Kamera und einem Radarbilderfassungssystem ausgestattet ist, gemäß der Offenbarung zeigt;
  • 2 ein bekanntes Verfahren zum Ermitteln eines freien Pfads zum autonomen Fahren gemäß der Offenbarung zeigt;
  • 3 ein beispielhaftes Verfahren zum Ermitteln eines freien Pfads unter Verwendung einer Wahrscheinlichkeitsanalyse eines Bilds gemäß der Offenbarung zeigt;
  • 4 ein beispielhaftes Verfahren zum Analysieren eines Bilds gemäß der Offenbarung zeigt;
  • 5 ein beispielhaftes Verfahren zum Definieren eines Klassifizierungsfehlers durch Abstimmen eines einzelnen Schwellenwerts gemäß der Offenbarung zeigt;
  • 6A, 6B und 6C eine beispielhafte Ermittlung einer Bilddifferenz durch Berechnen einer absoluten Bildintensitätsdifferenz gemäß der Offenbarung zeigen;
  • 7 ein beispielhaftes Verfahren zum Klassifizieren eines Merkmals als Abschnitt eines freien Pfads und gleichzeitig als detektiertes Objekt als Verfahren zur Bildanalyse gemäß der Offenbarung zeigt;
  • 8 ferner ein beispielhaftes Verfahren zum Klassifizieren eines Merkmals als Abschnitt eines freien Pfads und gleichzeitig als detektiertes Objekt als Verfahren zur Bildanalyse gemäß der Offenbarung zeigt; und
  • 9 einen beispielhaften Prozess zum Analysieren eines Bilds über eine Wahrscheinlichkeitsanalyse gemäß der Offenbarung zeigt.
  • DETAILLIERTE BESCHREIBUNG
  • Nun auf die Zeichnungen Bezug nehmend, in denen die Darstellungen lediglich dem Zweck des Erläuterns bestimmter beispielhafter Ausführungsformen und nicht dem Zweck des Einschränkens dieser dienen, zeigt 1 eine beispielhafte Anordnung einer Kamera 110, die an der Front eines Fahrzeugs 100 angeordnet ist und auf den Boden vor dem Fahrzeug 100 gerichtet ist, gemäß der Offenbarung. Die Kamera 110 steht mit dem Steuermodul 120 in Kommunikation, das eine Logik enthält, um Eingänge von der Kamera 110 zu verarbeiten. Das Fahrzeug 100 kann auch mit einem Radarbilderfassungssystem 130 ausgestattet sein, das, wenn es vorhanden ist, auch mit dem Steuermodul 120 in Kommunikation steht. Fachleute werden erkennen, dass das Fahrzeug 100 zusätzlich zu der Verwendung der Kamera 110 und des Radarbilderfassungssystems, oder alternativ dazu, eine Anzahl von Verfahren zum Identifizieren von Straßenbedingungen verwenden könnte, die eine GPS-Information, eine Information von anderen Fahrzeugen, die mit dem Fahrzeug 100 in Kommunikation stehen, Verlaufsdaten hinsichtlich der bestimmten Fahrbahn, eine biometrische Information, wie beispielsweise Systeme, die den Blickpunkt des Fahrers lesen, oder andere ähnliche Systeme umfassen. Die bestimmte Anordnung und Verwendung von Einrichtungen, die zum Analysieren von Straßendaten und Erweitern der Analyse von visuellen Bildern verwendet werden, soll nicht durch die hierin beschriebenen beispielhaften Ausführungsformen beschränkt werden.
  • Wie zuvor erwähnt zeigt 2 ein bekanntes Verfahren zum Ermitteln eines freien Pfads zum autonomen Fahren gemäß der Offenbarung. Entsprechend der Fahrbahn vor dem Fahrzeug 100 wird ein Bild 10 erzeugt. In einem von verschiedenen Verfahren werden die Objekte 40A, 40B und 40C im Bild 10 identifiziert und wird jedes Objekt gemäß einer Filterung und trainierten Objektverhalten kategorisiert und klassifiziert. Eine separate Behandlung jedes Objekts kann rechenintensiv sein und erfordert teure und unhandliche Geräte zum Bewältigen der Rechenlast. Ein Algorithmus verarbeitet alle verfügbaren Informationen bezüglich der Fahrbahn und der Objekte 40 zum Schätzen eines für das Fahrzeug 100 verfügbaren freien Pfads. Die Ermittlung des freien Pfads hängt von den bestimmten Klassifizierungen und Verhalten der identifizierten Objekte 40 ab.
  • 3 zeigt ein beispielhaftes Verfahren zum Ermitteln eines freien Pfads für ein autonomes oder halbautonomes Fahren gemäß der Offenbarung. Das Bild 10 ist als einen Boden 20, einen Horizont 30 und Objekte 40 umfassend gezeigt. Das Bild 10 wird durch die Kamera 110 erfasst und stellt die Straßenumgebung vor dem Fahrzeug 100 dar. Der Boden 20 stellt die Zone aller verfügbaren Pfade, die für eine Fahrt offen sind, ohne Unterscheidung auf der Grundlage von Objekten, die vorhanden sein könnten, dar. Das Verfahren von 3, das einen freien Pfad auf dem Boden 20 ermittelt, beginnt durch die Annahme, dass der gesamte Boden 20 frei ist, und verwendet dann verfügbare Daten, um Abschnitte des Bodens 20 als nicht frei auszuschließen. Im Gegensatz zu dem Verfahren von 2, das jedes Objekt 40 klassifiziert, analysiert das Verfahren von 3 stattdessen den Boden 20 und versucht es, aus verfügbaren Daten eine Wahrscheinlichkeit zu definieren, dass eine detektierbare Abweichung, die das Objekt 40 darstellen kann, diesen Abschnitt des Bodens 20 einschränkt oder nicht frei macht. Dieser Fokus auf den Boden 20 anstatt auf die Objekte 40 vermeidet die mit dem Verwalten der Detektion der Objekte in Verbindung stehenden komplexen Rechen-Tasks. Eine individuelle Klassifizierung und Verfolgung einzelner Objekte ist unnötig, da die einzelnen Objekte 40 einfach als Teil der gesamten einheitlichen Einschränkung auf dem Boden 20 miteinander gruppiert werden. Der Boden 20, der oben als alle zum Fahren offene Pfade ohne Unterscheidung beschrieben ist, minus die Einschränkungen, die auf dem Boden 20 durch als nicht frei befundene Bereiche angeordnet sind, definieren einen freien Pfad 50, wie in 3 gezeigt, der als der Bereich innerhalb der gestrichelten Linien gezeigt ist, oder einen Bereich, der mit einer Schwellenwertwahrscheinlichkeit für eine Fahrt des Fahrzeugs 100 offen ist.
  • Das Objekt 40, das auf dem Boden 20 nicht freie Einschränkungen erzeugt, kann viele Formen annehmen. Beispielsweise kann ein Objekt 40 ein diskretes Objekt darstellen, wie beispielsweise ein geparktes Auto, einen Fußgänger oder ein Straßenhindernis, oder kann ein Objekt 40 auch eine weniger diskrete Änderung der Flächenmuster darstellen, die einen Rand zu einer Straße angibt, wie beispielsweise einen Bordstein, eine Seitenbegrenzung zur Wiese oder Wasser, das die Fahrbahn bedeckt. Das Objekt 40 kann auch ein Nichtvorhandensein einer mit dem Boden 20 in Verbindung stehenden ebenen Straße umfassen, wie es beispielsweise bei einem großen Loch in der Straße detektiert werden könnte. Das Objekt 40 kann ferner einen Indikator ohne irgendeine definierbare Höhenänderung von der Straße, jedoch mit klaren Auswirkungen auf einen freien Pfad für dieses Segment der Straße, wie beispielsweise ein Farbmuster auf der Fahrbahn, das eine Spurmarkierung angibt, umfassen. Das hierin offenbarte Verfahren, das nicht versucht, ein Objekt 40 zu identifizieren, sondern lediglich visuelle Hinweise von dem Boden 20 und allem in der Nähe des Bodens in dem Bild 10 aufzunehmen, bewertet eine Wahrscheinlichkeit von frei gegenüber nicht frei und passt die Steuerung des Fahrzeugs 100 für das Vorhandensein jedes Objekts 40 an.
  • Das Steuermodul 120 ist vorzugsweise ein digitaler Universalrechner, der im Allgemeinen einen Mikroprozessor oder eine zentrale Verarbeitungseinheit, Speichermedien mit einem nicht flüchtigen Speicher mit einem Nurlesespeicher (ROM) und einem elektrisch programmierbaren Nurlesespeicher (EPROM), einen Direktzugriffsspeicher (RAM), einen Hochgeschwindigkeitstakt, einen Analog-Digital-(A/D-) und einen Digital-Analog-(D/A-)Schaltkreis und einen Eingabe/Ausgabe-Schaltkreis und Eingabe/Ausgabe-Einrichtungen (I/O) und einen geeigneten Signalkonditionierungs- und -pufferschaltkreis umfasst. Das Steuermodul 120 weist einen Satz von Steueralgorithmen auf, die in dem nicht flüchtigen Speicher gespeicherte residente Programmanweisungen und Kalibrierungen umfassen und ausgeführt werden, um die jeweiligen Funktionen des Steuermoduls bereitzustellen. Die Algorithmen werden typischerweise während voreingestellter Schleifenzyklen ausgeführt, so dass jeder Algorithmus mindestens einmal in jedem Schleifenzyklus ausgeführt wird. Die Algorithmen werden durch die zentrale Verarbeitungseinheit ausgeführt und dienen dazu, Eingänge von den zuvor genannten Erfassungseinrichtungen zu überwachen und Steuer- und Diagnoseroutinen auszuführen, um den Betrieb der Aktoren zu steuern, wobei voreingestellte Kalibrierungen verwendet werden. Schleifenzyklen werden typischerweise in regelmäßigen Intervallen ausgeführt, zum Beispiel alle 3,125, 6,25, 12,5, 25 und 100 Millisekunden während eines laufenden Fahrzeugbetriebs. Alternativ können Algorithmen in Ansprechen auf ein Stattfinden eines Ereignisses ausgeführt werden.
  • Das Steuermodul 120 führt einen darin gespeicherten algorithmischen Code aus, um in Beziehung stehende Geräte, wie beispielsweise die Kamera 110 und das Radarbilderfassungssystem 130, zu überwachen und Befehle oder Datenübertragungen wie durch die Analyse, die in dem Steuermodul durchgeführt wird, angegeben auszuführen. Das Steuermodul 120 kann Algorithmen und Mechanismen zum Betätigen einer autonomen Fahrsteuerung durch Mittel, die in der Technik bekannt und hierin nicht beschrieben sind, umfassen, oder das Steuermodul 120 kann einfach eine Information an ein separates autonomes Fahrsystem liefern. Das Steuermodul 120 ist geeignet, um in Abhängigkeit von der genauen Ausführungsform, die in Verbindung mit dem Steuermodul verwendet wird, nach Bedarf Eingangssignale von anderen Systemen und dem Bediener zu empfangen.
  • Die Kamera 110 ist eine Einrichtung, die in der Technik weithin bekannt ist und visuelle Eingänge in Form von Licht, Infrarot- oder einer anderen elektromagnetischen Strahlung (EM-Strahlung) in ein Datenformat übersetzen kann, das leicht analysiert werden kann, z. B. ein Pixel-Bild. Die Radarbilderfassungseinrichtung 130 ist eine in der Technik weithin bekannte Einrichtung, die einen Sender, der Funkwellen oder eine andere EM-Strahlung aussenden kann, eine Empfängereinrichtung, die die ausgesendeten Wellen erfassen kann, die von Objekten vor dem Sender zu dem Empfänger zurückreflektiert werden, und ein Mittel zum Übertragen der erfassten Wellen in ein Datenformat umfasst, das analysefähig ist und beispielsweise die Entfernung und den Winkel von den Objekten, von denen die Wellen reflektiert wurden, angibt.
  • Es sind zahlreiche Verfahren für eine automatisierte Analyse von zweidimensionalen Bildern (2D-Bildern) möglich. Durch einen Algorithmus in dem Steuermodul 120 wird eine Analyse des Bilds 10 durchgeführt. 4 zeigt ein beispielhaftes Verfahren, das angewandt werden kann, um das Bild 10 gemäß der Offenbarung zu analysieren. Dieses Verfahren unterteilt das Bild 10 und identifiziert ein Subbild oder ein Stück 60 des Bodens 20 für eine Analyse, extrahiert Merkmale oder analysiert die verfügbare visuelle Information von dem Stück 60, um irgendwelche interessierenden oder unterscheidenden Merkmale innerhalb des Stücks zu identifizieren, und klassifiziert das Stück gemäß der Wahrscheinlichkeit, dass es gemäß der Analyse der Merkmale ein freier Pfad ist. Die Stücke, die mit einer Wahrscheinlichkeit, die größer als ein bestimmter Schwellenwert ist, als frei klassifiziert werden, und eine Zusammenstellung der Stücke können verwendet werden, um einen freien Pfad in dem Bild zusammenzusetzen.
  • Das Stück 60 kann, als ein Subbild des Bilds 10, durch ein beliebiges bekanntes Mittel identifiziert werden, wie beispielsweise eine Zufallssuche oder eine Scharsuche des Bilds 10. Alternativ kann eine Information bezüglich des Vorhandenseins eines Objekts 40, die von einer anderen Informationsquelle, wie beispielsweise dem Radarbilderfassungssystem 130, verfügbar ist, verwendet werden, um ein Stück zu identifizieren, um den Abschnitt des Bilds 10 zu analysieren, der das Objekt 40 beschreiben sollte. Das Bild 10 kann viele Stücke 60 zum Analysieren des gesamten Bilds erfordern. Ferner könnten mehrere sich überlagernde Stücke oder Stücke verschiedener Größe verwendet werden, um ein Gebiet des Bilds 10, das eine interessierende Information enthält, vollständig zu analysieren. Beispielsweise könnte ein kleines Stück 60 verwendet werden, um einen kleinen Punkt auf der Straße zu analysieren; es könnte jedoch ein großes Stück 60 erforderlich sein, um eine Reihe von Punkten zu analysieren, die allein uninteressant scheinen könnten, jedoch im Kontext der gesamten Reihe ein interessierendes Objekt 40 angeben könnten. Ferner kann die Auflösung von Stücken, die auf einen bestimmten Bereich angewandt werden, auf der Grundlage einer verfügbaren Information moduliert werden, wobei beispielsweise mehrere Stücke auf ein Gebiet des Bilds 10 angewandt werden, von dem geglaubt wird, dass ein Objekt 40 in ihm existiert. Es können viele Schemas oder Strategien zum Definieren der Stücke 60 für eine Analyse verwendet werden, und die Offenbarung soll nicht auf die hierin beschriebenen spezifischen Ausführungsformen beschränkt sein.
  • Sobald ein Stück 60 für eine Analyse identifiziert wurde, verarbeitet das Steuermodul 120 das Stück durch eine Anwendung eines Filters zum Extrahieren von Merkmalen aus dem Stück. Ferner kann das Steuermodul 120 eine Analyse des Orts des Stücks in dem Kontext des Orts des Fahrzeugs durchführen. Die verwendeten Filter können viele Formen annehmen. Die Filteralgorithmen, die zum Extrahieren von Merkmalen verwendet werden, durchsuchen die verfügbare visuelle Information hinsichtlich charakteristischer Muster in den Daten, wobei die Merkmale durch eine Spurausrichtung, einen Spurort, eine Farbe, Eckeneigenschaften, andere visuelle Attribute und gelernte Attribute definiert sind. Die Merkmalsidentifikationsalgorithmen können auf sequentielle Bilder angewandt werden, um Änderungen entsprechend der Fahrzeugbewegung zu detektieren, wobei Änderungen, die nicht einer Bodenbewegung zugeordnet sind, nicht als freier Pfad identifiziert werden können. Die gelernten Attribute können durch Maschinenlernalgorithmen in dem Fahrzeug gelernt werden, werden aber zumeist offline programmiert und können experimentell, empirisch, prädiktiv, durch Modellerstellung oder andere Techniken entwickelt werden, die geeignet sind, um unterscheidende Attribute genau zu trainieren.
  • Sobald Merkmale in dem Stück 60 extrahiert wurden, wird das Stück auf der Grundlage der Merkmale klassifiziert, um die Wahrscheinlichkeit zu ermitteln, dass das Stück ein freier Pfad ist. Eine Wahrscheinlichkeitsanalyse ist ein in der Technik bekannter Prozess, durch den ein Wahrscheinlichkeitswert oder eine Konfidenz entwickelt wird, dass eine bestimmte Bedingung existiert. Bei einer Anwendung auf die vorliegende Offenbarung umfasst eine Klassifizierung eine Wahrscheinlichkeitsanalyse, um zu ermitteln, ob das Stück einen freien Pfad darstellt oder ob der Boden 20 in diesem Stück durch ein Objekt 40 eingeschränkt ist. Bei einer beispielhaften Ausführungsform wird die Klassifizierung durch eine Anwendung von Klassifizierern oder Algorithmen durchgeführt, die mit einer Datenbank von beispielhaften Straßenbedingungen und Interaktionen mit detektierten Objekten trainiert werden. Diese Klassifizierer ermöglichen dem Steuermodul 120, einen Bruch-Wahrscheinlichkeitswert eines freien Pfads für das Stück 60 zu entwickeln, wobei eine Konfidenz zwischen Null und Eins, dass die in dem Stück identifizierten Merkmale kein einschränkendes Objekt 40 angeben, das eine freie Fahrt des Fahrzeugs 100 verhindern würde, quantitativ bestimmt wird. Es kann eine Schwellenwertkonfidenz festgelegt werden, die die Wahrscheinlichkeit eines freien Pfads definiert, die erforderlich ist, um das Stück als freien Pfad zu definieren, und zwar beispielsweise durch die folgende Logik: Konfidenz = WahrscheinlichkeitFreierPfad(i) Wenn_Konfidenz > 0,5, dann_Stück = freierPfad (1)
  • Bei dieser bestimmten beispielhaften Ausführungsform wird eine Konfidenz von 50% oder 0,5 als Schwellenwertkonfidenz ausgewählt. Diese Zahl kann experimentell, empirisch, prädiktiv, über Modellerstellung oder andere Techniken, die zum genauen Bewerten von Stücken hinsichtlich Eigenschaften eines freien Pfads geeignet sind, entwickelt werden.
  • Die Wahrscheinlichkeitsanalyse kann wie oben erwähnt bei einer beispielhaften Ausführungsform durch Anwenden von trainierten Klassifizierern auf aus einem Stück extrahierte Merkmale durchgeführt werden. Ein Verfahren analysiert die Merkmale a priori unter Verwendung eines Trainingsbildsatzes. In dieser Trainingsstufe werden unterscheidende Merkmale aus einem rohen Merkmalssatz ausgewählt, wobei die unterscheidenden Merkmale durch in der Technik bekannte Verfahren, wie beispielsweise Haar-Wavelet, Gabor-Wavelet und Leung-und-Malik-Filterbank, definiert werden. Ferner kann eine 2D-Bildortsinformation auf der Grundlage minimaler Klassifizierungsfehler jedes Merkmals, berechnet als die Summe einer Falschakzeptanzrate (FAR) und einer Falschrückweisungsrate (FRR), durch Abstimmen eines einzelnen Schwellenwerts verwendet werden, wie es in 5 gezeigt ist. Dieser Klassifizierungsfehler kann durch den folgenden Ausdruck beschrieben werden: Klassifizierungsfehler(i) = FARi + FRRi (2)
  • Die Information von den trainierten Klassifizierern wird verwendet, um das Merkmal als einen freien Pfad oder einen nicht freien Pfad angebend zu klassifizieren oder zu gewichten, wobei die bestimmte Klassifizierung von der Stärke von Vergleichen mit den trainierten Daten abhängt. Die Klassifizierung des Merkmals kann, wenn das Merkmal das einzige Merkmal in dem Stück ist, direkt auf das Stück angewandt werden. Die Klassifizierung eines Stücks mit mehreren identifizierten Merkmalen kann viele Formen annehmen, die umfassen, dass das Stück durch das umfasste Merkmal definiert wird, das am stärksten darauf hinweist, dass das Stück nicht frei ist, oder dass das Stück durch eine gewichtete Summe aller darin umfasster Merkmale definiert wird.
  • Das obige Verfahren kann verwendet werden, um ein einzelnes Bild 10 zu prüfen und auf der Grundlage der visuellen Information, die in dem Bild 10 enthalten ist, einen freien Pfad 50 zu schätzen. Dieses Verfahren kann mit einem Intervall wiederholt werden, wenn das Fahrzeug die Straße entlangfährt, um neue Informationen zu berücksichtigen und den formulierten freien Pfad auf einen Bereich vor der neuen Position des Fahrzeugs zu erweitern. Die Wahl des Intervalls muss das Bild 10 mit einer ausreichenden Häufigkeit aktualisieren, um dem Fahrzeug 100 einen freien Pfad genau bereitzustellen, auf dem es fahren kann. Das Intervall kann jedoch auch als ein Minimalwert gewählt werden, um das Fahrzeug geeignet zu steuern, die dem Steuermodul 120 auferlegte Rechenlast jedoch auch nicht übermäßig zu erhöhen.
  • Die Detektion eines freien Pfads kann wie oben beschrieben durch ein einzelnes Bild 10 erreicht werden. Mit dem Hinzufügen eines zweiten Bilds, das zeitlich nahe an dem ursprünglichen Bild aufgenommen wird, wie beispielsweise sequentielle Bilder von einem Streaming-Video-Clip, können jedoch die Verarbeitungsgeschwindigkeit und die Genauigkeit verbessert werden. Ein zweites Bild ermöglicht einen direkten Vergleich mit dem ersten und sorgt für eine aktualisierte Information hinsichtlich des Verlaufs des Fahrzeugs und der Bewegung von detektierten Objekten. Die Änderung der Perspektive der Kamera 110 ermöglicht auch eine andere Analyse von Merkmalen von dem ersten Bild: ein Merkmal, das in dem ersten Bild möglicherweise nicht deutlich auftauchte oder undeutlich war, kann unter einem anderen Kamerawinkel angezeigt werden, kann deutlicher auffallen oder kann sich seit dem ersten Bild bewegt haben, was dem Klassifizierungsalgorithmus eine zusätzliche Möglichkeit zum Definieren des Merkmals ermöglicht.
  • Ein Verarbeiten eines zweiten Bilds in Bezug auf das ursprüngliche Bild 10 kann durch Berechnen einer Bilddifferenz durchgeführt werden. Wenn die Bilddifferenz eines interessierenden Punkts, wie beispielsweise eines durch Radar identifizierten Merkmals, nicht Null ist, kann der Punkt als eine neue Information umfassend identifiziert werden. Punkte, bei denen die Bilddifferenz gleich Null ist, können bei der Analyse weggelassen werden, und Rechenressourcen können eingespart werden. Verfahren zum Ermitteln einer Bilddifferenz umfassen eine absolute Bildintensitätsdifferenz und eine fahrzeugbewegungskompensierte Bilddifferenz.
  • Ein Ermitteln einer Bilddifferenz durch Berechnen einer absoluten Bildintensitätsdifferenz kann verwendet werden, um eine Information zwischen zwei Bildern zu sammeln. Ein Verfahren einer absoluten Bildintensitätsdifferenz umfasst das Ermitteln äquivalenter Bildeigenschaften zwischen dem ursprünglichen Bild und dem zweiten Bild, um eine Bewegung des Fahrzeugs zwischen den Bildern zu kompensieren, das Überlagern der Bilder und das Notieren jeder signifikanten Änderung der Intensität zwischen den Bildern. Ein Vergleich zwischen den Bildern, der eine Änderung der Bildintensität in einem bestimmten Bereich angibt, enthält eine neue Information. Bereichen oder Stücken, die keine Intensitätsänderung anzeigen, kann bei der Analyse weniger Aufmerksamkeit geschenkt werden, wohingegen man sich auf Bereiche konzentrieren kann, die deutliche Intensitätsänderungen anzeigen, wobei die zuvor genannten Verfahren zum Analysieren von Stücken an einem oder beiden erfassten Bildern verwendet werden.
  • 6A, 6B und 6C zeigen eine beispielhafte Ermittlung einer Bilddifferenz durch Berechnen einer absoluten Bildintensitätsdifferenz gemäß der Offenbarung. 6A zeigt ein ursprüngliches Bild. 6B zeigt ein zweites Bild mit Änderungen zu dem ursprünglichen Bild. Im Speziellen hat sich die gezeigte Kreisform nach links verschoben. Ein Vergleich der beiden Bilder wie in 6C gezeigt, ein Ausgang, der das Ergebnis eines Vergleichs einer absoluten Bildintensitätsdifferenz darstellt, identifiziert ein Gebiet, das von dem ersten Bild zu dem zweiten Bild dunkler geworden ist, und ein anderes Gebiet, das von dem ersten Bild zu dem zweiten Bild heller geworden ist. Eine Analyse des Vergleichs liefert die Information, dass in diesem Gebiet der Bilder wahrscheinlich eine Änderung als Ergebnis einer Bewegung oder eine Änderung der Perspektive vorliegt. Auf diese Weise kann eine absolute Bildintensitätsdifferenz verwendet werden, um ein Paar von sequentiellen Bildern zum Identifizieren eines potentiell nicht freien Pfads zu analysieren.
  • Ähnlich kann ein Ermitteln einer Bilddifferenz durch Berechnen einer fahrzeugbewegungskompensierten Bilddifferenz verwendet werden, um eine Information zwischen zwei Bildern zu erfassen. Es sind viele Verfahren zum Berechnen einer fahrzeugbewegungskompensierten Bilddifferenz bekannt. Ein beispielhaftes Verfahren einer fahrzeugbewegungskompensierten Bilddifferenz umfasst das gleichzeitige Analysieren eines potentiellen Objekts als sowohl ein stationärer Abschnitt eines freien Pfads als auch ein detektiertes Objekt. Es wird eine Wahrscheinlichkeitsanalyse an Merkmalen durchgeführt, die entsprechend dem potentiellen Objekt aus beiden Klassifizierungen gleichzeitig identifiziert werden, und die Klassifizierungen können beispielsweise durch die folgende Logik verglichen werden: Konfidenz(i) = = WahrscheinlichkeitFreierPfad(i) – WahrscheinlichkeitDetektiertesObjekt(i) Wenn_Konfidenz > 0, dann_Stück = freierPfad (3)
  • Wenn bei diesem beispielhaften Vergleich Konfidenz(i) größer als Null ist, wird das Stück, das das Merkmal enthält, als freier Pfad klassifiziert. Wenn Konfidenz(i) kleiner oder gleich Null ist, wird das Stück, das das Merkmal enthält, als nicht freier Pfad oder eingeschränkt klassifiziert. Es können jedoch verschiedene Werte für das Konfidenzniveau zum Klassifizieren des Stücks als freier Pfad ausgewählt werden. Beispielsweise kann ein Testen zeigen, dass falsche positive Ergebnisse wahrscheinlicher sind als falsche negative Ergebnisse, und somit kann ein Faktor oder Offset eingeführt werden.
  • 7 zeigt ein Verfahren zum gleichzeitigen Klassifizieren eines Merkmals als Abschnitt eines freien Pfads und als detektiertes Objekt, wie es oben gemäß der Offenbarung beschrieben ist. Das Bild 10 umfasst das Objekt 40, eine trapezförmige Projektion 70 und eine rechteckige Projektion 80. Dieses Verfahren verwendet eine Annahme, die das Objekt 40 innerhalb der Projektion 70 als flaches Objekt auf den Boden projiziert, um die Klassifizierung des Merkmals als Abschnitt eines freien Pfads zu testen. Das Verfahren verwendet auch eine Annahme, die das Objekt 40 innerhalb der rechteckigen Projektion 80 als vertikales Objekt projiziert, um die Klassifizierung des Merkmals als ein detektiertes Objekt zu testen. 8 zeigt Vergleiche, die mit den gesammelten Daten zwischen den beiden Bildern gezogen werden, zum Bewerten der Natur des Objekts 40 gemäß der Offenbarung. Die Kamera 110 beobachtet und erfasst zum Zeitpunkt t1 Daten von dem Objekt 40 in Form eines ersten Bilds. Wenn das Objekt 40 ein tatsächliches detektiertes Objekt ist, entspricht das durch die Kamera 110 beobachtete Profil des Objekts 40 zum Zeitpunkt t1 einem Punkt 90A. Wenn das Objekt 40 ein flaches Objekt in der gleichen Ebene wie der Boden 20 ist, entspricht das durch die Kamera 110 beobachtete Profil des Objekts 40 zum Zeitpunkt t1 einem Punkt 90B. Zwischen den Zeitpunkten t1 und t2 bewegt sich die Kamera 110 eine Distanz. Zum Zeitpunkt t2 wird ein zweites Bild erfasst, und eine Information bezüglich des Objekts 40 kann durch Anwenden eines Algorithmus getestet werden, der sichtbare Attribute des Objekts in dem zweiten Bild im Vergleich zu dem ersten Bild betrachtet. Wenn das Objekt 40 ein tatsächliches detektiertes Objekt ist, das sich von dem Boden 20 nach oben erstreckt, wird zum Zeitpunkt t2 das Profil des Objekts 40 bei Punkt 90C beobachtet. Wenn das Objekt 40 ein flaches Objekt in der gleichen Ebene wie der Boden 20 ist, wird das Profil des Objekts 40 zum Zeitpunkt t2 bei Punkt 90B beobachtet. Der durch die fahrzeugbewegungskompensierte Bilddifferenz abgeleitete Vergleich kann durch Anwendung von Klassifizierern auf der Grundlage der Beobachtungen der Punkte 90 direkt eine Konfidenz zuordnen, oder der Vergleich kann einfach auf den Bereich hinweisen, der die Änderung als interessierenden Punkt anzeigt. Ein Testen des Objekts hinsichtlich beider Klassifizierungen, als flaches Objekt und als tatsächliches detektiertes Objekt, ermöglicht entweder, dass der Bereich, der das Objekt 40 umfasst, für eine weitere Analyse durch eine Analyse eines Stücks wie oben beschrieben identifiziert wird, oder eine direkte Entwicklung einer Wahrscheinlichkeit eines freien Pfads und einer Wahrscheinlichkeit eines detektierten Objekts zum Vergleich, wie beispielsweise in dem obigen logischen Ausdruck (2).
  • Die aus der Analyse des zweiten Bilds verfügbare Information kann zusätzlich durch Integration einer Information bezüglich einer Bewegung des Fahrzeugs, wie beispielsweise Drehzahl und Gierrate, verbessert werden. Eine Information bezüglich der Fahrzeugbewegung steht von einer Anzahl von Quellen zur Verfügung, die den Fahrzeuggeschwindigkeitsmesser, Antiblockiermechanismen und GPS-Ortssysteme umfassen. Die Algorithmen können diese Fahrzeugbewegungsinformation beispielsweise in Verbindung mit den in 7 und 8 beschriebenen Projektionen verwenden, um Winkel, die bei einem Merkmal vorliegen sollten, das flach auf dem Boden liegt, im zweiten Bild auf der Grundlage von Daten von dem ersten Bild und der gemessenen Bewegung des Fahrzeugs zwischen den Bildern zu projizieren.
  • Die Anzahl von Bildern, die für einen Vergleich verwendet werden, muss nicht auf Zwei begrenzt sein. Es kann eine Mehrbildanalyse mit mehreren Iterationen durchgeführt werden, wobei ein Objekt über eine Anzahl von Zyklen verfolgt und verglichen wird. Wie oben erwähnt kann die Recheneffizienz erhöht werden, indem eine Bilddifferenzanalyse zum Identifizieren von interessierenden Punkten verwendet wird und Bereiche mit einer Differenz von Null bei den nachfolgenden Analysen weggelassen werden. Solche Effizienzen können bei mehreren Iterationen verwendet werden, wobei beispielsweise nur zwischen einem ersten und einem zweiten Bild identifizierte interessierende Punkte in dem dritten und vierten aufgenommenen Bild analysiert werden. An einer Stelle muss ein frischer Satz von Bildern verglichen werden, um sicherzustellen, dass in keinem der Bereiche, die eine Differenz von Null zeigen, eine Änderung aufgetreten ist, wie beispielsweise ein sich bewegendes Objekt, das auf einem zuvor freien Pfad auftaucht. Die Verwendung von Bilddifferenzanalysen und fokussierten Analysen, wobei mit einer Änderung von Null identifizierte Bereiche weggelassen werden, variiert von Anwendung zu Anwendung und kann zwischen verschiedenen Betriebsbedingungen, wie beispielsweise Fahrzeuggeschwindigkeit oder wahrgenommene Betriebsumgebung, variieren. Die spezielle Verwendung der Bilddifferenzanalysen und der fokussierten Analysen kann viele verschiedene Ausführungsformen umfassen, und die Offenbarung soll nicht auf die hierin beschriebenen spezifischen Ausführungsformen beschränkt sein.
  • 9 zeigt einen beispielhaften Prozess 200, bei dem ein Eingang von einer Kamera analysiert wird, um eine Wahrscheinlichkeit eines freien Pfads zu ermitteln, gemäß der Offenbarung. In Schritt 202 wird ein Kameraeingang in Form eines Bilds erzeugt. In Schritt 204 wird aus dem Bild ein Stück für eine Analyse ausgewählt. Schritt 206 stellt ein Filter oder einen Satz von Filtern, die zum Verarbeiten des Stücks zur Verfügung stehen, dar. In Schritt 208 wird an dem ausgewählten Pfad durch Anwendung der Filter, die aus Schritt 206 zur Verfügung stehen, und Anwendung anderer Algorithmen eine Merkmalsextraktion durchgeführt. Schritt 210 umfasst einen Klassifizierertrainingsprozess. Wie oben erwähnt werden Klassifizierer oder eine Logik, die beim Entwickeln von Wahrscheinlichkeitswerten verwendet werden, anfänglich offline trainiert. Auf der Grundlage von Fuzzy-Logik, neuronalen Netzen oder anderen in der Technik bekannten Lernmechanismen kann optional ein Training in dem Fahrzeug fortgeführt werden. Diese trainierten Klassifizierer werden in Schritt 212 verwendet, um an den in Schritt 208 extrahierten Merkmalen eine Wahrscheinlichkeitsanalyse durchzuführen, und es wird ein Wahrscheinlichkeitswert für das Stück entwickelt. Dieser Wahrscheinlichkeitswert drückt eine Konfidenz aus, dass das ausgewählte Stück frei ist. In Schritt 214 wird der in Schritt 212 entwickelte Wahrscheinlichkeitswert mit einem Schwellenwertwahrscheinlichkeitswert verglichen. Wenn der Wahrscheinlichkeitswert größer als der Schwellenwert ist, wird das Stück in Schritt 218 als freier Pfad identifiziert. Wenn der Wahrscheinlichkeitswert nicht größer als der Schwellenwert ist, wird das Stück als nicht freier Pfad identifiziert. Wie oben beschrieben kann der Prozess 200 auf eine Anzahl von Arten wiederholt oder reiteriert werden, wobei das gleiche Bild mit der Auswahl und Analyse von unterschiedlichen Stücken wiederholt analysiert wird, und ein identifiziertes Stück hinsichtlich einer Änderung über einer Anzahl von sequentiellen Bildern verfolgt und analysiert werden kann.
  • Wie oben erwähnt kann das Steuermodul 120 Algorithmen und Mechanismen zum Betätigen einer autonomen Fahrsteuerung durch ein in der Technik bekanntes und hierin nicht beschriebenes Mittel umfassen oder kann das Steuermodul 120 einfach eine Information an ein separates autonomes Fahrsystem liefern. Die Reaktionen auf wahrgenommene Objekte können variieren und umfassen ohne Einschränkung Lenkänderungen, Drosseländerungen, Bremsantworten und dass der Bediener des Fahrzeugs gewarnt wird und dass die Steuerung des Fahrzeugs dem Bediener überlassen wird.
  • Die Offenbarung beschrieb bestimmte bevorzugte Ausführungsformen und Abwandlungen dieser. Weitere Abwandlungen und Änderungen können für Dritte beim Lesen und Verstehen der Beschreibung ersichtlich werden. Daher soll die Offenbarung nicht auf die besondere(n) Ausführungsform(en) beschränkt sein, die als die beste Ausführungsart offenbart ist/sind, die zur Ausführung dieser Offenbarung in Betracht gezogen wird, sondern die Offenbarung soll alle Ausführungsformen umfassen, die in den Schutzumfang der beigefügten Ansprüche fallen.
  • Zusammenfassung
  • Ein Verfahren für eine Detektion eines freien Pfads für ein Fahrzeug unter Verwendung einer Kamera umfasst, dass ein Bodenbereich vor dem Fahrzeug mit der Kamera abgebildet wird, um ein Bodenbild zu erzeugen, und das Bodenbild analysiert wird, um einen freien Pfad zu formulieren, der frei von Objekten ist, die die Fahrt des Fahrzeugs einschränken.

Claims (16)

  1. Verfahren zur Detektion eines freien Pfads für ein Fahrzeug unter Verwendung einer Kamera, das umfasst, dass: ein Bodenbereich vor dem Fahrzeug mit der Kamera abgebildet wird, um ein Bodenbild zu erzeugen; und das Bodenbild analysiert wird, um einen freien Pfad zu formulieren, der frei von Objekten ist, die die Fahrt des Fahrzeugs einschränken, umfassend, dass iterativ ein Komponentenstück des Bodenbilds identifiziert wird, ein Merkmal von dem Komponentenstück extrahiert wird, und das Komponentenstück auf der Grundlage des Merkmals klassifiziert wird.
  2. Verfahren nach Anspruch 1, wobei das Extrahieren eines Merkmals eine Merkmalserkennung auf der Grundlage des Filterns des Komponentenstücks umfasst.
  3. Verfahren nach Anspruch 1, wobei das Klassifizieren umfasst, dass: eine Wahrscheinlichkeit eines freien Pfads für ein Stück ermittelt wird, die eine Bruchkonfidenz, dass das Merkmal kein Objekt ist, das die Fahrt die Fahrzeugs einschränkt, beschreibt; die Wahrscheinlichkeit eines freien Pfads für ein Stück mit einer Schwellenwertkonfidenz eines freien Pfads verglichen wird; das Komponentenstück als frei bezeichnet wird, wenn die Wahrscheinlichkeit eines freien Pfads für ein Stück größer als die Schwellenwertkonfidenz eines freien Pfads ist; und das Komponentenstück als nicht frei bezeichnet wird, wenn die Wahrscheinlichkeit eines freien Pfads für ein Stück nicht größer als die Schwellenwertkonfidenz eines freien Pfads ist.
  4. Verfahren nach Anspruch 3, wobei das Ermitteln einer Wahrscheinlichkeit eines freien Pfads für ein Stück umfasst, dass: eine Datenbank trainierter Klassifizierer verwendet wird, um das Merkmal mit trainierten Modellen zu analogisieren; und dem Merkmal ein Gewicht eines freien Pfads zugeordnet wird.
  5. Verfahren nach Anspruch 3, wobei die Schwellenwertkonfidenz eines freien Pfads im Wesentlichen 0,5 ist.
  6. Verfahren nach Anspruch 1, wobei das Identifizieren des Komponentenstücks umfasst, dass potentielle Objekte mit einem Radarbilderfassungssystem identifiziert werden.
  7. Verfahren nach Anspruch 1, wobei das Identifizieren des Komponentenstücks umfasst, dass: ein zweiter Bodenbereich vor dem Fahrzeug abgebildet wird, um ein zweites Bodenbild zu erzeugen; das zweite Bodenbild mit dem Bodenbild verglichen wird; und auf der Grundlage des Vergleichs ein Komponentenstück definiert wird.
  8. Verfahren nach Anspruch 7, wobei das Vergleichen des zweiten Bodenbilds mit dem Bodenbild umfasst, dass: das zweite Bodenbild mit dem Bodenbild in Beziehung gebracht wird; eine Bilddifferenz durch eine absolute Bildintensitätsdifferenz erzeugt wird; und ein Bereich der Bilddifferenz, der eine Änderung der Bildintensität anzeigt, fokussiert wird.
  9. Verfahren nach Anspruch 7, wobei das Vergleichen des zweiten Bodenbilds mit dem Bodenbild umfasst, dass: das zweite Bodenbild mit dem Bodenbild in Beziehung gebracht wird; eine Bilddifferenz erzeugt wird, die eine fahrzeugbewegungskompensierte Bilddifferenz umfasst; und ein Bereich der Bilddifferenz, der eine Änderung perspektivischer Eigenschaften anzeigt, fokussiert wird.
  10. Verfahren zur Detektion eines freien Pfads für ein Fahrzeug unter Verwendung einer Kamera, das umfasst, dass: ein erster Bodenbereich vor dem Fahrzeug mit der Kamera abgebildet wird, um ein erstes Bodenbild zu erzeugen; ein zweiter Bodenbereich vor dem Fahrzeug mit der Kamera abgebildet wird, um ein zweites Bodenbild zu erzeugen; und das erste und zweite Bodenbild analysiert werden, um einen freien Pfad zu formulieren, der frei von Objekten ist, die die Fahrt des Fahrzeugs einschränken, umfassend, dass ein Komponentenstück des ersten Bodenbilds, das einem identifizierten potentiellen Objekt entspricht, identifiziert wird, das zweite Bodenbild mit dem ersten Bodenbild über fahrzeugbewegungskompensierte Bilddifferenzen verglichen wird, eine Wahrscheinlichkeit eines freien Pfads und eine Wahrscheinlichkeit eines detektierten Objekts auf der Grundlage des Vergleichs erzeugt werden, das Stück als frei klassifiziert wird, wenn die Wahrscheinlichkeit eines freien Pfads größer ist als die Wahrscheinlichkeit eines detektierten Objekts, und das Stück als nicht frei klassifiziert wird, wenn die Wahrscheinlichkeit eines freien Pfads nicht größer ist als die Wahrscheinlichkeit eines detektierten Objekts.
  11. Vorrichtung für eine Detektion eines freien Pfads für ein Fahrzeug, umfassend: eine Kamera, die ausgestaltet ist, um ein Pixel-Bild zu erzeugen; und ein Steuermodul, das das Pixel-Bild analysiert und einen Ausgang eines freien Pfads erzeugt durch iteratives Identifizieren eines Komponentenstücks des Pixel-Bilds, Extrahieren eines Merkmals von dem Stück, und Klassifizieren des Stücks auf der Grundlage des Merkmals.
  12. Vorrichtung nach Anspruch 11, ferner umfassend: eine Radarbilderfassungseinrichtung, die Daten erzeugt, die einem Objekt vor dem Fahrzeug entsprechen; und wobei das Steuermodul das Komponentenstück auf der Grundlage der Daten identifiziert.
  13. Vorrichtung nach Anspruch 11, wobei das Steuermodul das Merkmal von dem Stück durch Anwenden einer Merkmalserkennung auf der Grundlage eines Filterns des Stücks extrahiert.
  14. Vorrichtung nach Anspruch 11, wobei das Steuermodul das Stück klassifiziert durch Vergleichen des Merkmals mit einem trainierten Klassifizierer, Zuordnen einer Wahrscheinlichkeit eines freien Pfads zu dem Stück auf der Grundlage des Vergleichs, Bezeichnen des Stücks als frei, wenn die Wahrscheinlichkeit eines freien Pfads größer ist als eine Schwellenwertkonfidenz, und Bezeichnen des Stücks als nicht frei, wenn die Wahrscheinlichkeit eines freien Pfads nicht größer ist als eine Schwellenwertkonfidenz.
  15. Vorrichtung nach Anspruch 11, ferner umfassend: die Kamera, die ausgestaltet ist, um ein zweites Pixel-Bild zu erzeugen; und wobei das Steuermodul das Pixel-Bild mit dem zweiten Pixel-Bild durch Anwenden eines Vergleichs einer absoluten Bildintensitätsdifferenz vergleicht, innerhalb des Vergleichs ein potentielles Objekt als jeglichen Bereich, der eine Änderung anzeigt, identifiziert, und das potentielle Objekt zum Identifizieren des Komponentenstücks verwendet.
  16. Vorrichtung nach Anspruch 11, ferner umfassend: die Kamera, die ausgestaltet ist, um ein zweites Pixel-Bild zu erzeugen; und wobei das Steuermodul das Pixel-Bild mit dem zweiten Pixel-Bild durch Anwenden eines fahrzeugbewegungskompensierten Bildvergleichs vergleicht, innerhalb des Vergleichs ein potentielles Objekt als jeglichen Bereich, der eine Änderung anzeigt, identifiziert, und das potentielle Objekt zum Identifizieren des Komponentenstücks verwendet.
DE112009000949T 2008-04-24 2009-04-22 Detektion eines freien Fahrpfads für ein Fahrzeug Withdrawn DE112009000949T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/108,581 US8917904B2 (en) 2008-04-24 2008-04-24 Vehicle clear path detection
US12/108,581 2008-04-24
PCT/US2009/041327 WO2009132054A2 (en) 2008-04-24 2009-04-22 Vehicle clear path detection

Publications (1)

Publication Number Publication Date
DE112009000949T5 true DE112009000949T5 (de) 2011-06-01

Family

ID=41215066

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112009000949T Withdrawn DE112009000949T5 (de) 2008-04-24 2009-04-22 Detektion eines freien Fahrpfads für ein Fahrzeug

Country Status (4)

Country Link
US (1) US8917904B2 (de)
CN (1) CN102076531B (de)
DE (1) DE112009000949T5 (de)
WO (1) WO2009132054A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019219389A1 (de) * 2019-12-11 2021-06-17 Volkswagen Aktiengesellschaft Verfahren, Computerprogramm und Vorrichtung zum Reduzieren von zu erwartenden Einschränkungen einer Sensorik eines Fortbewegungsmittels durch Umgebungseinflüsse beim Betrieb des Fortbewegungsmittels

Families Citing this family (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008023972A1 (de) * 2007-05-25 2008-11-27 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Erkennung von verkehrsrelevanten Informationen
US8803966B2 (en) * 2008-04-24 2014-08-12 GM Global Technology Operations LLC Clear path detection using an example-based approach
US8611585B2 (en) * 2008-04-24 2013-12-17 GM Global Technology Operations LLC Clear path detection using patch approach
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US8428305B2 (en) * 2008-04-24 2013-04-23 GM Global Technology Operations LLC Method for detecting a clear path through topographical variation analysis
US8670592B2 (en) * 2008-04-24 2014-03-11 GM Global Technology Operations LLC Clear path detection using segmentation-based method
US8487991B2 (en) * 2008-04-24 2013-07-16 GM Global Technology Operations LLC Clear path detection using a vanishing point
US8634593B2 (en) * 2008-04-24 2014-01-21 GM Global Technology Operations LLC Pixel-based texture-less clear path detection
US8332134B2 (en) * 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
US8699754B2 (en) * 2008-04-24 2014-04-15 GM Global Technology Operations LLC Clear path detection through road modeling
US8452053B2 (en) * 2008-04-24 2013-05-28 GM Global Technology Operations LLC Pixel-based texture-rich clear path detection
US8890951B2 (en) * 2008-04-24 2014-11-18 GM Global Technology Operations LLC Clear path detection with patch smoothing approach
US8751154B2 (en) * 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US8421859B2 (en) * 2008-04-24 2013-04-16 GM Global Technology Operations LLC Clear path detection using a hierachical approach
US9026315B2 (en) 2010-10-13 2015-05-05 Deere & Company Apparatus for machine coordination which maintains line-of-site contact
US20100063652A1 (en) * 2008-09-11 2010-03-11 Noel Wayne Anderson Garment for Use Near Autonomous Machines
US8392065B2 (en) * 2008-09-11 2013-03-05 Deere & Company Leader-follower semi-autonomous vehicle with operator on side
US8989972B2 (en) 2008-09-11 2015-03-24 Deere & Company Leader-follower fully-autonomous vehicle with operator on side
US8229618B2 (en) * 2008-09-11 2012-07-24 Deere & Company Leader-follower fully autonomous vehicle with operator on side
US8224500B2 (en) * 2008-09-11 2012-07-17 Deere & Company Distributed knowledge base program for vehicular localization and work-site management
US8195342B2 (en) * 2008-09-11 2012-06-05 Deere & Company Distributed knowledge base for vehicular localization and work-site management
US9188980B2 (en) 2008-09-11 2015-11-17 Deere & Company Vehicle with high integrity perception system
US9235214B2 (en) * 2008-09-11 2016-01-12 Deere & Company Distributed knowledge base method for vehicular localization and work-site management
US8478493B2 (en) 2008-09-11 2013-07-02 Deere & Company High integrity perception program
US8195358B2 (en) 2008-09-11 2012-06-05 Deere & Company Multi-vehicle high integrity perception
US8818567B2 (en) 2008-09-11 2014-08-26 Deere & Company High integrity perception for machine localization and safeguarding
US8269652B2 (en) * 2009-04-02 2012-09-18 GM Global Technology Operations LLC Vehicle-to-vehicle communicator on full-windshield head-up display
US8547298B2 (en) * 2009-04-02 2013-10-01 GM Global Technology Operations LLC Continuation of exterior view on interior pillars and surfaces
US8482486B2 (en) * 2009-04-02 2013-07-09 GM Global Technology Operations LLC Rear view mirror on full-windshield head-up display
US7924146B2 (en) * 2009-04-02 2011-04-12 GM Global Technology Operations LLC Daytime pedestrian detection on full-windscreen head-up display
US8830141B2 (en) * 2009-04-02 2014-09-09 GM Global Technology Operations LLC Full-windshield head-up display enhancement: anti-reflective glass hard coat
US8817090B2 (en) * 2009-04-02 2014-08-26 GM Global Technology Operations LLC Luminance uniformity compensation of vector projection display
US8350724B2 (en) * 2009-04-02 2013-01-08 GM Global Technology Operations LLC Rear parking assist on full rear-window head-up display
US8564502B2 (en) * 2009-04-02 2013-10-22 GM Global Technology Operations LLC Distortion and perspective correction of vector projection display
US8384532B2 (en) * 2009-04-02 2013-02-26 GM Global Technology Operations LLC Lane of travel on windshield head-up display
US8427395B2 (en) * 2009-04-02 2013-04-23 GM Global Technology Operations LLC Full-windshield hud enhancement: pixelated field of view limited architecture
US8912978B2 (en) * 2009-04-02 2014-12-16 GM Global Technology Operations LLC Dynamic vehicle system information on full windshield head-up display
US8629903B2 (en) * 2009-04-02 2014-01-14 GM Global Technology Operations LLC Enhanced vision system full-windshield HUD
US8384531B2 (en) * 2009-04-02 2013-02-26 GM Global Technology Operations LLC Recommended following distance on full-windshield head-up display
US8072686B2 (en) * 2009-04-02 2011-12-06 GM Global Technology Operations LLC UV laser beamlett on full-windshield head-up display
US8317329B2 (en) * 2009-04-02 2012-11-27 GM Global Technology Operations LLC Infotainment display on full-windshield head-up display
US8395529B2 (en) 2009-04-02 2013-03-12 GM Global Technology Operations LLC Traffic infrastructure indicator on head-up display
US20100253595A1 (en) * 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Virtual controls and displays by laser projection
US8330673B2 (en) * 2009-04-02 2012-12-11 GM Global Technology Operations LLC Scan loop optimization of vector projection display
US8358224B2 (en) * 2009-04-02 2013-01-22 GM Global Technology Operations LLC Point of interest location marking on full windshield head-up display
US8629784B2 (en) 2009-04-02 2014-01-14 GM Global Technology Operations LLC Peripheral salient feature enhancement on full-windshield head-up display
US8704653B2 (en) * 2009-04-02 2014-04-22 GM Global Technology Operations LLC Enhanced road vision on full windshield head-up display
US8344894B2 (en) * 2009-04-02 2013-01-01 GM Global Technology Operations LLC Driver drowsy alert on full-windshield head-up display
US8977489B2 (en) * 2009-05-18 2015-03-10 GM Global Technology Operations LLC Turn by turn graphical navigation on full windshield head-up display
US8164543B2 (en) * 2009-05-18 2012-04-24 GM Global Technology Operations LLC Night vision on full windshield head-up display
FR2947657B1 (fr) * 2009-07-06 2016-05-27 Valeo Vision Procede de detection d'un obstacle pour vehicule automobile
FR2947656B1 (fr) * 2009-07-06 2016-05-27 Valeo Vision Procede de detection d'un obstacle pour vehicule automobile
US8098170B1 (en) 2010-10-08 2012-01-17 GM Global Technology Operations LLC Full-windshield head-up display interface for social networking
US8606430B2 (en) 2010-10-08 2013-12-10 GM Global Technology Operations LLC External presentation of information on full glass display
US8514099B2 (en) 2010-10-13 2013-08-20 GM Global Technology Operations LLC Vehicle threat identification on full windshield head-up display
US8773535B2 (en) * 2010-12-08 2014-07-08 GM Global Technology Operations LLC Adaptation for clear path detection using reliable local model updating
US8681222B2 (en) * 2010-12-08 2014-03-25 GM Global Technology Operations LLC Adaptation for clear path detection with additional classifiers
US8098171B1 (en) 2010-12-28 2012-01-17 GM Global Technology Operations LLC Traffic visibility in poor viewing conditions on full windshield head-up display
US8686872B2 (en) 2010-12-29 2014-04-01 GM Global Technology Operations LLC Roadway condition warning on full windshield head-up display
US8605011B2 (en) 2010-12-29 2013-12-10 GM Global Technology Operations LLC Virtual viewfinder on full windshield head-up display
US8924150B2 (en) 2010-12-29 2014-12-30 GM Global Technology Operations LLC Vehicle operation and control system for autonomous vehicles on full windshield display
US8633979B2 (en) 2010-12-29 2014-01-21 GM Global Technology Operations LLC Augmented road scene illustrator system on full windshield head-up display
US9057874B2 (en) 2010-12-30 2015-06-16 GM Global Technology Operations LLC Virtual cursor for road scene object selection on full windshield head-up display
US9008904B2 (en) 2010-12-30 2015-04-14 GM Global Technology Operations LLC Graphical vehicle command system for autonomous vehicles on full windshield head-up display
US8692739B2 (en) 2011-09-22 2014-04-08 GM Global Technology Operations LLC Dynamic information presentation on full windshield head-up display
US8514101B2 (en) 2011-12-02 2013-08-20 GM Global Technology Operations LLC Driving maneuver assist on full windshield head-up display
US8818708B2 (en) * 2011-12-02 2014-08-26 GM Global Technology Operations LLC Optimum driving path on full windshield display
US8781170B2 (en) 2011-12-06 2014-07-15 GM Global Technology Operations LLC Vehicle ghosting on full windshield display
CN103176185B (zh) * 2011-12-26 2015-01-21 上海汽车集团股份有限公司 用于检测道路障碍物的方法及系统
US9443429B2 (en) 2012-01-24 2016-09-13 GM Global Technology Operations LLC Optimum gaze location on full windscreen display
US8559727B1 (en) * 2012-04-09 2013-10-15 GM Global Technology Operations LLC Temporal coherence in clear path detection
USD735214S1 (en) * 2012-11-30 2015-07-28 Google Inc. Display screen or portion thereof with graphical user interface
US9547805B1 (en) * 2013-01-22 2017-01-17 The Boeing Company Systems and methods for identifying roads in images
US8676431B1 (en) 2013-03-12 2014-03-18 Google Inc. User interface for displaying object-based indications in an autonomous driving system
USD750663S1 (en) 2013-03-12 2016-03-01 Google Inc. Display screen or a portion thereof with graphical user interface
USD754190S1 (en) 2013-03-13 2016-04-19 Google Inc. Display screen or portion thereof with graphical user interface
USD754189S1 (en) 2013-03-13 2016-04-19 Google Inc. Display screen or portion thereof with graphical user interface
US9164281B2 (en) 2013-03-15 2015-10-20 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US9393870B2 (en) 2013-03-15 2016-07-19 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US9378644B2 (en) 2013-03-15 2016-06-28 Honda Motor Co., Ltd. System and method for warning a driver of a potential rear end collision
US9251715B2 (en) 2013-03-15 2016-02-02 Honda Motor Co., Ltd. Driver training system using heads-up display augmented reality graphics elements
US10215583B2 (en) 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
US10339711B2 (en) 2013-03-15 2019-07-02 Honda Motor Co., Ltd. System and method for providing augmented reality based directions based on verbal and gestural cues
US9747898B2 (en) 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
EP2821307B1 (de) * 2013-07-03 2016-09-28 Volvo Car Corporation Fahrzeugsystem, Fahrzeug und Verfahren zur autonomen Vermeidung von Straßenunebenheiten
US9098752B2 (en) * 2013-08-09 2015-08-04 GM Global Technology Operations LLC Vehicle path assessment
CN103488973B (zh) * 2013-09-12 2017-10-20 上海依图网络科技有限公司 基于图像的车辆品牌识别方法和系统
CN105612083B (zh) * 2013-10-09 2018-10-23 麦格纳覆盖件有限公司 对车窗显示的控制的系统和方法
US9139202B2 (en) 2014-01-21 2015-09-22 Elwha Llc Vehicle collision management responsive to adverse circumstances in an avoidance path
US9199642B2 (en) 2014-01-21 2015-12-01 Elwha Llc Vehicle collision management responsive to traction conditions in an avoidance path
US10422649B2 (en) * 2014-02-24 2019-09-24 Ford Global Technologies, Llc Autonomous driving sensing system and method
CN107430817B (zh) * 2015-03-03 2021-07-13 日本先锋公司 路径搜索装置、控制方法及非暂时性计算机可读介质
KR102366402B1 (ko) * 2015-05-21 2022-02-22 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법
JP6645074B2 (ja) * 2015-08-25 2020-02-12 株式会社Ihi 支障物検知システム
US10121082B2 (en) 2015-10-07 2018-11-06 Honda Motor Co., Ltd. System and method for providing laser camera fusion for identifying and tracking a traffic participant
CN106915301B (zh) * 2015-12-28 2019-07-23 上海中科深江电动车辆有限公司 告警保护装置及防止电动车辆底盘电池包触地被撞的方法
JP7052174B2 (ja) * 2016-01-05 2022-04-12 モービルアイ ビジョン テクノロジーズ リミテッド 将来経路を推定するシステム及び方法
JP6975945B2 (ja) * 2016-02-24 2021-12-01 パナソニックIpマネジメント株式会社 判定装置、判定方法、プログラムおよびプログラムを記録した記録媒体
DE102016207436A1 (de) 2016-04-29 2017-11-02 Ford Global Technologies, Llc System und Verfahren zum Steuern- und/oder Regeln eines Lenksystems eines Fahrzeugs sowie Fahrzeug
US10366310B2 (en) * 2016-09-12 2019-07-30 Aptiv Technologies Limited Enhanced camera object detection for automated vehicles
RU2728836C2 (ru) 2016-10-28 2020-07-31 Ппг Индастриз Огайо, Инк. Покрытия для увеличения расстояния обнаружения до объекта, обнаруживаемого с помощью электромагнитного излучения ближнего инфракрасного диапазона
US10372128B2 (en) * 2016-11-21 2019-08-06 Ford Global Technologies, Llc Sinkhole detection systems and methods
WO2018125939A1 (en) 2016-12-30 2018-07-05 DeepMap Inc. Visual odometry and pairwise alignment for high definition map creation
US9989835B1 (en) 2017-02-09 2018-06-05 Cnh Industrial America Llc System and method for mounting a camera on a work vehicle
DE102017211887A1 (de) * 2017-07-12 2019-01-17 Robert Bosch Gmbh Verfahren und Vorrichtung zum Lokalisieren und automatisierten Betreiben eines Fahrzeugs
US10216189B1 (en) 2017-08-23 2019-02-26 Uber Technologies, Inc. Systems and methods for prioritizing object prediction for autonomous vehicles
US10509413B2 (en) * 2017-09-07 2019-12-17 GM Global Technology Operations LLC Ground reference determination for autonomous vehicle operations
US10788831B2 (en) * 2017-10-06 2020-09-29 Wipro Limited Method and device for identifying center of a path for navigation of autonomous vehicles
US10650553B2 (en) * 2017-12-27 2020-05-12 Intel IP Corporation Method of image processing and image processing device
US11050933B2 (en) * 2018-04-27 2021-06-29 Continenal Automotive Systems, Inc. Device and method for determining a center of a trailer tow coupler
WO2020112213A2 (en) * 2018-09-13 2020-06-04 Nvidia Corporation Deep neural network processing for sensor blindness detection in autonomous machine applications
KR20240144457A (ko) 2018-11-13 2024-10-02 피피지 인더스트리즈 오하이오 인코포레이티드 은닉 패턴을 검출하는 방법
US11561329B2 (en) 2019-01-07 2023-01-24 Ppg Industries Ohio, Inc. Near infrared control coating, articles formed therefrom, and methods of making the same
DE102019208507A1 (de) * 2019-06-12 2020-12-17 Robert Bosch Gmbh Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen
JP6913716B2 (ja) * 2019-07-17 2021-08-04 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
CN112686831B (zh) * 2019-10-17 2024-06-14 神讯电脑(昆山)有限公司 基于人工神经网络的物件表面型态的检测方法
US11320830B2 (en) 2019-10-28 2022-05-03 Deere & Company Probabilistic decision support for obstacle detection and classification in a working area
CN111967525B (zh) * 2020-08-20 2025-01-10 广州小鹏汽车科技有限公司 一种数据处理的方法及装置、服务器、存储介质
CN114047757B (zh) * 2021-11-05 2023-05-19 季华实验室 一种多agv路径评估规划方法
CN114608556B (zh) * 2022-03-01 2024-06-28 浙江吉利控股集团有限公司 数据处理方法、装置、电子设备及存储介质
WO2024150213A1 (en) * 2023-01-12 2024-07-18 Brightway Vision Ltd Road anomaly detection system and method
CN120183160B (zh) * 2025-05-21 2025-09-05 四川明星新能源科技有限公司 施工危险区域出入监控警报系统及方法

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5172315A (en) 1988-08-10 1992-12-15 Honda Giken Kogyo Kabushiki Kaisha Automatic travelling apparatus and method
DE69121369T2 (de) 1990-11-30 1997-01-09 Honda Motor Co Ltd Steuervorrichtung für einen sich selbständig bewegenden Körper und Verfahren zur Auswertung der Daten davon
US6711278B1 (en) 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
DE19926559A1 (de) 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
EP1242966B1 (de) * 1999-12-29 2012-11-07 Geospan Corporation Sphärische Rektifikation von Bildpaaren
JP3603737B2 (ja) * 2000-03-30 2004-12-22 日本電気株式会社 移動体追尾方法及びその装置
DE10059900A1 (de) 2000-12-01 2002-06-13 Daimler Chrysler Ag Darstellung von bildhafter Umgebungsinformation
US6766053B2 (en) * 2000-12-15 2004-07-20 Xerox Corporation Method and apparatus for classifying images and/or image regions based on texture information
JP3778849B2 (ja) 2001-12-18 2006-05-24 株式会社デンソー 車両周辺画像処理装置及び記録媒体
US6728608B2 (en) * 2002-08-23 2004-04-27 Applied Perception, Inc. System and method for the creation of a terrain density model
KR100446636B1 (ko) 2002-11-21 2004-09-04 삼성전자주식회사 이동체의 움직임 및 이동체 전방에 위치한 물체의 3차원정보 측정 기능을 구비한 이동체 및 그 방법
US7764808B2 (en) * 2003-03-24 2010-07-27 Siemens Corporation System and method for vehicle detection and tracking
KR100488739B1 (ko) 2003-07-10 2005-05-11 현대자동차주식회사 차량용 멀티유저 시트 기억장치
KR100708922B1 (ko) * 2003-07-11 2007-04-17 도요다 지도샤 가부시끼가이샤 충돌-대응 차량 제어시스템
JP4043416B2 (ja) * 2003-07-30 2008-02-06 オリンパス株式会社 安全移動支援装置
US7376262B2 (en) 2003-08-04 2008-05-20 American Gnc Corporation Method of three dimensional positioning using feature matching
US7508979B2 (en) * 2003-11-21 2009-03-24 Siemens Corporate Research, Inc. System and method for detecting an occupant and head pose using stereo detectors
KR100559421B1 (ko) * 2003-12-30 2006-03-10 현대자동차주식회사 차량 추돌 방지 시스템
US20100013615A1 (en) * 2004-03-31 2010-01-21 Carnegie Mellon University Obstacle detection having enhanced classification
KR20060002138A (ko) 2004-07-01 2006-01-09 주식회사 하이닉스반도체 반도체 소자의 제조방법
DE102004047130B4 (de) 2004-09-27 2012-07-26 Andreas Stopp Umgebungsmodellierung für autonome mobile Systeme
JP2006264416A (ja) 2005-03-22 2006-10-05 Takata Corp 対象物検知システム、保護システム、車両
DE102006060893A1 (de) 2006-05-12 2007-11-15 Adc Automotive Distance Control Systems Gmbh Vorrichtung und Verfahren zum Bestimmen eines Freiraums vor einem Fahrzeug
DE102006039832B9 (de) 2006-08-25 2010-06-10 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zum Auffinden und Unterscheiden von Personen, Tieren oder Fahrzeugen mittels automatischer Bildüberwachung digitaler oder digitalisierter Bilder
DE102006046843A1 (de) 2006-10-02 2008-04-03 Robert Bosch Gmbh Verfahren zur Erkennung eines Umfelds
DE102006047131A1 (de) * 2006-10-05 2008-04-10 Robert Bosch Gmbh Verfahren zum automatischen Steuern eines Fahrzeugs
DE102006058308A1 (de) 2006-12-11 2008-06-12 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erfassen eines Hindernisses in einem Umgebungsbereich eines Kraftfahrzeugs und Kraftfahrzeug
DE102006061390B4 (de) 2006-12-23 2019-05-16 Volkswagen Ag Umfelderfassungssystem und Umfelderfassungsverfahren eines Kraftfahrzeugs
JP2008172441A (ja) * 2007-01-10 2008-07-24 Omron Corp 検出装置および方法、並びに、プログラム
US8611585B2 (en) 2008-04-24 2013-12-17 GM Global Technology Operations LLC Clear path detection using patch approach
US8452053B2 (en) 2008-04-24 2013-05-28 GM Global Technology Operations LLC Pixel-based texture-rich clear path detection
US8634593B2 (en) 2008-04-24 2014-01-21 GM Global Technology Operations LLC Pixel-based texture-less clear path detection
US8670592B2 (en) 2008-04-24 2014-03-11 GM Global Technology Operations LLC Clear path detection using segmentation-based method
US8487991B2 (en) 2008-04-24 2013-07-16 GM Global Technology Operations LLC Clear path detection using a vanishing point
US8890951B2 (en) 2008-04-24 2014-11-18 GM Global Technology Operations LLC Clear path detection with patch smoothing approach
US8803966B2 (en) 2008-04-24 2014-08-12 GM Global Technology Operations LLC Clear path detection using an example-based approach
US8332134B2 (en) 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
US8421859B2 (en) 2008-04-24 2013-04-16 GM Global Technology Operations LLC Clear path detection using a hierachical approach
US8699754B2 (en) 2008-04-24 2014-04-15 GM Global Technology Operations LLC Clear path detection through road modeling
US8751154B2 (en) 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US8605947B2 (en) 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US8428305B2 (en) 2008-04-24 2013-04-23 GM Global Technology Operations LLC Method for detecting a clear path through topographical variation analysis
US8099213B2 (en) 2008-07-18 2012-01-17 GM Global Technology Operations LLC Road-edge detection
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019219389A1 (de) * 2019-12-11 2021-06-17 Volkswagen Aktiengesellschaft Verfahren, Computerprogramm und Vorrichtung zum Reduzieren von zu erwartenden Einschränkungen einer Sensorik eines Fortbewegungsmittels durch Umgebungseinflüsse beim Betrieb des Fortbewegungsmittels
DE102019219389B4 (de) 2019-12-11 2022-09-29 Volkswagen Aktiengesellschaft Verfahren, Computerprogramm und Vorrichtung zum Reduzieren von zu erwartenden Einschränkungen einer Sensorik eines Fortbewegungsmittels durch Umgebungseinflüsse beim Betrieb des Fortbewegungsmittels

Also Published As

Publication number Publication date
CN102076531A (zh) 2011-05-25
WO2009132054A2 (en) 2009-10-29
CN102076531B (zh) 2013-03-27
US20090268946A1 (en) 2009-10-29
WO2009132054A3 (en) 2009-12-17
US8917904B2 (en) 2014-12-23

Similar Documents

Publication Publication Date Title
DE112009000949T5 (de) Detektion eines freien Fahrpfads für ein Fahrzeug
DE102009050502B4 (de) Detektion eines freien Pfads unter Verwendung eines hierarchischen Ansatzes
DE102009048699A1 (de) Pixelbasierte Detektion einer nicht vorhandenen Struktur eines freien Pfads
DE102009048892A1 (de) Pixelbasierte strukturreiche Detektion eines freien Pfads
DE69322306T2 (de) Gegenstandserkennungssystem mittels Bildverarbeitung
DE102009050492A1 (de) Detektion eines freien Pfads unter Verwendung eines segmentierungsbasierten Verfahrens
DE102009050505A1 (de) Detektion eines freien Pfads durch Strassenmodellerstellung
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
DE102009050504A1 (de) Verfahren zum Detektieren eines freien Pfads durch eine Analyse einer topografischen Veränderung
DE102006012914B4 (de) System und Verfahren zur Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug
DE102009050501A1 (de) Verbesserte Detektion eines freien Pfads bei Vorhandensein eines Verkehrsinfrastrukturindikators
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
EP2005361A1 (de) Multisensorieller hypothesen-basierter objektdetektor und objektverfolger
DE112011103690T5 (de) Erkennung und Verfolgung sich bewegender Objekte
DE102014210820A1 (de) Verfahren zum Nachweis von großen und Passagierfahrzeugen von festen Kameras
DE102009038364A1 (de) Verfahren und System zur automatischen Objekterkennung und anschließenden Objektverfolgung nach Maßgabe der Objektform
DE102017203276B4 (de) Verfahren und Vorrichtung zur Ermittlung einer Trajektorie in Off-road-Szenarien
DE102020103769A1 (de) Gegnerischer Angriff auf den Algorithmus zur Erkennung von Black-Box-Objekten
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE112020004301T5 (de) Objekterkennungsvorrichtung
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE102015211874A1 (de) Objekterkennungsvorrichtung
EP3857304A2 (de) Verfahren zum fokussieren einer kamera
DE102008036219A1 (de) Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs
DE102015211871A1 (de) Objekterkennungsvorrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60R0021000000

Ipc: B60W0030080000

R079 Amendment of ipc main class

Effective date: 20111209

Free format text: PREVIOUS MAIN CLASS: B60R0021000000

Ipc: B60W0030080000

R016 Response to examination communication
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee