DE112009000949T5 - Detektion eines freien Fahrpfads für ein Fahrzeug - Google Patents
Detektion eines freien Fahrpfads für ein Fahrzeug Download PDFInfo
- Publication number
- DE112009000949T5 DE112009000949T5 DE112009000949T DE112009000949T DE112009000949T5 DE 112009000949 T5 DE112009000949 T5 DE 112009000949T5 DE 112009000949 T DE112009000949 T DE 112009000949T DE 112009000949 T DE112009000949 T DE 112009000949T DE 112009000949 T5 DE112009000949 T5 DE 112009000949T5
- Authority
- DE
- Germany
- Prior art keywords
- image
- piece
- vehicle
- free
- floor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Verfahren zur Detektion eines freien Pfads für ein Fahrzeug unter Verwendung einer Kamera, das umfasst, dass:
ein Bodenbereich vor dem Fahrzeug mit der Kamera abgebildet wird, um ein Bodenbild zu erzeugen; und
das Bodenbild analysiert wird, um einen freien Pfad zu formulieren, der frei von Objekten ist, die die Fahrt des Fahrzeugs einschränken, umfassend, dass
iterativ ein Komponentenstück des Bodenbilds identifiziert wird,
ein Merkmal von dem Komponentenstück extrahiert wird, und
das Komponentenstück auf der Grundlage des Merkmals klassifiziert wird.
ein Bodenbereich vor dem Fahrzeug mit der Kamera abgebildet wird, um ein Bodenbild zu erzeugen; und
das Bodenbild analysiert wird, um einen freien Pfad zu formulieren, der frei von Objekten ist, die die Fahrt des Fahrzeugs einschränken, umfassend, dass
iterativ ein Komponentenstück des Bodenbilds identifiziert wird,
ein Merkmal von dem Komponentenstück extrahiert wird, und
das Komponentenstück auf der Grundlage des Merkmals klassifiziert wird.
Description
- TECHNISCHES GEBIET
- Diese Offenbarung bezieht sich auf eine automatisierte oder halbautomatisierte Steuerung eines Kraftfahrzeugs.
- HINTERGRUND
- Die Aussagen in diesem Abschnitt stellen lediglich Hintergrundinformationen bezüglich der vorliegenden Offenbarung bereit und müssen nicht unbedingt Stand der Technik darstellen.
- Autonome Fahrsysteme und halbautonome Fahrsysteme verwenden Eingänge bezüglich der Straße und andere Fahrbedingungen, um Drossel- und Lenkmechanismen automatisch zu steuern. Eine genaue Schätzung und Projektion eines freien Pfads, auf dem das Fahrzeug betrieben werden soll, ist hinsichtlich eines erfolgreichen Ersetzens des menschlichen Gehirns als Steuermechanismus für einen Fahrzeugbetrieb kritisch.
- Die Straßenbedingungen können komplex sein. Bei normalem Betrieb eines Fahrzeugs macht der menschliche Betreiber Hunderte von Beobachtungen pro Minute und passt er den Betrieb des Fahrzeugs auf der Grundlage von wahrgenommenen Straßenbedingungen an. Ein Aspekt des Wahrnehmens von Straßenbedingungen ist die Wahrnehmung der Straße im Kontext von Objekten auf der und um die Fahrbahn herum und das Fahren auf einem freien Pfad durch jegliche Objekte hindurch. Ein Ersetzen der menschlichen Wahrnehmung durch eine Technologie muss ein Mittel, um Objekte genau wahrzunehmen und mit dem effektiven Navigieren um solche Objekte herum fortzufahren, umfassen.
- Ein technologisches Mittel zum Wahrnehmen eines Objekts umfasst Daten von visuellen Kameras und eine Radarbilderfassung. Kameras übersetzen visuelle Bilder in Form von Strahlung, wie beispielsweise Lichtmuster oder Infrarotsignaturen, in ein lesbares Datenformat. Ein solches Datenformat umfasst Pixel-Bilder, wobei eine wahrgenommene Szene in eine Reihe von Pixeln zerlegt wird. Eine Radarbilderfassung verwendet Funkwellen, die durch einen Sender erzeugt werden, um Formen und Objekte, die vor dem Sender vorhanden sind, zu schätzen. Muster in den Wellen, die von diesen Formen und Objekten reflektiert werden, können analysiert werden und die Orte von Objekten können geschätzt werden.
- Sobald Daten bezüglich des Bodens vor dem Fahrzeug erzeugt wurden, müssen die Daten analysiert werden, um das Vorhandensein von Objekten aus den Daten zu schätzen. Es sind Verfahren zum Prüfen von Pixeln hinsichtlich eines Vergleichens eines Kontrast zwischen Pixeln, beispielsweise eines Identifizierens von Linien und Formen in den Pixeln und einer Mustererkennung, wobei ein Prozessor nach erkennbaren Formen zum Schätzen eines durch die Formen dargestellten Objekts suchen kann, bekannt. Unter Verwendung von Kameras und Radarbilderfassungssystemen können der Boden und die Fahrbahn vor dem Fahrzeug hinsichtlich des Vorhandenseins von Objekten, die vermieden werden müssten, abgesucht werden. Die ledigliche Identifikation von potentiellen Objekten, die vermieden werden müssen, führt jedoch nicht die Analyse aus. Eine wichtige Komponente jedes autonomen Systems umfasst die Tatsache, wie in den wahrgenommenen Bodendaten identifizierte potentielle Objekte verarbeitet und verändert werden, um einen freien Pfad zu identifizieren, auf dem das Fahrzeug betrieben werden soll.
- Ein bekanntes Verfahren zum Bilden eines freien Pfads, auf dem das Fahrzeug betrieben werden soll, ist, alle wahrgenommenen Objekte zu katalogisieren und vorläufig zu identifizieren und hinsichtlich der Orte und Verhalten von identifizierten Objekten einen freien Pfad zu bilden. Es können Bilder verarbeitet werden, um Objekte gemäß ihrer Form und Beziehung zu der Fahrbahn zu identifizieren und zu klassifizieren. Während dieses Verfahren beim Bilden eines freien Pfads effektiv sein kann, erfordert es eine große Menge an Verarbeitungsleistung, wobei die Erkennung und Trennung verschiedener Objekte in dem visuellen Bild, beispielsweise ein Unterscheiden zwischen einem Baum an der Seite der Straße und einem Fußgänger, der in Richtung Randstein geht, erforderlich ist. Solche Verfahren können beim Verarbeiten komplexer Situationen langsam oder uneffektiv sein oder können unhandliche und teure Geräte erfordern, um die notwendige Verarbeitungskapazität zu liefern.
- ZUSAMMENFASSUNG
- Ein Verfahren zur Detektion eines freien Pfads für ein Fahrzeug unter Verwendung einer Kamera umfasst ein Abbilden eines Bodenbereichs vor dem Fahrzeug mit der Kamera zum Erzeugen eines Bodenbilds und ein Analysieren des Bodenbilds zum Formulieren eines freien Pfads, der frei von Objekten ist, die die Fahrt des Fahrzeugs einschränken, was umfasst, dass iterativ ein Komponentenstück des Bodenbilds identifiziert wird, ein Merkmal von dem Komponentenstück extrahiert wird und das Komponentenstück auf der Grundlage des Merkmals klassifiziert wird.
- KURZBESCHREIBUNG DER ZEICHNUNGEN
- Nachstehend werden eine oder mehrere Ausführungsformen beispielhaft in Bezug auf die begleitenden Zeichnungen beschrieben, wobei:
-
1 eine beispielhafte Anordnung eines Fahrzeugs, das mit einer Kamera und einem Radarbilderfassungssystem ausgestattet ist, gemäß der Offenbarung zeigt; -
2 ein bekanntes Verfahren zum Ermitteln eines freien Pfads zum autonomen Fahren gemäß der Offenbarung zeigt; -
3 ein beispielhaftes Verfahren zum Ermitteln eines freien Pfads unter Verwendung einer Wahrscheinlichkeitsanalyse eines Bilds gemäß der Offenbarung zeigt; -
4 ein beispielhaftes Verfahren zum Analysieren eines Bilds gemäß der Offenbarung zeigt; -
5 ein beispielhaftes Verfahren zum Definieren eines Klassifizierungsfehlers durch Abstimmen eines einzelnen Schwellenwerts gemäß der Offenbarung zeigt; -
6A ,6B und6C eine beispielhafte Ermittlung einer Bilddifferenz durch Berechnen einer absoluten Bildintensitätsdifferenz gemäß der Offenbarung zeigen; -
7 ein beispielhaftes Verfahren zum Klassifizieren eines Merkmals als Abschnitt eines freien Pfads und gleichzeitig als detektiertes Objekt als Verfahren zur Bildanalyse gemäß der Offenbarung zeigt; -
8 ferner ein beispielhaftes Verfahren zum Klassifizieren eines Merkmals als Abschnitt eines freien Pfads und gleichzeitig als detektiertes Objekt als Verfahren zur Bildanalyse gemäß der Offenbarung zeigt; und -
9 einen beispielhaften Prozess zum Analysieren eines Bilds über eine Wahrscheinlichkeitsanalyse gemäß der Offenbarung zeigt. - DETAILLIERTE BESCHREIBUNG
- Nun auf die Zeichnungen Bezug nehmend, in denen die Darstellungen lediglich dem Zweck des Erläuterns bestimmter beispielhafter Ausführungsformen und nicht dem Zweck des Einschränkens dieser dienen, zeigt
1 eine beispielhafte Anordnung einer Kamera110 , die an der Front eines Fahrzeugs100 angeordnet ist und auf den Boden vor dem Fahrzeug100 gerichtet ist, gemäß der Offenbarung. Die Kamera110 steht mit dem Steuermodul120 in Kommunikation, das eine Logik enthält, um Eingänge von der Kamera110 zu verarbeiten. Das Fahrzeug100 kann auch mit einem Radarbilderfassungssystem130 ausgestattet sein, das, wenn es vorhanden ist, auch mit dem Steuermodul120 in Kommunikation steht. Fachleute werden erkennen, dass das Fahrzeug100 zusätzlich zu der Verwendung der Kamera110 und des Radarbilderfassungssystems, oder alternativ dazu, eine Anzahl von Verfahren zum Identifizieren von Straßenbedingungen verwenden könnte, die eine GPS-Information, eine Information von anderen Fahrzeugen, die mit dem Fahrzeug100 in Kommunikation stehen, Verlaufsdaten hinsichtlich der bestimmten Fahrbahn, eine biometrische Information, wie beispielsweise Systeme, die den Blickpunkt des Fahrers lesen, oder andere ähnliche Systeme umfassen. Die bestimmte Anordnung und Verwendung von Einrichtungen, die zum Analysieren von Straßendaten und Erweitern der Analyse von visuellen Bildern verwendet werden, soll nicht durch die hierin beschriebenen beispielhaften Ausführungsformen beschränkt werden. - Wie zuvor erwähnt zeigt
2 ein bekanntes Verfahren zum Ermitteln eines freien Pfads zum autonomen Fahren gemäß der Offenbarung. Entsprechend der Fahrbahn vor dem Fahrzeug100 wird ein Bild10 erzeugt. In einem von verschiedenen Verfahren werden die Objekte40A ,40B und40C im Bild10 identifiziert und wird jedes Objekt gemäß einer Filterung und trainierten Objektverhalten kategorisiert und klassifiziert. Eine separate Behandlung jedes Objekts kann rechenintensiv sein und erfordert teure und unhandliche Geräte zum Bewältigen der Rechenlast. Ein Algorithmus verarbeitet alle verfügbaren Informationen bezüglich der Fahrbahn und der Objekte40 zum Schätzen eines für das Fahrzeug100 verfügbaren freien Pfads. Die Ermittlung des freien Pfads hängt von den bestimmten Klassifizierungen und Verhalten der identifizierten Objekte40 ab. -
3 zeigt ein beispielhaftes Verfahren zum Ermitteln eines freien Pfads für ein autonomes oder halbautonomes Fahren gemäß der Offenbarung. Das Bild10 ist als einen Boden20 , einen Horizont30 und Objekte40 umfassend gezeigt. Das Bild10 wird durch die Kamera110 erfasst und stellt die Straßenumgebung vor dem Fahrzeug100 dar. Der Boden20 stellt die Zone aller verfügbaren Pfade, die für eine Fahrt offen sind, ohne Unterscheidung auf der Grundlage von Objekten, die vorhanden sein könnten, dar. Das Verfahren von3 , das einen freien Pfad auf dem Boden20 ermittelt, beginnt durch die Annahme, dass der gesamte Boden20 frei ist, und verwendet dann verfügbare Daten, um Abschnitte des Bodens20 als nicht frei auszuschließen. Im Gegensatz zu dem Verfahren von2 , das jedes Objekt40 klassifiziert, analysiert das Verfahren von3 stattdessen den Boden20 und versucht es, aus verfügbaren Daten eine Wahrscheinlichkeit zu definieren, dass eine detektierbare Abweichung, die das Objekt40 darstellen kann, diesen Abschnitt des Bodens20 einschränkt oder nicht frei macht. Dieser Fokus auf den Boden20 anstatt auf die Objekte40 vermeidet die mit dem Verwalten der Detektion der Objekte in Verbindung stehenden komplexen Rechen-Tasks. Eine individuelle Klassifizierung und Verfolgung einzelner Objekte ist unnötig, da die einzelnen Objekte40 einfach als Teil der gesamten einheitlichen Einschränkung auf dem Boden20 miteinander gruppiert werden. Der Boden20 , der oben als alle zum Fahren offene Pfade ohne Unterscheidung beschrieben ist, minus die Einschränkungen, die auf dem Boden20 durch als nicht frei befundene Bereiche angeordnet sind, definieren einen freien Pfad50 , wie in3 gezeigt, der als der Bereich innerhalb der gestrichelten Linien gezeigt ist, oder einen Bereich, der mit einer Schwellenwertwahrscheinlichkeit für eine Fahrt des Fahrzeugs100 offen ist. - Das Objekt
40 , das auf dem Boden20 nicht freie Einschränkungen erzeugt, kann viele Formen annehmen. Beispielsweise kann ein Objekt40 ein diskretes Objekt darstellen, wie beispielsweise ein geparktes Auto, einen Fußgänger oder ein Straßenhindernis, oder kann ein Objekt40 auch eine weniger diskrete Änderung der Flächenmuster darstellen, die einen Rand zu einer Straße angibt, wie beispielsweise einen Bordstein, eine Seitenbegrenzung zur Wiese oder Wasser, das die Fahrbahn bedeckt. Das Objekt40 kann auch ein Nichtvorhandensein einer mit dem Boden20 in Verbindung stehenden ebenen Straße umfassen, wie es beispielsweise bei einem großen Loch in der Straße detektiert werden könnte. Das Objekt40 kann ferner einen Indikator ohne irgendeine definierbare Höhenänderung von der Straße, jedoch mit klaren Auswirkungen auf einen freien Pfad für dieses Segment der Straße, wie beispielsweise ein Farbmuster auf der Fahrbahn, das eine Spurmarkierung angibt, umfassen. Das hierin offenbarte Verfahren, das nicht versucht, ein Objekt40 zu identifizieren, sondern lediglich visuelle Hinweise von dem Boden20 und allem in der Nähe des Bodens in dem Bild10 aufzunehmen, bewertet eine Wahrscheinlichkeit von frei gegenüber nicht frei und passt die Steuerung des Fahrzeugs100 für das Vorhandensein jedes Objekts40 an. - Das Steuermodul
120 ist vorzugsweise ein digitaler Universalrechner, der im Allgemeinen einen Mikroprozessor oder eine zentrale Verarbeitungseinheit, Speichermedien mit einem nicht flüchtigen Speicher mit einem Nurlesespeicher (ROM) und einem elektrisch programmierbaren Nurlesespeicher (EPROM), einen Direktzugriffsspeicher (RAM), einen Hochgeschwindigkeitstakt, einen Analog-Digital-(A/D-) und einen Digital-Analog-(D/A-)Schaltkreis und einen Eingabe/Ausgabe-Schaltkreis und Eingabe/Ausgabe-Einrichtungen (I/O) und einen geeigneten Signalkonditionierungs- und -pufferschaltkreis umfasst. Das Steuermodul120 weist einen Satz von Steueralgorithmen auf, die in dem nicht flüchtigen Speicher gespeicherte residente Programmanweisungen und Kalibrierungen umfassen und ausgeführt werden, um die jeweiligen Funktionen des Steuermoduls bereitzustellen. Die Algorithmen werden typischerweise während voreingestellter Schleifenzyklen ausgeführt, so dass jeder Algorithmus mindestens einmal in jedem Schleifenzyklus ausgeführt wird. Die Algorithmen werden durch die zentrale Verarbeitungseinheit ausgeführt und dienen dazu, Eingänge von den zuvor genannten Erfassungseinrichtungen zu überwachen und Steuer- und Diagnoseroutinen auszuführen, um den Betrieb der Aktoren zu steuern, wobei voreingestellte Kalibrierungen verwendet werden. Schleifenzyklen werden typischerweise in regelmäßigen Intervallen ausgeführt, zum Beispiel alle 3,125, 6,25, 12,5, 25 und 100 Millisekunden während eines laufenden Fahrzeugbetriebs. Alternativ können Algorithmen in Ansprechen auf ein Stattfinden eines Ereignisses ausgeführt werden. - Das Steuermodul
120 führt einen darin gespeicherten algorithmischen Code aus, um in Beziehung stehende Geräte, wie beispielsweise die Kamera110 und das Radarbilderfassungssystem130 , zu überwachen und Befehle oder Datenübertragungen wie durch die Analyse, die in dem Steuermodul durchgeführt wird, angegeben auszuführen. Das Steuermodul120 kann Algorithmen und Mechanismen zum Betätigen einer autonomen Fahrsteuerung durch Mittel, die in der Technik bekannt und hierin nicht beschrieben sind, umfassen, oder das Steuermodul120 kann einfach eine Information an ein separates autonomes Fahrsystem liefern. Das Steuermodul120 ist geeignet, um in Abhängigkeit von der genauen Ausführungsform, die in Verbindung mit dem Steuermodul verwendet wird, nach Bedarf Eingangssignale von anderen Systemen und dem Bediener zu empfangen. - Die Kamera
110 ist eine Einrichtung, die in der Technik weithin bekannt ist und visuelle Eingänge in Form von Licht, Infrarot- oder einer anderen elektromagnetischen Strahlung (EM-Strahlung) in ein Datenformat übersetzen kann, das leicht analysiert werden kann, z. B. ein Pixel-Bild. Die Radarbilderfassungseinrichtung130 ist eine in der Technik weithin bekannte Einrichtung, die einen Sender, der Funkwellen oder eine andere EM-Strahlung aussenden kann, eine Empfängereinrichtung, die die ausgesendeten Wellen erfassen kann, die von Objekten vor dem Sender zu dem Empfänger zurückreflektiert werden, und ein Mittel zum Übertragen der erfassten Wellen in ein Datenformat umfasst, das analysefähig ist und beispielsweise die Entfernung und den Winkel von den Objekten, von denen die Wellen reflektiert wurden, angibt. - Es sind zahlreiche Verfahren für eine automatisierte Analyse von zweidimensionalen Bildern (2D-Bildern) möglich. Durch einen Algorithmus in dem Steuermodul
120 wird eine Analyse des Bilds10 durchgeführt.4 zeigt ein beispielhaftes Verfahren, das angewandt werden kann, um das Bild10 gemäß der Offenbarung zu analysieren. Dieses Verfahren unterteilt das Bild10 und identifiziert ein Subbild oder ein Stück60 des Bodens20 für eine Analyse, extrahiert Merkmale oder analysiert die verfügbare visuelle Information von dem Stück60 , um irgendwelche interessierenden oder unterscheidenden Merkmale innerhalb des Stücks zu identifizieren, und klassifiziert das Stück gemäß der Wahrscheinlichkeit, dass es gemäß der Analyse der Merkmale ein freier Pfad ist. Die Stücke, die mit einer Wahrscheinlichkeit, die größer als ein bestimmter Schwellenwert ist, als frei klassifiziert werden, und eine Zusammenstellung der Stücke können verwendet werden, um einen freien Pfad in dem Bild zusammenzusetzen. - Das Stück
60 kann, als ein Subbild des Bilds10 , durch ein beliebiges bekanntes Mittel identifiziert werden, wie beispielsweise eine Zufallssuche oder eine Scharsuche des Bilds10 . Alternativ kann eine Information bezüglich des Vorhandenseins eines Objekts40 , die von einer anderen Informationsquelle, wie beispielsweise dem Radarbilderfassungssystem130 , verfügbar ist, verwendet werden, um ein Stück zu identifizieren, um den Abschnitt des Bilds10 zu analysieren, der das Objekt40 beschreiben sollte. Das Bild10 kann viele Stücke60 zum Analysieren des gesamten Bilds erfordern. Ferner könnten mehrere sich überlagernde Stücke oder Stücke verschiedener Größe verwendet werden, um ein Gebiet des Bilds10 , das eine interessierende Information enthält, vollständig zu analysieren. Beispielsweise könnte ein kleines Stück60 verwendet werden, um einen kleinen Punkt auf der Straße zu analysieren; es könnte jedoch ein großes Stück60 erforderlich sein, um eine Reihe von Punkten zu analysieren, die allein uninteressant scheinen könnten, jedoch im Kontext der gesamten Reihe ein interessierendes Objekt40 angeben könnten. Ferner kann die Auflösung von Stücken, die auf einen bestimmten Bereich angewandt werden, auf der Grundlage einer verfügbaren Information moduliert werden, wobei beispielsweise mehrere Stücke auf ein Gebiet des Bilds10 angewandt werden, von dem geglaubt wird, dass ein Objekt40 in ihm existiert. Es können viele Schemas oder Strategien zum Definieren der Stücke60 für eine Analyse verwendet werden, und die Offenbarung soll nicht auf die hierin beschriebenen spezifischen Ausführungsformen beschränkt sein. - Sobald ein Stück
60 für eine Analyse identifiziert wurde, verarbeitet das Steuermodul120 das Stück durch eine Anwendung eines Filters zum Extrahieren von Merkmalen aus dem Stück. Ferner kann das Steuermodul120 eine Analyse des Orts des Stücks in dem Kontext des Orts des Fahrzeugs durchführen. Die verwendeten Filter können viele Formen annehmen. Die Filteralgorithmen, die zum Extrahieren von Merkmalen verwendet werden, durchsuchen die verfügbare visuelle Information hinsichtlich charakteristischer Muster in den Daten, wobei die Merkmale durch eine Spurausrichtung, einen Spurort, eine Farbe, Eckeneigenschaften, andere visuelle Attribute und gelernte Attribute definiert sind. Die Merkmalsidentifikationsalgorithmen können auf sequentielle Bilder angewandt werden, um Änderungen entsprechend der Fahrzeugbewegung zu detektieren, wobei Änderungen, die nicht einer Bodenbewegung zugeordnet sind, nicht als freier Pfad identifiziert werden können. Die gelernten Attribute können durch Maschinenlernalgorithmen in dem Fahrzeug gelernt werden, werden aber zumeist offline programmiert und können experimentell, empirisch, prädiktiv, durch Modellerstellung oder andere Techniken entwickelt werden, die geeignet sind, um unterscheidende Attribute genau zu trainieren. - Sobald Merkmale in dem Stück
60 extrahiert wurden, wird das Stück auf der Grundlage der Merkmale klassifiziert, um die Wahrscheinlichkeit zu ermitteln, dass das Stück ein freier Pfad ist. Eine Wahrscheinlichkeitsanalyse ist ein in der Technik bekannter Prozess, durch den ein Wahrscheinlichkeitswert oder eine Konfidenz entwickelt wird, dass eine bestimmte Bedingung existiert. Bei einer Anwendung auf die vorliegende Offenbarung umfasst eine Klassifizierung eine Wahrscheinlichkeitsanalyse, um zu ermitteln, ob das Stück einen freien Pfad darstellt oder ob der Boden20 in diesem Stück durch ein Objekt40 eingeschränkt ist. Bei einer beispielhaften Ausführungsform wird die Klassifizierung durch eine Anwendung von Klassifizierern oder Algorithmen durchgeführt, die mit einer Datenbank von beispielhaften Straßenbedingungen und Interaktionen mit detektierten Objekten trainiert werden. Diese Klassifizierer ermöglichen dem Steuermodul120 , einen Bruch-Wahrscheinlichkeitswert eines freien Pfads für das Stück60 zu entwickeln, wobei eine Konfidenz zwischen Null und Eins, dass die in dem Stück identifizierten Merkmale kein einschränkendes Objekt40 angeben, das eine freie Fahrt des Fahrzeugs100 verhindern würde, quantitativ bestimmt wird. Es kann eine Schwellenwertkonfidenz festgelegt werden, die die Wahrscheinlichkeit eines freien Pfads definiert, die erforderlich ist, um das Stück als freien Pfad zu definieren, und zwar beispielsweise durch die folgende Logik:Konfidenz = WahrscheinlichkeitFreierPfad(i) Wenn_Konfidenz > 0,5, dann_Stück = freierPfad (1) - Bei dieser bestimmten beispielhaften Ausführungsform wird eine Konfidenz von 50% oder 0,5 als Schwellenwertkonfidenz ausgewählt. Diese Zahl kann experimentell, empirisch, prädiktiv, über Modellerstellung oder andere Techniken, die zum genauen Bewerten von Stücken hinsichtlich Eigenschaften eines freien Pfads geeignet sind, entwickelt werden.
- Die Wahrscheinlichkeitsanalyse kann wie oben erwähnt bei einer beispielhaften Ausführungsform durch Anwenden von trainierten Klassifizierern auf aus einem Stück extrahierte Merkmale durchgeführt werden. Ein Verfahren analysiert die Merkmale a priori unter Verwendung eines Trainingsbildsatzes. In dieser Trainingsstufe werden unterscheidende Merkmale aus einem rohen Merkmalssatz ausgewählt, wobei die unterscheidenden Merkmale durch in der Technik bekannte Verfahren, wie beispielsweise Haar-Wavelet, Gabor-Wavelet und Leung-und-Malik-Filterbank, definiert werden. Ferner kann eine 2D-Bildortsinformation auf der Grundlage minimaler Klassifizierungsfehler jedes Merkmals, berechnet als die Summe einer Falschakzeptanzrate (FAR) und einer Falschrückweisungsrate (FRR), durch Abstimmen eines einzelnen Schwellenwerts verwendet werden, wie es in
5 gezeigt ist. Dieser Klassifizierungsfehler kann durch den folgenden Ausdruck beschrieben werden:Klassifizierungsfehler(i) = FARi + FRRi (2) - Die Information von den trainierten Klassifizierern wird verwendet, um das Merkmal als einen freien Pfad oder einen nicht freien Pfad angebend zu klassifizieren oder zu gewichten, wobei die bestimmte Klassifizierung von der Stärke von Vergleichen mit den trainierten Daten abhängt. Die Klassifizierung des Merkmals kann, wenn das Merkmal das einzige Merkmal in dem Stück ist, direkt auf das Stück angewandt werden. Die Klassifizierung eines Stücks mit mehreren identifizierten Merkmalen kann viele Formen annehmen, die umfassen, dass das Stück durch das umfasste Merkmal definiert wird, das am stärksten darauf hinweist, dass das Stück nicht frei ist, oder dass das Stück durch eine gewichtete Summe aller darin umfasster Merkmale definiert wird.
- Das obige Verfahren kann verwendet werden, um ein einzelnes Bild
10 zu prüfen und auf der Grundlage der visuellen Information, die in dem Bild10 enthalten ist, einen freien Pfad50 zu schätzen. Dieses Verfahren kann mit einem Intervall wiederholt werden, wenn das Fahrzeug die Straße entlangfährt, um neue Informationen zu berücksichtigen und den formulierten freien Pfad auf einen Bereich vor der neuen Position des Fahrzeugs zu erweitern. Die Wahl des Intervalls muss das Bild10 mit einer ausreichenden Häufigkeit aktualisieren, um dem Fahrzeug100 einen freien Pfad genau bereitzustellen, auf dem es fahren kann. Das Intervall kann jedoch auch als ein Minimalwert gewählt werden, um das Fahrzeug geeignet zu steuern, die dem Steuermodul120 auferlegte Rechenlast jedoch auch nicht übermäßig zu erhöhen. - Die Detektion eines freien Pfads kann wie oben beschrieben durch ein einzelnes Bild
10 erreicht werden. Mit dem Hinzufügen eines zweiten Bilds, das zeitlich nahe an dem ursprünglichen Bild aufgenommen wird, wie beispielsweise sequentielle Bilder von einem Streaming-Video-Clip, können jedoch die Verarbeitungsgeschwindigkeit und die Genauigkeit verbessert werden. Ein zweites Bild ermöglicht einen direkten Vergleich mit dem ersten und sorgt für eine aktualisierte Information hinsichtlich des Verlaufs des Fahrzeugs und der Bewegung von detektierten Objekten. Die Änderung der Perspektive der Kamera110 ermöglicht auch eine andere Analyse von Merkmalen von dem ersten Bild: ein Merkmal, das in dem ersten Bild möglicherweise nicht deutlich auftauchte oder undeutlich war, kann unter einem anderen Kamerawinkel angezeigt werden, kann deutlicher auffallen oder kann sich seit dem ersten Bild bewegt haben, was dem Klassifizierungsalgorithmus eine zusätzliche Möglichkeit zum Definieren des Merkmals ermöglicht. - Ein Verarbeiten eines zweiten Bilds in Bezug auf das ursprüngliche Bild
10 kann durch Berechnen einer Bilddifferenz durchgeführt werden. Wenn die Bilddifferenz eines interessierenden Punkts, wie beispielsweise eines durch Radar identifizierten Merkmals, nicht Null ist, kann der Punkt als eine neue Information umfassend identifiziert werden. Punkte, bei denen die Bilddifferenz gleich Null ist, können bei der Analyse weggelassen werden, und Rechenressourcen können eingespart werden. Verfahren zum Ermitteln einer Bilddifferenz umfassen eine absolute Bildintensitätsdifferenz und eine fahrzeugbewegungskompensierte Bilddifferenz. - Ein Ermitteln einer Bilddifferenz durch Berechnen einer absoluten Bildintensitätsdifferenz kann verwendet werden, um eine Information zwischen zwei Bildern zu sammeln. Ein Verfahren einer absoluten Bildintensitätsdifferenz umfasst das Ermitteln äquivalenter Bildeigenschaften zwischen dem ursprünglichen Bild und dem zweiten Bild, um eine Bewegung des Fahrzeugs zwischen den Bildern zu kompensieren, das Überlagern der Bilder und das Notieren jeder signifikanten Änderung der Intensität zwischen den Bildern. Ein Vergleich zwischen den Bildern, der eine Änderung der Bildintensität in einem bestimmten Bereich angibt, enthält eine neue Information. Bereichen oder Stücken, die keine Intensitätsänderung anzeigen, kann bei der Analyse weniger Aufmerksamkeit geschenkt werden, wohingegen man sich auf Bereiche konzentrieren kann, die deutliche Intensitätsänderungen anzeigen, wobei die zuvor genannten Verfahren zum Analysieren von Stücken an einem oder beiden erfassten Bildern verwendet werden.
-
6A ,6B und6C zeigen eine beispielhafte Ermittlung einer Bilddifferenz durch Berechnen einer absoluten Bildintensitätsdifferenz gemäß der Offenbarung.6A zeigt ein ursprüngliches Bild.6B zeigt ein zweites Bild mit Änderungen zu dem ursprünglichen Bild. Im Speziellen hat sich die gezeigte Kreisform nach links verschoben. Ein Vergleich der beiden Bilder wie in6C gezeigt, ein Ausgang, der das Ergebnis eines Vergleichs einer absoluten Bildintensitätsdifferenz darstellt, identifiziert ein Gebiet, das von dem ersten Bild zu dem zweiten Bild dunkler geworden ist, und ein anderes Gebiet, das von dem ersten Bild zu dem zweiten Bild heller geworden ist. Eine Analyse des Vergleichs liefert die Information, dass in diesem Gebiet der Bilder wahrscheinlich eine Änderung als Ergebnis einer Bewegung oder eine Änderung der Perspektive vorliegt. Auf diese Weise kann eine absolute Bildintensitätsdifferenz verwendet werden, um ein Paar von sequentiellen Bildern zum Identifizieren eines potentiell nicht freien Pfads zu analysieren. - Ähnlich kann ein Ermitteln einer Bilddifferenz durch Berechnen einer fahrzeugbewegungskompensierten Bilddifferenz verwendet werden, um eine Information zwischen zwei Bildern zu erfassen. Es sind viele Verfahren zum Berechnen einer fahrzeugbewegungskompensierten Bilddifferenz bekannt. Ein beispielhaftes Verfahren einer fahrzeugbewegungskompensierten Bilddifferenz umfasst das gleichzeitige Analysieren eines potentiellen Objekts als sowohl ein stationärer Abschnitt eines freien Pfads als auch ein detektiertes Objekt. Es wird eine Wahrscheinlichkeitsanalyse an Merkmalen durchgeführt, die entsprechend dem potentiellen Objekt aus beiden Klassifizierungen gleichzeitig identifiziert werden, und die Klassifizierungen können beispielsweise durch die folgende Logik verglichen werden:
Konfidenz(i) = = WahrscheinlichkeitFreierPfad(i) – WahrscheinlichkeitDetektiertesObjekt(i) Wenn_Konfidenz > 0, dann_Stück = freierPfad (3) - Wenn bei diesem beispielhaften Vergleich Konfidenz(i) größer als Null ist, wird das Stück, das das Merkmal enthält, als freier Pfad klassifiziert. Wenn Konfidenz(i) kleiner oder gleich Null ist, wird das Stück, das das Merkmal enthält, als nicht freier Pfad oder eingeschränkt klassifiziert. Es können jedoch verschiedene Werte für das Konfidenzniveau zum Klassifizieren des Stücks als freier Pfad ausgewählt werden. Beispielsweise kann ein Testen zeigen, dass falsche positive Ergebnisse wahrscheinlicher sind als falsche negative Ergebnisse, und somit kann ein Faktor oder Offset eingeführt werden.
-
7 zeigt ein Verfahren zum gleichzeitigen Klassifizieren eines Merkmals als Abschnitt eines freien Pfads und als detektiertes Objekt, wie es oben gemäß der Offenbarung beschrieben ist. Das Bild10 umfasst das Objekt40 , eine trapezförmige Projektion70 und eine rechteckige Projektion80 . Dieses Verfahren verwendet eine Annahme, die das Objekt40 innerhalb der Projektion70 als flaches Objekt auf den Boden projiziert, um die Klassifizierung des Merkmals als Abschnitt eines freien Pfads zu testen. Das Verfahren verwendet auch eine Annahme, die das Objekt40 innerhalb der rechteckigen Projektion80 als vertikales Objekt projiziert, um die Klassifizierung des Merkmals als ein detektiertes Objekt zu testen.8 zeigt Vergleiche, die mit den gesammelten Daten zwischen den beiden Bildern gezogen werden, zum Bewerten der Natur des Objekts40 gemäß der Offenbarung. Die Kamera110 beobachtet und erfasst zum Zeitpunkt t1 Daten von dem Objekt40 in Form eines ersten Bilds. Wenn das Objekt40 ein tatsächliches detektiertes Objekt ist, entspricht das durch die Kamera110 beobachtete Profil des Objekts40 zum Zeitpunkt t1 einem Punkt90A . Wenn das Objekt40 ein flaches Objekt in der gleichen Ebene wie der Boden20 ist, entspricht das durch die Kamera110 beobachtete Profil des Objekts40 zum Zeitpunkt t1 einem Punkt90B . Zwischen den Zeitpunkten t1 und t2 bewegt sich die Kamera110 eine Distanz. Zum Zeitpunkt t2 wird ein zweites Bild erfasst, und eine Information bezüglich des Objekts40 kann durch Anwenden eines Algorithmus getestet werden, der sichtbare Attribute des Objekts in dem zweiten Bild im Vergleich zu dem ersten Bild betrachtet. Wenn das Objekt40 ein tatsächliches detektiertes Objekt ist, das sich von dem Boden20 nach oben erstreckt, wird zum Zeitpunkt t2 das Profil des Objekts40 bei Punkt90C beobachtet. Wenn das Objekt40 ein flaches Objekt in der gleichen Ebene wie der Boden20 ist, wird das Profil des Objekts40 zum Zeitpunkt t2 bei Punkt90B beobachtet. Der durch die fahrzeugbewegungskompensierte Bilddifferenz abgeleitete Vergleich kann durch Anwendung von Klassifizierern auf der Grundlage der Beobachtungen der Punkte90 direkt eine Konfidenz zuordnen, oder der Vergleich kann einfach auf den Bereich hinweisen, der die Änderung als interessierenden Punkt anzeigt. Ein Testen des Objekts hinsichtlich beider Klassifizierungen, als flaches Objekt und als tatsächliches detektiertes Objekt, ermöglicht entweder, dass der Bereich, der das Objekt40 umfasst, für eine weitere Analyse durch eine Analyse eines Stücks wie oben beschrieben identifiziert wird, oder eine direkte Entwicklung einer Wahrscheinlichkeit eines freien Pfads und einer Wahrscheinlichkeit eines detektierten Objekts zum Vergleich, wie beispielsweise in dem obigen logischen Ausdruck (2). - Die aus der Analyse des zweiten Bilds verfügbare Information kann zusätzlich durch Integration einer Information bezüglich einer Bewegung des Fahrzeugs, wie beispielsweise Drehzahl und Gierrate, verbessert werden. Eine Information bezüglich der Fahrzeugbewegung steht von einer Anzahl von Quellen zur Verfügung, die den Fahrzeuggeschwindigkeitsmesser, Antiblockiermechanismen und GPS-Ortssysteme umfassen. Die Algorithmen können diese Fahrzeugbewegungsinformation beispielsweise in Verbindung mit den in
7 und8 beschriebenen Projektionen verwenden, um Winkel, die bei einem Merkmal vorliegen sollten, das flach auf dem Boden liegt, im zweiten Bild auf der Grundlage von Daten von dem ersten Bild und der gemessenen Bewegung des Fahrzeugs zwischen den Bildern zu projizieren. - Die Anzahl von Bildern, die für einen Vergleich verwendet werden, muss nicht auf Zwei begrenzt sein. Es kann eine Mehrbildanalyse mit mehreren Iterationen durchgeführt werden, wobei ein Objekt über eine Anzahl von Zyklen verfolgt und verglichen wird. Wie oben erwähnt kann die Recheneffizienz erhöht werden, indem eine Bilddifferenzanalyse zum Identifizieren von interessierenden Punkten verwendet wird und Bereiche mit einer Differenz von Null bei den nachfolgenden Analysen weggelassen werden. Solche Effizienzen können bei mehreren Iterationen verwendet werden, wobei beispielsweise nur zwischen einem ersten und einem zweiten Bild identifizierte interessierende Punkte in dem dritten und vierten aufgenommenen Bild analysiert werden. An einer Stelle muss ein frischer Satz von Bildern verglichen werden, um sicherzustellen, dass in keinem der Bereiche, die eine Differenz von Null zeigen, eine Änderung aufgetreten ist, wie beispielsweise ein sich bewegendes Objekt, das auf einem zuvor freien Pfad auftaucht. Die Verwendung von Bilddifferenzanalysen und fokussierten Analysen, wobei mit einer Änderung von Null identifizierte Bereiche weggelassen werden, variiert von Anwendung zu Anwendung und kann zwischen verschiedenen Betriebsbedingungen, wie beispielsweise Fahrzeuggeschwindigkeit oder wahrgenommene Betriebsumgebung, variieren. Die spezielle Verwendung der Bilddifferenzanalysen und der fokussierten Analysen kann viele verschiedene Ausführungsformen umfassen, und die Offenbarung soll nicht auf die hierin beschriebenen spezifischen Ausführungsformen beschränkt sein.
-
9 zeigt einen beispielhaften Prozess200 , bei dem ein Eingang von einer Kamera analysiert wird, um eine Wahrscheinlichkeit eines freien Pfads zu ermitteln, gemäß der Offenbarung. In Schritt202 wird ein Kameraeingang in Form eines Bilds erzeugt. In Schritt204 wird aus dem Bild ein Stück für eine Analyse ausgewählt. Schritt206 stellt ein Filter oder einen Satz von Filtern, die zum Verarbeiten des Stücks zur Verfügung stehen, dar. In Schritt208 wird an dem ausgewählten Pfad durch Anwendung der Filter, die aus Schritt206 zur Verfügung stehen, und Anwendung anderer Algorithmen eine Merkmalsextraktion durchgeführt. Schritt210 umfasst einen Klassifizierertrainingsprozess. Wie oben erwähnt werden Klassifizierer oder eine Logik, die beim Entwickeln von Wahrscheinlichkeitswerten verwendet werden, anfänglich offline trainiert. Auf der Grundlage von Fuzzy-Logik, neuronalen Netzen oder anderen in der Technik bekannten Lernmechanismen kann optional ein Training in dem Fahrzeug fortgeführt werden. Diese trainierten Klassifizierer werden in Schritt212 verwendet, um an den in Schritt208 extrahierten Merkmalen eine Wahrscheinlichkeitsanalyse durchzuführen, und es wird ein Wahrscheinlichkeitswert für das Stück entwickelt. Dieser Wahrscheinlichkeitswert drückt eine Konfidenz aus, dass das ausgewählte Stück frei ist. In Schritt214 wird der in Schritt212 entwickelte Wahrscheinlichkeitswert mit einem Schwellenwertwahrscheinlichkeitswert verglichen. Wenn der Wahrscheinlichkeitswert größer als der Schwellenwert ist, wird das Stück in Schritt218 als freier Pfad identifiziert. Wenn der Wahrscheinlichkeitswert nicht größer als der Schwellenwert ist, wird das Stück als nicht freier Pfad identifiziert. Wie oben beschrieben kann der Prozess200 auf eine Anzahl von Arten wiederholt oder reiteriert werden, wobei das gleiche Bild mit der Auswahl und Analyse von unterschiedlichen Stücken wiederholt analysiert wird, und ein identifiziertes Stück hinsichtlich einer Änderung über einer Anzahl von sequentiellen Bildern verfolgt und analysiert werden kann. - Wie oben erwähnt kann das Steuermodul
120 Algorithmen und Mechanismen zum Betätigen einer autonomen Fahrsteuerung durch ein in der Technik bekanntes und hierin nicht beschriebenes Mittel umfassen oder kann das Steuermodul120 einfach eine Information an ein separates autonomes Fahrsystem liefern. Die Reaktionen auf wahrgenommene Objekte können variieren und umfassen ohne Einschränkung Lenkänderungen, Drosseländerungen, Bremsantworten und dass der Bediener des Fahrzeugs gewarnt wird und dass die Steuerung des Fahrzeugs dem Bediener überlassen wird. - Die Offenbarung beschrieb bestimmte bevorzugte Ausführungsformen und Abwandlungen dieser. Weitere Abwandlungen und Änderungen können für Dritte beim Lesen und Verstehen der Beschreibung ersichtlich werden. Daher soll die Offenbarung nicht auf die besondere(n) Ausführungsform(en) beschränkt sein, die als die beste Ausführungsart offenbart ist/sind, die zur Ausführung dieser Offenbarung in Betracht gezogen wird, sondern die Offenbarung soll alle Ausführungsformen umfassen, die in den Schutzumfang der beigefügten Ansprüche fallen.
- Zusammenfassung
- Ein Verfahren für eine Detektion eines freien Pfads für ein Fahrzeug unter Verwendung einer Kamera umfasst, dass ein Bodenbereich vor dem Fahrzeug mit der Kamera abgebildet wird, um ein Bodenbild zu erzeugen, und das Bodenbild analysiert wird, um einen freien Pfad zu formulieren, der frei von Objekten ist, die die Fahrt des Fahrzeugs einschränken.
Claims (16)
- Verfahren zur Detektion eines freien Pfads für ein Fahrzeug unter Verwendung einer Kamera, das umfasst, dass: ein Bodenbereich vor dem Fahrzeug mit der Kamera abgebildet wird, um ein Bodenbild zu erzeugen; und das Bodenbild analysiert wird, um einen freien Pfad zu formulieren, der frei von Objekten ist, die die Fahrt des Fahrzeugs einschränken, umfassend, dass iterativ ein Komponentenstück des Bodenbilds identifiziert wird, ein Merkmal von dem Komponentenstück extrahiert wird, und das Komponentenstück auf der Grundlage des Merkmals klassifiziert wird.
- Verfahren nach Anspruch 1, wobei das Extrahieren eines Merkmals eine Merkmalserkennung auf der Grundlage des Filterns des Komponentenstücks umfasst.
- Verfahren nach Anspruch 1, wobei das Klassifizieren umfasst, dass: eine Wahrscheinlichkeit eines freien Pfads für ein Stück ermittelt wird, die eine Bruchkonfidenz, dass das Merkmal kein Objekt ist, das die Fahrt die Fahrzeugs einschränkt, beschreibt; die Wahrscheinlichkeit eines freien Pfads für ein Stück mit einer Schwellenwertkonfidenz eines freien Pfads verglichen wird; das Komponentenstück als frei bezeichnet wird, wenn die Wahrscheinlichkeit eines freien Pfads für ein Stück größer als die Schwellenwertkonfidenz eines freien Pfads ist; und das Komponentenstück als nicht frei bezeichnet wird, wenn die Wahrscheinlichkeit eines freien Pfads für ein Stück nicht größer als die Schwellenwertkonfidenz eines freien Pfads ist.
- Verfahren nach Anspruch 3, wobei das Ermitteln einer Wahrscheinlichkeit eines freien Pfads für ein Stück umfasst, dass: eine Datenbank trainierter Klassifizierer verwendet wird, um das Merkmal mit trainierten Modellen zu analogisieren; und dem Merkmal ein Gewicht eines freien Pfads zugeordnet wird.
- Verfahren nach Anspruch 3, wobei die Schwellenwertkonfidenz eines freien Pfads im Wesentlichen 0,5 ist.
- Verfahren nach Anspruch 1, wobei das Identifizieren des Komponentenstücks umfasst, dass potentielle Objekte mit einem Radarbilderfassungssystem identifiziert werden.
- Verfahren nach Anspruch 1, wobei das Identifizieren des Komponentenstücks umfasst, dass: ein zweiter Bodenbereich vor dem Fahrzeug abgebildet wird, um ein zweites Bodenbild zu erzeugen; das zweite Bodenbild mit dem Bodenbild verglichen wird; und auf der Grundlage des Vergleichs ein Komponentenstück definiert wird.
- Verfahren nach Anspruch 7, wobei das Vergleichen des zweiten Bodenbilds mit dem Bodenbild umfasst, dass: das zweite Bodenbild mit dem Bodenbild in Beziehung gebracht wird; eine Bilddifferenz durch eine absolute Bildintensitätsdifferenz erzeugt wird; und ein Bereich der Bilddifferenz, der eine Änderung der Bildintensität anzeigt, fokussiert wird.
- Verfahren nach Anspruch 7, wobei das Vergleichen des zweiten Bodenbilds mit dem Bodenbild umfasst, dass: das zweite Bodenbild mit dem Bodenbild in Beziehung gebracht wird; eine Bilddifferenz erzeugt wird, die eine fahrzeugbewegungskompensierte Bilddifferenz umfasst; und ein Bereich der Bilddifferenz, der eine Änderung perspektivischer Eigenschaften anzeigt, fokussiert wird.
- Verfahren zur Detektion eines freien Pfads für ein Fahrzeug unter Verwendung einer Kamera, das umfasst, dass: ein erster Bodenbereich vor dem Fahrzeug mit der Kamera abgebildet wird, um ein erstes Bodenbild zu erzeugen; ein zweiter Bodenbereich vor dem Fahrzeug mit der Kamera abgebildet wird, um ein zweites Bodenbild zu erzeugen; und das erste und zweite Bodenbild analysiert werden, um einen freien Pfad zu formulieren, der frei von Objekten ist, die die Fahrt des Fahrzeugs einschränken, umfassend, dass ein Komponentenstück des ersten Bodenbilds, das einem identifizierten potentiellen Objekt entspricht, identifiziert wird, das zweite Bodenbild mit dem ersten Bodenbild über fahrzeugbewegungskompensierte Bilddifferenzen verglichen wird, eine Wahrscheinlichkeit eines freien Pfads und eine Wahrscheinlichkeit eines detektierten Objekts auf der Grundlage des Vergleichs erzeugt werden, das Stück als frei klassifiziert wird, wenn die Wahrscheinlichkeit eines freien Pfads größer ist als die Wahrscheinlichkeit eines detektierten Objekts, und das Stück als nicht frei klassifiziert wird, wenn die Wahrscheinlichkeit eines freien Pfads nicht größer ist als die Wahrscheinlichkeit eines detektierten Objekts.
- Vorrichtung für eine Detektion eines freien Pfads für ein Fahrzeug, umfassend: eine Kamera, die ausgestaltet ist, um ein Pixel-Bild zu erzeugen; und ein Steuermodul, das das Pixel-Bild analysiert und einen Ausgang eines freien Pfads erzeugt durch iteratives Identifizieren eines Komponentenstücks des Pixel-Bilds, Extrahieren eines Merkmals von dem Stück, und Klassifizieren des Stücks auf der Grundlage des Merkmals.
- Vorrichtung nach Anspruch 11, ferner umfassend: eine Radarbilderfassungseinrichtung, die Daten erzeugt, die einem Objekt vor dem Fahrzeug entsprechen; und wobei das Steuermodul das Komponentenstück auf der Grundlage der Daten identifiziert.
- Vorrichtung nach Anspruch 11, wobei das Steuermodul das Merkmal von dem Stück durch Anwenden einer Merkmalserkennung auf der Grundlage eines Filterns des Stücks extrahiert.
- Vorrichtung nach Anspruch 11, wobei das Steuermodul das Stück klassifiziert durch Vergleichen des Merkmals mit einem trainierten Klassifizierer, Zuordnen einer Wahrscheinlichkeit eines freien Pfads zu dem Stück auf der Grundlage des Vergleichs, Bezeichnen des Stücks als frei, wenn die Wahrscheinlichkeit eines freien Pfads größer ist als eine Schwellenwertkonfidenz, und Bezeichnen des Stücks als nicht frei, wenn die Wahrscheinlichkeit eines freien Pfads nicht größer ist als eine Schwellenwertkonfidenz.
- Vorrichtung nach Anspruch 11, ferner umfassend: die Kamera, die ausgestaltet ist, um ein zweites Pixel-Bild zu erzeugen; und wobei das Steuermodul das Pixel-Bild mit dem zweiten Pixel-Bild durch Anwenden eines Vergleichs einer absoluten Bildintensitätsdifferenz vergleicht, innerhalb des Vergleichs ein potentielles Objekt als jeglichen Bereich, der eine Änderung anzeigt, identifiziert, und das potentielle Objekt zum Identifizieren des Komponentenstücks verwendet.
- Vorrichtung nach Anspruch 11, ferner umfassend: die Kamera, die ausgestaltet ist, um ein zweites Pixel-Bild zu erzeugen; und wobei das Steuermodul das Pixel-Bild mit dem zweiten Pixel-Bild durch Anwenden eines fahrzeugbewegungskompensierten Bildvergleichs vergleicht, innerhalb des Vergleichs ein potentielles Objekt als jeglichen Bereich, der eine Änderung anzeigt, identifiziert, und das potentielle Objekt zum Identifizieren des Komponentenstücks verwendet.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US12/108,581 US8917904B2 (en) | 2008-04-24 | 2008-04-24 | Vehicle clear path detection |
| US12/108,581 | 2008-04-24 | ||
| PCT/US2009/041327 WO2009132054A2 (en) | 2008-04-24 | 2009-04-22 | Vehicle clear path detection |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE112009000949T5 true DE112009000949T5 (de) | 2011-06-01 |
Family
ID=41215066
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE112009000949T Withdrawn DE112009000949T5 (de) | 2008-04-24 | 2009-04-22 | Detektion eines freien Fahrpfads für ein Fahrzeug |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US8917904B2 (de) |
| CN (1) | CN102076531B (de) |
| DE (1) | DE112009000949T5 (de) |
| WO (1) | WO2009132054A2 (de) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102019219389A1 (de) * | 2019-12-11 | 2021-06-17 | Volkswagen Aktiengesellschaft | Verfahren, Computerprogramm und Vorrichtung zum Reduzieren von zu erwartenden Einschränkungen einer Sensorik eines Fortbewegungsmittels durch Umgebungseinflüsse beim Betrieb des Fortbewegungsmittels |
Families Citing this family (122)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102008023972A1 (de) * | 2007-05-25 | 2008-11-27 | Continental Teves Ag & Co. Ohg | Verfahren und Vorrichtung zur Erkennung von verkehrsrelevanten Informationen |
| US8803966B2 (en) * | 2008-04-24 | 2014-08-12 | GM Global Technology Operations LLC | Clear path detection using an example-based approach |
| US8611585B2 (en) * | 2008-04-24 | 2013-12-17 | GM Global Technology Operations LLC | Clear path detection using patch approach |
| US8605947B2 (en) * | 2008-04-24 | 2013-12-10 | GM Global Technology Operations LLC | Method for detecting a clear path of travel for a vehicle enhanced by object detection |
| US8428305B2 (en) * | 2008-04-24 | 2013-04-23 | GM Global Technology Operations LLC | Method for detecting a clear path through topographical variation analysis |
| US8670592B2 (en) * | 2008-04-24 | 2014-03-11 | GM Global Technology Operations LLC | Clear path detection using segmentation-based method |
| US8487991B2 (en) * | 2008-04-24 | 2013-07-16 | GM Global Technology Operations LLC | Clear path detection using a vanishing point |
| US8634593B2 (en) * | 2008-04-24 | 2014-01-21 | GM Global Technology Operations LLC | Pixel-based texture-less clear path detection |
| US8332134B2 (en) * | 2008-04-24 | 2012-12-11 | GM Global Technology Operations LLC | Three-dimensional LIDAR-based clear path detection |
| US8699754B2 (en) * | 2008-04-24 | 2014-04-15 | GM Global Technology Operations LLC | Clear path detection through road modeling |
| US8452053B2 (en) * | 2008-04-24 | 2013-05-28 | GM Global Technology Operations LLC | Pixel-based texture-rich clear path detection |
| US8890951B2 (en) * | 2008-04-24 | 2014-11-18 | GM Global Technology Operations LLC | Clear path detection with patch smoothing approach |
| US8751154B2 (en) * | 2008-04-24 | 2014-06-10 | GM Global Technology Operations LLC | Enhanced clear path detection in the presence of traffic infrastructure indicator |
| US8421859B2 (en) * | 2008-04-24 | 2013-04-16 | GM Global Technology Operations LLC | Clear path detection using a hierachical approach |
| US9026315B2 (en) | 2010-10-13 | 2015-05-05 | Deere & Company | Apparatus for machine coordination which maintains line-of-site contact |
| US20100063652A1 (en) * | 2008-09-11 | 2010-03-11 | Noel Wayne Anderson | Garment for Use Near Autonomous Machines |
| US8392065B2 (en) * | 2008-09-11 | 2013-03-05 | Deere & Company | Leader-follower semi-autonomous vehicle with operator on side |
| US8989972B2 (en) | 2008-09-11 | 2015-03-24 | Deere & Company | Leader-follower fully-autonomous vehicle with operator on side |
| US8229618B2 (en) * | 2008-09-11 | 2012-07-24 | Deere & Company | Leader-follower fully autonomous vehicle with operator on side |
| US8224500B2 (en) * | 2008-09-11 | 2012-07-17 | Deere & Company | Distributed knowledge base program for vehicular localization and work-site management |
| US8195342B2 (en) * | 2008-09-11 | 2012-06-05 | Deere & Company | Distributed knowledge base for vehicular localization and work-site management |
| US9188980B2 (en) | 2008-09-11 | 2015-11-17 | Deere & Company | Vehicle with high integrity perception system |
| US9235214B2 (en) * | 2008-09-11 | 2016-01-12 | Deere & Company | Distributed knowledge base method for vehicular localization and work-site management |
| US8478493B2 (en) | 2008-09-11 | 2013-07-02 | Deere & Company | High integrity perception program |
| US8195358B2 (en) | 2008-09-11 | 2012-06-05 | Deere & Company | Multi-vehicle high integrity perception |
| US8818567B2 (en) | 2008-09-11 | 2014-08-26 | Deere & Company | High integrity perception for machine localization and safeguarding |
| US8269652B2 (en) * | 2009-04-02 | 2012-09-18 | GM Global Technology Operations LLC | Vehicle-to-vehicle communicator on full-windshield head-up display |
| US8547298B2 (en) * | 2009-04-02 | 2013-10-01 | GM Global Technology Operations LLC | Continuation of exterior view on interior pillars and surfaces |
| US8482486B2 (en) * | 2009-04-02 | 2013-07-09 | GM Global Technology Operations LLC | Rear view mirror on full-windshield head-up display |
| US7924146B2 (en) * | 2009-04-02 | 2011-04-12 | GM Global Technology Operations LLC | Daytime pedestrian detection on full-windscreen head-up display |
| US8830141B2 (en) * | 2009-04-02 | 2014-09-09 | GM Global Technology Operations LLC | Full-windshield head-up display enhancement: anti-reflective glass hard coat |
| US8817090B2 (en) * | 2009-04-02 | 2014-08-26 | GM Global Technology Operations LLC | Luminance uniformity compensation of vector projection display |
| US8350724B2 (en) * | 2009-04-02 | 2013-01-08 | GM Global Technology Operations LLC | Rear parking assist on full rear-window head-up display |
| US8564502B2 (en) * | 2009-04-02 | 2013-10-22 | GM Global Technology Operations LLC | Distortion and perspective correction of vector projection display |
| US8384532B2 (en) * | 2009-04-02 | 2013-02-26 | GM Global Technology Operations LLC | Lane of travel on windshield head-up display |
| US8427395B2 (en) * | 2009-04-02 | 2013-04-23 | GM Global Technology Operations LLC | Full-windshield hud enhancement: pixelated field of view limited architecture |
| US8912978B2 (en) * | 2009-04-02 | 2014-12-16 | GM Global Technology Operations LLC | Dynamic vehicle system information on full windshield head-up display |
| US8629903B2 (en) * | 2009-04-02 | 2014-01-14 | GM Global Technology Operations LLC | Enhanced vision system full-windshield HUD |
| US8384531B2 (en) * | 2009-04-02 | 2013-02-26 | GM Global Technology Operations LLC | Recommended following distance on full-windshield head-up display |
| US8072686B2 (en) * | 2009-04-02 | 2011-12-06 | GM Global Technology Operations LLC | UV laser beamlett on full-windshield head-up display |
| US8317329B2 (en) * | 2009-04-02 | 2012-11-27 | GM Global Technology Operations LLC | Infotainment display on full-windshield head-up display |
| US8395529B2 (en) | 2009-04-02 | 2013-03-12 | GM Global Technology Operations LLC | Traffic infrastructure indicator on head-up display |
| US20100253595A1 (en) * | 2009-04-02 | 2010-10-07 | Gm Global Technology Operations, Inc. | Virtual controls and displays by laser projection |
| US8330673B2 (en) * | 2009-04-02 | 2012-12-11 | GM Global Technology Operations LLC | Scan loop optimization of vector projection display |
| US8358224B2 (en) * | 2009-04-02 | 2013-01-22 | GM Global Technology Operations LLC | Point of interest location marking on full windshield head-up display |
| US8629784B2 (en) | 2009-04-02 | 2014-01-14 | GM Global Technology Operations LLC | Peripheral salient feature enhancement on full-windshield head-up display |
| US8704653B2 (en) * | 2009-04-02 | 2014-04-22 | GM Global Technology Operations LLC | Enhanced road vision on full windshield head-up display |
| US8344894B2 (en) * | 2009-04-02 | 2013-01-01 | GM Global Technology Operations LLC | Driver drowsy alert on full-windshield head-up display |
| US8977489B2 (en) * | 2009-05-18 | 2015-03-10 | GM Global Technology Operations LLC | Turn by turn graphical navigation on full windshield head-up display |
| US8164543B2 (en) * | 2009-05-18 | 2012-04-24 | GM Global Technology Operations LLC | Night vision on full windshield head-up display |
| FR2947657B1 (fr) * | 2009-07-06 | 2016-05-27 | Valeo Vision | Procede de detection d'un obstacle pour vehicule automobile |
| FR2947656B1 (fr) * | 2009-07-06 | 2016-05-27 | Valeo Vision | Procede de detection d'un obstacle pour vehicule automobile |
| US8098170B1 (en) | 2010-10-08 | 2012-01-17 | GM Global Technology Operations LLC | Full-windshield head-up display interface for social networking |
| US8606430B2 (en) | 2010-10-08 | 2013-12-10 | GM Global Technology Operations LLC | External presentation of information on full glass display |
| US8514099B2 (en) | 2010-10-13 | 2013-08-20 | GM Global Technology Operations LLC | Vehicle threat identification on full windshield head-up display |
| US8773535B2 (en) * | 2010-12-08 | 2014-07-08 | GM Global Technology Operations LLC | Adaptation for clear path detection using reliable local model updating |
| US8681222B2 (en) * | 2010-12-08 | 2014-03-25 | GM Global Technology Operations LLC | Adaptation for clear path detection with additional classifiers |
| US8098171B1 (en) | 2010-12-28 | 2012-01-17 | GM Global Technology Operations LLC | Traffic visibility in poor viewing conditions on full windshield head-up display |
| US8686872B2 (en) | 2010-12-29 | 2014-04-01 | GM Global Technology Operations LLC | Roadway condition warning on full windshield head-up display |
| US8605011B2 (en) | 2010-12-29 | 2013-12-10 | GM Global Technology Operations LLC | Virtual viewfinder on full windshield head-up display |
| US8924150B2 (en) | 2010-12-29 | 2014-12-30 | GM Global Technology Operations LLC | Vehicle operation and control system for autonomous vehicles on full windshield display |
| US8633979B2 (en) | 2010-12-29 | 2014-01-21 | GM Global Technology Operations LLC | Augmented road scene illustrator system on full windshield head-up display |
| US9057874B2 (en) | 2010-12-30 | 2015-06-16 | GM Global Technology Operations LLC | Virtual cursor for road scene object selection on full windshield head-up display |
| US9008904B2 (en) | 2010-12-30 | 2015-04-14 | GM Global Technology Operations LLC | Graphical vehicle command system for autonomous vehicles on full windshield head-up display |
| US8692739B2 (en) | 2011-09-22 | 2014-04-08 | GM Global Technology Operations LLC | Dynamic information presentation on full windshield head-up display |
| US8514101B2 (en) | 2011-12-02 | 2013-08-20 | GM Global Technology Operations LLC | Driving maneuver assist on full windshield head-up display |
| US8818708B2 (en) * | 2011-12-02 | 2014-08-26 | GM Global Technology Operations LLC | Optimum driving path on full windshield display |
| US8781170B2 (en) | 2011-12-06 | 2014-07-15 | GM Global Technology Operations LLC | Vehicle ghosting on full windshield display |
| CN103176185B (zh) * | 2011-12-26 | 2015-01-21 | 上海汽车集团股份有限公司 | 用于检测道路障碍物的方法及系统 |
| US9443429B2 (en) | 2012-01-24 | 2016-09-13 | GM Global Technology Operations LLC | Optimum gaze location on full windscreen display |
| US8559727B1 (en) * | 2012-04-09 | 2013-10-15 | GM Global Technology Operations LLC | Temporal coherence in clear path detection |
| USD735214S1 (en) * | 2012-11-30 | 2015-07-28 | Google Inc. | Display screen or portion thereof with graphical user interface |
| US9547805B1 (en) * | 2013-01-22 | 2017-01-17 | The Boeing Company | Systems and methods for identifying roads in images |
| US8676431B1 (en) | 2013-03-12 | 2014-03-18 | Google Inc. | User interface for displaying object-based indications in an autonomous driving system |
| USD750663S1 (en) | 2013-03-12 | 2016-03-01 | Google Inc. | Display screen or a portion thereof with graphical user interface |
| USD754190S1 (en) | 2013-03-13 | 2016-04-19 | Google Inc. | Display screen or portion thereof with graphical user interface |
| USD754189S1 (en) | 2013-03-13 | 2016-04-19 | Google Inc. | Display screen or portion thereof with graphical user interface |
| US9164281B2 (en) | 2013-03-15 | 2015-10-20 | Honda Motor Co., Ltd. | Volumetric heads-up display with dynamic focal plane |
| US9393870B2 (en) | 2013-03-15 | 2016-07-19 | Honda Motor Co., Ltd. | Volumetric heads-up display with dynamic focal plane |
| US9378644B2 (en) | 2013-03-15 | 2016-06-28 | Honda Motor Co., Ltd. | System and method for warning a driver of a potential rear end collision |
| US9251715B2 (en) | 2013-03-15 | 2016-02-02 | Honda Motor Co., Ltd. | Driver training system using heads-up display augmented reality graphics elements |
| US10215583B2 (en) | 2013-03-15 | 2019-02-26 | Honda Motor Co., Ltd. | Multi-level navigation monitoring and control |
| US10339711B2 (en) | 2013-03-15 | 2019-07-02 | Honda Motor Co., Ltd. | System and method for providing augmented reality based directions based on verbal and gestural cues |
| US9747898B2 (en) | 2013-03-15 | 2017-08-29 | Honda Motor Co., Ltd. | Interpretation of ambiguous vehicle instructions |
| EP2821307B1 (de) * | 2013-07-03 | 2016-09-28 | Volvo Car Corporation | Fahrzeugsystem, Fahrzeug und Verfahren zur autonomen Vermeidung von Straßenunebenheiten |
| US9098752B2 (en) * | 2013-08-09 | 2015-08-04 | GM Global Technology Operations LLC | Vehicle path assessment |
| CN103488973B (zh) * | 2013-09-12 | 2017-10-20 | 上海依图网络科技有限公司 | 基于图像的车辆品牌识别方法和系统 |
| CN105612083B (zh) * | 2013-10-09 | 2018-10-23 | 麦格纳覆盖件有限公司 | 对车窗显示的控制的系统和方法 |
| US9139202B2 (en) | 2014-01-21 | 2015-09-22 | Elwha Llc | Vehicle collision management responsive to adverse circumstances in an avoidance path |
| US9199642B2 (en) | 2014-01-21 | 2015-12-01 | Elwha Llc | Vehicle collision management responsive to traction conditions in an avoidance path |
| US10422649B2 (en) * | 2014-02-24 | 2019-09-24 | Ford Global Technologies, Llc | Autonomous driving sensing system and method |
| CN107430817B (zh) * | 2015-03-03 | 2021-07-13 | 日本先锋公司 | 路径搜索装置、控制方法及非暂时性计算机可读介质 |
| KR102366402B1 (ko) * | 2015-05-21 | 2022-02-22 | 엘지전자 주식회사 | 운전자 보조 장치 및 그 제어방법 |
| JP6645074B2 (ja) * | 2015-08-25 | 2020-02-12 | 株式会社Ihi | 支障物検知システム |
| US10121082B2 (en) | 2015-10-07 | 2018-11-06 | Honda Motor Co., Ltd. | System and method for providing laser camera fusion for identifying and tracking a traffic participant |
| CN106915301B (zh) * | 2015-12-28 | 2019-07-23 | 上海中科深江电动车辆有限公司 | 告警保护装置及防止电动车辆底盘电池包触地被撞的方法 |
| JP7052174B2 (ja) * | 2016-01-05 | 2022-04-12 | モービルアイ ビジョン テクノロジーズ リミテッド | 将来経路を推定するシステム及び方法 |
| JP6975945B2 (ja) * | 2016-02-24 | 2021-12-01 | パナソニックIpマネジメント株式会社 | 判定装置、判定方法、プログラムおよびプログラムを記録した記録媒体 |
| DE102016207436A1 (de) | 2016-04-29 | 2017-11-02 | Ford Global Technologies, Llc | System und Verfahren zum Steuern- und/oder Regeln eines Lenksystems eines Fahrzeugs sowie Fahrzeug |
| US10366310B2 (en) * | 2016-09-12 | 2019-07-30 | Aptiv Technologies Limited | Enhanced camera object detection for automated vehicles |
| RU2728836C2 (ru) | 2016-10-28 | 2020-07-31 | Ппг Индастриз Огайо, Инк. | Покрытия для увеличения расстояния обнаружения до объекта, обнаруживаемого с помощью электромагнитного излучения ближнего инфракрасного диапазона |
| US10372128B2 (en) * | 2016-11-21 | 2019-08-06 | Ford Global Technologies, Llc | Sinkhole detection systems and methods |
| WO2018125939A1 (en) | 2016-12-30 | 2018-07-05 | DeepMap Inc. | Visual odometry and pairwise alignment for high definition map creation |
| US9989835B1 (en) | 2017-02-09 | 2018-06-05 | Cnh Industrial America Llc | System and method for mounting a camera on a work vehicle |
| DE102017211887A1 (de) * | 2017-07-12 | 2019-01-17 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Lokalisieren und automatisierten Betreiben eines Fahrzeugs |
| US10216189B1 (en) | 2017-08-23 | 2019-02-26 | Uber Technologies, Inc. | Systems and methods for prioritizing object prediction for autonomous vehicles |
| US10509413B2 (en) * | 2017-09-07 | 2019-12-17 | GM Global Technology Operations LLC | Ground reference determination for autonomous vehicle operations |
| US10788831B2 (en) * | 2017-10-06 | 2020-09-29 | Wipro Limited | Method and device for identifying center of a path for navigation of autonomous vehicles |
| US10650553B2 (en) * | 2017-12-27 | 2020-05-12 | Intel IP Corporation | Method of image processing and image processing device |
| US11050933B2 (en) * | 2018-04-27 | 2021-06-29 | Continenal Automotive Systems, Inc. | Device and method for determining a center of a trailer tow coupler |
| WO2020112213A2 (en) * | 2018-09-13 | 2020-06-04 | Nvidia Corporation | Deep neural network processing for sensor blindness detection in autonomous machine applications |
| KR20240144457A (ko) | 2018-11-13 | 2024-10-02 | 피피지 인더스트리즈 오하이오 인코포레이티드 | 은닉 패턴을 검출하는 방법 |
| US11561329B2 (en) | 2019-01-07 | 2023-01-24 | Ppg Industries Ohio, Inc. | Near infrared control coating, articles formed therefrom, and methods of making the same |
| DE102019208507A1 (de) * | 2019-06-12 | 2020-12-17 | Robert Bosch Gmbh | Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen |
| JP6913716B2 (ja) * | 2019-07-17 | 2021-08-04 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、及びプログラム |
| CN112686831B (zh) * | 2019-10-17 | 2024-06-14 | 神讯电脑(昆山)有限公司 | 基于人工神经网络的物件表面型态的检测方法 |
| US11320830B2 (en) | 2019-10-28 | 2022-05-03 | Deere & Company | Probabilistic decision support for obstacle detection and classification in a working area |
| CN111967525B (zh) * | 2020-08-20 | 2025-01-10 | 广州小鹏汽车科技有限公司 | 一种数据处理的方法及装置、服务器、存储介质 |
| CN114047757B (zh) * | 2021-11-05 | 2023-05-19 | 季华实验室 | 一种多agv路径评估规划方法 |
| CN114608556B (zh) * | 2022-03-01 | 2024-06-28 | 浙江吉利控股集团有限公司 | 数据处理方法、装置、电子设备及存储介质 |
| WO2024150213A1 (en) * | 2023-01-12 | 2024-07-18 | Brightway Vision Ltd | Road anomaly detection system and method |
| CN120183160B (zh) * | 2025-05-21 | 2025-09-05 | 四川明星新能源科技有限公司 | 施工危险区域出入监控警报系统及方法 |
Family Cites Families (44)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5172315A (en) | 1988-08-10 | 1992-12-15 | Honda Giken Kogyo Kabushiki Kaisha | Automatic travelling apparatus and method |
| DE69121369T2 (de) | 1990-11-30 | 1997-01-09 | Honda Motor Co Ltd | Steuervorrichtung für einen sich selbständig bewegenden Körper und Verfahren zur Auswertung der Daten davon |
| US6711278B1 (en) | 1998-09-10 | 2004-03-23 | Microsoft Corporation | Tracking semantic objects in vector image sequences |
| DE19926559A1 (de) | 1999-06-11 | 2000-12-21 | Daimler Chrysler Ag | Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung |
| EP1242966B1 (de) * | 1999-12-29 | 2012-11-07 | Geospan Corporation | Sphärische Rektifikation von Bildpaaren |
| JP3603737B2 (ja) * | 2000-03-30 | 2004-12-22 | 日本電気株式会社 | 移動体追尾方法及びその装置 |
| DE10059900A1 (de) | 2000-12-01 | 2002-06-13 | Daimler Chrysler Ag | Darstellung von bildhafter Umgebungsinformation |
| US6766053B2 (en) * | 2000-12-15 | 2004-07-20 | Xerox Corporation | Method and apparatus for classifying images and/or image regions based on texture information |
| JP3778849B2 (ja) | 2001-12-18 | 2006-05-24 | 株式会社デンソー | 車両周辺画像処理装置及び記録媒体 |
| US6728608B2 (en) * | 2002-08-23 | 2004-04-27 | Applied Perception, Inc. | System and method for the creation of a terrain density model |
| KR100446636B1 (ko) | 2002-11-21 | 2004-09-04 | 삼성전자주식회사 | 이동체의 움직임 및 이동체 전방에 위치한 물체의 3차원정보 측정 기능을 구비한 이동체 및 그 방법 |
| US7764808B2 (en) * | 2003-03-24 | 2010-07-27 | Siemens Corporation | System and method for vehicle detection and tracking |
| KR100488739B1 (ko) | 2003-07-10 | 2005-05-11 | 현대자동차주식회사 | 차량용 멀티유저 시트 기억장치 |
| KR100708922B1 (ko) * | 2003-07-11 | 2007-04-17 | 도요다 지도샤 가부시끼가이샤 | 충돌-대응 차량 제어시스템 |
| JP4043416B2 (ja) * | 2003-07-30 | 2008-02-06 | オリンパス株式会社 | 安全移動支援装置 |
| US7376262B2 (en) | 2003-08-04 | 2008-05-20 | American Gnc Corporation | Method of three dimensional positioning using feature matching |
| US7508979B2 (en) * | 2003-11-21 | 2009-03-24 | Siemens Corporate Research, Inc. | System and method for detecting an occupant and head pose using stereo detectors |
| KR100559421B1 (ko) * | 2003-12-30 | 2006-03-10 | 현대자동차주식회사 | 차량 추돌 방지 시스템 |
| US20100013615A1 (en) * | 2004-03-31 | 2010-01-21 | Carnegie Mellon University | Obstacle detection having enhanced classification |
| KR20060002138A (ko) | 2004-07-01 | 2006-01-09 | 주식회사 하이닉스반도체 | 반도체 소자의 제조방법 |
| DE102004047130B4 (de) | 2004-09-27 | 2012-07-26 | Andreas Stopp | Umgebungsmodellierung für autonome mobile Systeme |
| JP2006264416A (ja) | 2005-03-22 | 2006-10-05 | Takata Corp | 対象物検知システム、保護システム、車両 |
| DE102006060893A1 (de) | 2006-05-12 | 2007-11-15 | Adc Automotive Distance Control Systems Gmbh | Vorrichtung und Verfahren zum Bestimmen eines Freiraums vor einem Fahrzeug |
| DE102006039832B9 (de) | 2006-08-25 | 2010-06-10 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und Vorrichtung zum Auffinden und Unterscheiden von Personen, Tieren oder Fahrzeugen mittels automatischer Bildüberwachung digitaler oder digitalisierter Bilder |
| DE102006046843A1 (de) | 2006-10-02 | 2008-04-03 | Robert Bosch Gmbh | Verfahren zur Erkennung eines Umfelds |
| DE102006047131A1 (de) * | 2006-10-05 | 2008-04-10 | Robert Bosch Gmbh | Verfahren zum automatischen Steuern eines Fahrzeugs |
| DE102006058308A1 (de) | 2006-12-11 | 2008-06-12 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erfassen eines Hindernisses in einem Umgebungsbereich eines Kraftfahrzeugs und Kraftfahrzeug |
| DE102006061390B4 (de) | 2006-12-23 | 2019-05-16 | Volkswagen Ag | Umfelderfassungssystem und Umfelderfassungsverfahren eines Kraftfahrzeugs |
| JP2008172441A (ja) * | 2007-01-10 | 2008-07-24 | Omron Corp | 検出装置および方法、並びに、プログラム |
| US8611585B2 (en) | 2008-04-24 | 2013-12-17 | GM Global Technology Operations LLC | Clear path detection using patch approach |
| US8452053B2 (en) | 2008-04-24 | 2013-05-28 | GM Global Technology Operations LLC | Pixel-based texture-rich clear path detection |
| US8634593B2 (en) | 2008-04-24 | 2014-01-21 | GM Global Technology Operations LLC | Pixel-based texture-less clear path detection |
| US8670592B2 (en) | 2008-04-24 | 2014-03-11 | GM Global Technology Operations LLC | Clear path detection using segmentation-based method |
| US8487991B2 (en) | 2008-04-24 | 2013-07-16 | GM Global Technology Operations LLC | Clear path detection using a vanishing point |
| US8890951B2 (en) | 2008-04-24 | 2014-11-18 | GM Global Technology Operations LLC | Clear path detection with patch smoothing approach |
| US8803966B2 (en) | 2008-04-24 | 2014-08-12 | GM Global Technology Operations LLC | Clear path detection using an example-based approach |
| US8332134B2 (en) | 2008-04-24 | 2012-12-11 | GM Global Technology Operations LLC | Three-dimensional LIDAR-based clear path detection |
| US8421859B2 (en) | 2008-04-24 | 2013-04-16 | GM Global Technology Operations LLC | Clear path detection using a hierachical approach |
| US8699754B2 (en) | 2008-04-24 | 2014-04-15 | GM Global Technology Operations LLC | Clear path detection through road modeling |
| US8751154B2 (en) | 2008-04-24 | 2014-06-10 | GM Global Technology Operations LLC | Enhanced clear path detection in the presence of traffic infrastructure indicator |
| US8605947B2 (en) | 2008-04-24 | 2013-12-10 | GM Global Technology Operations LLC | Method for detecting a clear path of travel for a vehicle enhanced by object detection |
| US8428305B2 (en) | 2008-04-24 | 2013-04-23 | GM Global Technology Operations LLC | Method for detecting a clear path through topographical variation analysis |
| US8099213B2 (en) | 2008-07-18 | 2012-01-17 | GM Global Technology Operations LLC | Road-edge detection |
| US8126642B2 (en) * | 2008-10-24 | 2012-02-28 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
-
2008
- 2008-04-24 US US12/108,581 patent/US8917904B2/en not_active Expired - Fee Related
-
2009
- 2009-04-22 CN CN2009801242325A patent/CN102076531B/zh not_active Expired - Fee Related
- 2009-04-22 WO PCT/US2009/041327 patent/WO2009132054A2/en not_active Ceased
- 2009-04-22 DE DE112009000949T patent/DE112009000949T5/de not_active Withdrawn
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102019219389A1 (de) * | 2019-12-11 | 2021-06-17 | Volkswagen Aktiengesellschaft | Verfahren, Computerprogramm und Vorrichtung zum Reduzieren von zu erwartenden Einschränkungen einer Sensorik eines Fortbewegungsmittels durch Umgebungseinflüsse beim Betrieb des Fortbewegungsmittels |
| DE102019219389B4 (de) | 2019-12-11 | 2022-09-29 | Volkswagen Aktiengesellschaft | Verfahren, Computerprogramm und Vorrichtung zum Reduzieren von zu erwartenden Einschränkungen einer Sensorik eines Fortbewegungsmittels durch Umgebungseinflüsse beim Betrieb des Fortbewegungsmittels |
Also Published As
| Publication number | Publication date |
|---|---|
| CN102076531A (zh) | 2011-05-25 |
| WO2009132054A2 (en) | 2009-10-29 |
| CN102076531B (zh) | 2013-03-27 |
| US20090268946A1 (en) | 2009-10-29 |
| WO2009132054A3 (en) | 2009-12-17 |
| US8917904B2 (en) | 2014-12-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE112009000949T5 (de) | Detektion eines freien Fahrpfads für ein Fahrzeug | |
| DE102009050502B4 (de) | Detektion eines freien Pfads unter Verwendung eines hierarchischen Ansatzes | |
| DE102009048699A1 (de) | Pixelbasierte Detektion einer nicht vorhandenen Struktur eines freien Pfads | |
| DE102009048892A1 (de) | Pixelbasierte strukturreiche Detektion eines freien Pfads | |
| DE69322306T2 (de) | Gegenstandserkennungssystem mittels Bildverarbeitung | |
| DE102009050492A1 (de) | Detektion eines freien Pfads unter Verwendung eines segmentierungsbasierten Verfahrens | |
| DE102009050505A1 (de) | Detektion eines freien Pfads durch Strassenmodellerstellung | |
| DE102011106050B4 (de) | Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads | |
| DE102009050504A1 (de) | Verfahren zum Detektieren eines freien Pfads durch eine Analyse einer topografischen Veränderung | |
| DE102006012914B4 (de) | System und Verfahren zur Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug | |
| DE102009050501A1 (de) | Verbesserte Detektion eines freien Pfads bei Vorhandensein eines Verkehrsinfrastrukturindikators | |
| DE102013205854B4 (de) | Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz | |
| EP2005361A1 (de) | Multisensorieller hypothesen-basierter objektdetektor und objektverfolger | |
| DE112011103690T5 (de) | Erkennung und Verfolgung sich bewegender Objekte | |
| DE102014210820A1 (de) | Verfahren zum Nachweis von großen und Passagierfahrzeugen von festen Kameras | |
| DE102009038364A1 (de) | Verfahren und System zur automatischen Objekterkennung und anschließenden Objektverfolgung nach Maßgabe der Objektform | |
| DE102017203276B4 (de) | Verfahren und Vorrichtung zur Ermittlung einer Trajektorie in Off-road-Szenarien | |
| DE102020103769A1 (de) | Gegnerischer Angriff auf den Algorithmus zur Erkennung von Black-Box-Objekten | |
| DE102017218366A1 (de) | Verfahren und system zur fussgängererfassung in einem fahrzeug | |
| DE112020004301T5 (de) | Objekterkennungsvorrichtung | |
| DE102007013664A1 (de) | Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger | |
| DE102015211874A1 (de) | Objekterkennungsvorrichtung | |
| EP3857304A2 (de) | Verfahren zum fokussieren einer kamera | |
| DE102008036219A1 (de) | Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs | |
| DE102015211871A1 (de) | Objekterkennungsvorrichtung |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| OP8 | Request for examination as to paragraph 44 patent law | ||
| R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: B60R0021000000 Ipc: B60W0030080000 |
|
| R079 | Amendment of ipc main class |
Effective date: 20111209 Free format text: PREVIOUS MAIN CLASS: B60R0021000000 Ipc: B60W0030080000 |
|
| R016 | Response to examination communication | ||
| R016 | Response to examination communication | ||
| R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |