[go: up one dir, main page]

DE102007023037A1 - Objekterkennungsvorrichtung - Google Patents

Objekterkennungsvorrichtung Download PDF

Info

Publication number
DE102007023037A1
DE102007023037A1 DE102007023037A DE102007023037A DE102007023037A1 DE 102007023037 A1 DE102007023037 A1 DE 102007023037A1 DE 102007023037 A DE102007023037 A DE 102007023037A DE 102007023037 A DE102007023037 A DE 102007023037A DE 102007023037 A1 DE102007023037 A1 DE 102007023037A1
Authority
DE
Germany
Prior art keywords
existence
probability
existence probability
vehicle
probabilities
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007023037A
Other languages
English (en)
Inventor
Hiroyuki Sekiguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK, Fuji Heavy Industries Ltd filed Critical Fuji Jukogyo KK
Publication of DE102007023037A1 publication Critical patent/DE102007023037A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

Eine Existenzwahrscheinlichkeit eines Bildobjekts wird basierend auf einem durch eine Stereokamera (2) aufgenommenen Bild durch einen Bildobjekt-Existenzwahrscheinlichkeitsberechnungsabschnitt (11) berechnet, eine Existenzwahrscheinlichkeit eines Millimeterwellenobjekts wird basierend auf einem Ausgangssignal eines Millimeterwellenradars (3) durch einen Millimeterwellenobjekt-Existenzwahrscheinlichkeitsberechnungsabschnitt (12) berechnet, und eine Existenzwahrscheinlichkeit eines Laserobjekts wird basierend auf einem Ausgangssignal eines Laserradars (4) durch einen Laserobjekt-Existenzwahrscheinlichkeitsberechnungsabschnitt (13) berechnet. Außerdem werden die jeweiligen Existenzwahrscheinlichkeiten des Bildobjekts, des Millimeterwellenobjekts und des Laserobjekts basierend auf Erkennungsraten der jeweiligen Erkennungssensoren durch einen Existenzwahrscheinlichkeitskorrekturabschnitt (14) korrigiert und die Existenzwahrscheinlichkeiten nach der Korrektur als Fusions-Existenzwahrscheinlichkeit durch einen Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitt (15) fusioniert, wodurch eine Steuerung zum Vermeiden eines Kontakts mit einem Hindernis oder zum Ausgeben eines Alarms oder einer Warnung oder eine ähnliche Steuerung zu einem optimalen Zeitpunkt zuverlässig ausgeführt werden kann.

Description

  • Die vorliegende Erfindung betrifft eine Objekterkennungsvorrichtung zum Erkennen eines Objekts in derUmgebung eines eigenen Fahrzeugs basierend auf Signalen von mehreren Sensoren zum Erfassen des Objekts in der Umgebung des eigenen Fahrzeugs.
  • Auf die Offenbarung der japanischen Patentanmeldung Nr. 2006-140755, eingereicht am 19. Mai 2006 einschließlich der Beschreibung, der Zeichnungen und der Zusammenfassung wird hierin in ihrer Gesamtheit durch Verweis Bezug genommen.
  • In den vergangenen Jahren ist für ein Fahrzeug, wie beispielsweise ein Automobil oder ein ähnliches Fahrzeug, eine Technik zum Erkennen eines in einer Fahrtrichtung des eigenen Fahrzeugs vorhandenen Objekts, einschließlich eines dreidimensionalen Objekts, durch Erfassen einer Fahrzeugaußenumgebung durch eine Kamera, ein Millimeterwellenradar, ein Laserradar oder eine ähnliche Einrichtung entwickelt worden, die auf eine Fahrzeugsteuerung, wie beispielsweise eine Kollisionsvermeidungssteuerung oder eine ähnliche Steuerung, angewendet wird.
  • Obwohl gemäß einer derartigen Technik zum Erkennen eines Objekts im Allgemeinen Erkennungssensoren verwendet werden, die durch eine Kamera, ein Millimeterwellenradar, ein Laserradar und ähnliche Einrichtungen implementiert werden, führen die Erkennungssensoren zu einem Problem dahingehend, dass in ihrer Erfassungsgenauigkeit in einer Fahrtumgebung eine Streuung auftritt. Daher wird in jüngster Zeit ein als Sensorfusion bezeichnetes Verfahren vorgeschlagen, gemäß dem mehrere aus einer Kamera, einem Millimeterwellenradar, einem Laserradar und ähnlichen Einrichtungen gebildeten Sensoren auf einem Fahrzeug montiert werden und ein in Vorausrichtung befindliches Objekt durch Kombinieren oder Fusionieren von durch die jeweiligen Sensoren erhaltenen Ausgangssignalen erkannt wird.
  • Beispielsweise wird in der JP-A-2005-165421 (Patentdokument 1) eine Technik beschrieben, gemäß der basierend auf durch eine Bilderkennungsvorrichtung, die ein Millimeterwellenradar und eine Kamera aufweist, erfassten Daten Wahrscheinlichkeitsverteilungen berechnet werden, die die Genauigkeit der jeweiligen Daten darstellen, wobei die jeweiligen Daten durch Berechnen eines Produkts aus mehreren der Wahrscheinlichkeitsverteilungen bezüglich des gleichen Datenwertes fusioniert werden und ein Typ eines sich in Vorausrichtung befindlichen Objekts basierend auf einem Datenwert mit der höchsten Wahrscheinlichkeit untersucht wird.
  • Gemäß der im Patentdokument 1 beschriebenen Technik kann auch in dem Fall, dass eine Wahrscheinlichkeitsverteilung, die basierend auf durch eine Erkennungseinrichtung für einen vorausliegenden Bereich erfassten Daten berechnet wird, eine verminderte Wahrscheinlichkeit darstellt, wenn eine Wahrscheinlichkeitsverteilung, die basierend auf durch eine andere Erkennungseinrichtung für einen vorausliegenden Bereich erfassten Daten berechnet wird, eine hohe Wahrscheinlichkeit darstellt, der Typ des in Vorausrichtung befindlichen Objekts unter Verwendung eines Datenwertes mit der hohen Wahrscheinlichkeit erkannt werden.
  • Wenn ein Objekt lediglich anhand einer Höhe einer Wahrscheinlichkeitsverteilung bestimmt wird, wie dies im Patentdokument 1 beschrieben ist, kann es jedoch vorkommen, dass aufgrund einer unsicheren oder unzuverlässigen Charakteristik eines Sensors zum Erfassen einer Umgebungssituation, eines durch eine Steuerungsvorrichtung verursachten Einflusses auf eine Fahrzeugstabilisierung, usw. eine Situation auftritt, gemäß der ein Aktivierungszeitpunkt für eine Kollisionsvermeidungssteuerung, eine Alarmsteuerung, usw. zum Vermeiden eines Kontakts (Kollision) zwischen dem Objekt und dem eigenen Fahrzeug übermäßig früh oder übermäßig verzögert auftritt, so dass möglicherweise kein geeigneter Steuerungsaktivierungszeitpunkt erzeugt wird.
  • Die vorliegende Erfindung wurde hinsichtlich der vorstehend beschriebenen Situation entwickelt, und es ist Aufgabe der vorliegenden Erfindung, eine Objekterkennungsvorrichtung bereitzustellen, die dazu geeignet ist, eine Kollisionsvermeidungssteuerung, eine Alarmsteuerung oder eine ähnliche Steuerung zum Vermeiden eines Kontakts (Kollision) mit einem Objekt basierend auf einem Objekterkennungsergebnis zu einem geeigneten Zeitpunkt auszuführen, wobei eine unsichere Charakteristik eines Sensors zum Erfassen einer Umgebungssituation, ein durch eine Steuerungsvorrichtung verursachter Einfluss auf eine Fahrzeugstabilisierung, eine Fahrtumgebung, usw. berücksichtigt werden. Diese Aufgabe wird durch die Merkmale der Patentansprüche gelöst.
  • Die erfindungsgemäße Objekterkennungsvorrichtung kann eine Steuerung basierend auf einem Objekterkennungsergebnis zu einem geeigneten Zeitpunkt ausführen, wobei eine unsichere Charakteristik eines Sensors zum Erfassen einer Umgebungssituation, ein durch eine Steuerungsvorrichtung verursachter Einfluss auf eine Fahrzeugstabilisierung, eine Fahrtumgebung, usw. berücksichtigt werden.
  • Nachstehend werden Ausführungsformen der Erfindung unter Bezug auf die beigefügten Zeichnungen beschrieben; es zeigen:
  • 1 ein Blockdiagramm einer ersten Ausführungsform einer erfindungsgemäßen Objekterkennungsvorrichtung;
  • 2 ein Ablaufdiagramm einer in der ersten Ausführungsform vorgesehenen Fusions-Existenzwahrscheinlichkeitsberechnungsverarbeitung;
  • 3 ein Ablaufdiagramm einer in der ersten Ausführungsform vorgesehenen Existenzwahrscheinlichkeitsberechnungsverarbeitung für ein durch einen Erkennungssensor erfasstes Objekt;
  • 4 eine Erläuterungsansicht zum Darstellen eines Übergangs einer statistischen Position eines ein Bestimmungsobjekt darstellenden Objekts;
  • 5 ein Diagramm zum Erläutern einer Existenzwahrscheinlichkeit; und
  • 6 ein Blockdiagramm einer zweiten Ausführungsform eines erfindungsgemäßen Objekterkennungsabschnitts.
  • Die 1 bis 5 betreffen eine erste Ausführungsform der Erfindung, wobei 1 ein Blockdiagramm einer Objekterkennungsvorrichtung, 2 ein Ablaufdiagramm einer Fusions-Existenzwahrscheinlichkeitsberechnungsverarbeitung, 3 ein Ablaufdiagramm einer Existenzwahrscheinlichkeitsberechnungsverarbeitung für ein durch einen Erkennungssensor erfasstes Objekt, 4 ein Erläuterungsdiagramm zum Darstellen eines Übergangs einer statistischen Position eines ein Bestimmungsobjekt darstellenden Objekts und 5 ein Diagramm zum Erläutern einer Existenzwahrscheinlichkeit darstellen.
  • In 1 bezeichnet Bezugszeichen 1 eine an einem Fahrzeug, z.B. einem Automobil oder einem ähnlichen Fahrzeug, montierte Objekterkennungsvorrichtung zum Erkennen eines Objekts, z.B. eines dreidimensionalen Objekts, durch Verarbeiten eines Signals von einem Erkennungssensor zum Erfassen einer Außenumgebungssituation, der ein Objekterkennungsergebnis an eine nicht dargestellte Fahrzeugsteuerungsvorrichtung ausgibt, um zu veranlassen, dass die Fahrzeugsteuerungsvorrichtung eine Alarmsteuerung oder eine Kollisionsvermeidungssteuerung oder eine ähnliche Steuerung zum Vermeiden eines Kontakts (Kollision) zwischen dem Objekt und dem eigenen Fahrzeug ausführt. Bezüglich der vorliegenden Ausführungsform wird ein Beispiel erläutert, in dem drei Typen von Erkennungssensoren mit verschiedenen Erfassungscharakteristiken, d.h. eine Stereokamera 2, ein Millimeterwellenradar 3 und ein Laserradar 4, auf einem Fahrzeug montiert sind, wobei ein Objekt hochgradig präzise erkannt wird, indem Existenzwahrscheinlichkeiten des basierend auf Ausgangssignalen der jeweiligen Erkennungssensoren erkannten Objekts fusioniert oder kombiniert werden.
  • Die Objekterkennungsvorrichtung 1 weist auf: einen Stereobildverarbeitungsabschnitt 5 zum Verarbeiten eines Stereobildsignals von der Stereokamera 2, einen Millimeterwellensignalverarbeitungsabschnitt 6 zum Verarbeiten eines Sig nals vom Millimeterwellenradar 3 und einen Lasersignalverarbeitungsabschnitt 7 zum Verarbeiten eines Signals vom Laserradar 4, wobei ein Objekt basierend auf dem Stereobildsignal, dem Millimeterwellensignal und dem Lasersignal durch die jeweiligen Verarbeitungsabschnitte 5 bis 7 extrahiert wird. Information über das durch die Verarbeitungsabschnitte 5 bis 7 extrahierte Objekt wird an einen Objekterkennungsabschnitt 10 übertragen, und das Objekt wird basierend auf einer Fusions-Existenzwahrscheinlichkeit erkannt, gemäß der das Objekt basierend auf den Signalen von den jeweiligen Erkennungssensoren fusioniert wird.
  • Die Stereokamera 2 wird durch Anordnen eines aus einer linken und einer rechten Kamera (CCD-Kameras oder CMOS-Kameras) bestehenden Kamerapaars gebildet, die mittels fester Bildaufnahmeelemente in einem vorgegebenen Abstand angeordnet sind, um Stereobilder einer Szenerie einer Fahrzeugaußenumgebung von verschiedenen Beobachtungspunkten aufzunehmen. Die Stereokamera 2 ist beispielsweise an einer Oberseite eines Raumspiegels im Inneren eines Fahrgastraums befestigt, um ein Stereobild der Fahrzeugaußenumgebung an den Stereobildverarbeitungsabschnitt 5 auszugeben.
  • Der Stereobildverarbeitungsabschnitt 5 extrahiert ein Objekt, wie beispielsweise ein Fahrzeug, einen Fußgänger, usw. durch Erzeugen von Abstandsdaten durch ein Triangulationsprinzip von einem Versatzmaß einer Position des erfassten Objekts (nachstehend als 'Bildobjekt' bezeichnet) basierend auf dem durch die Stereokamera 2 aufgenommenen Stereobild und Vergleichen der Daten durch eine bekannte Gruppierungsverarbeitung oder mit einem vorgespeicherten Objekt basierend auf den Abstandsdaten. Außerdem wird als ein charakteristischer Wert (charakteristischer Bildwert) zum Spezifizieren des Bildobjekts beispielsweise ein Abstandskoordinatenwert in einer Vorwärts-Rückwärtsrichtung einer Fahrzeugkarosserie, ein Positionskoordinatenwert in einer Fahrzeugbreitenrichtung, eine Relativgeschwindigkeit (eine zeitliche Änderung der Abstandskoordinate), usw. bezogen auf das eigene Fahrzeug als Ursprung berechnet.
  • Außerdem ist das Millimeterwellenradar 3 im Wesentlichen in der Mitte der Fahrzeugbreitenrichtung an einem vorderen Endabschnitt des Fahrzeugs befestigt, um mehrere Millimeterwellenteilstrahlen radial zu emittieren. D.h. es ist schwierig, die vom Millimeterwellenradar 3 emittierte Millimeterwelle im Vergleich zum Laserlicht des Laserradars 4 schmal zu machen, so dass das Objekt durch radiales Emittieren der mehreren Millimeterwellenteilstrahlen und Empfangen von reflektierten Wellen vom Objekt erfasst wird.
  • Der Millimeterwellensignalverarbeitungsabschnitt 6 berechnet einen charakteristischen Wert (charakteristischen Millimeterwellenwert) zum Spezifizieren des Objekts (nachstehend als 'Millimeterwellenobjekt' bezeichnet) basierend auf einem Erfassungssignal vom Millimeterwellenradar 3. Beispielsweise wird der Abstandskoordinatenwert in der Vorwärts-Rückwärtsrichtung der Fahrzeugkarosserie basierend auf einer Zeitdauer von der Übertragung bis zum Empfang der Millimeterwelle durch das Millimeterwellenradar 3 berechnet, und der Positionskoordinatenwert in der Fahrzeugbreitenrichtung wird basierend auf einer Übertragungsrichtung desjenigen Teilstrahls unter den mehreren Teilstrahlen berechnet, dessen reflektierte Welle empfangen wird. Außerdem wird die Relativgeschwindigkeit von einer Änderung des Abstandskoordinatenwertes basierend auf einem Dopplerprinzip berechnet.
  • Das Laserradar 4 kann dagegen schmales bzw. gerichtetes Laserlicht emittieren und strahlt einen Laserimpuls ab, wobei Laserlicht mit einer schmalen Breite über einen vorgegebenen Sichtwinkel gescannt wird, und empfängt vom Objekt reflektiertes Licht. Das Laserradar 4 ist beispielsweise im Wesentlichen an der gleichen Position befestigt wie das Millimeterwellenradar 3 und strahlt Laserimpulse ab, während Laserlicht mit der schmalen Breite bezüglich des Fahrzeugs nach vorne in der Fahrzeugbreitenrichtung (oder in der Fahrzeugbreitenrichtung und in einer Höhenrichtung) über einen vorgegebenen Sichtwinkel gescannt wird.
  • Der Lasersignalverarbeitungsabschnitt 7 berechnet einen charakteristischen Wert (charakteristischen Laserwert) zum Spezifizieren des Objekts (nachstehend als 'Laserobjekt' bezeichnet) basierend auf einem Erfassungssignal vom Laserradar 4. Beispielsweise wird als charakteristischer Laserwert der Abstandskoordinatenwert in der vorwärts-Rückwärtsrichtung der Fahrzeugkarosserie basierend auf einer Zeitdauer von der Übertragung bis zum Empfang des Laserlichts durch das Laserradar 4 berechnet, wird der Positionskoordinatenwert in der Fahrzeugbreitenrichtung basierend auf einer Übertragungsrichtung des Laserlichts, wenn reflektiertes Licht empfangen wird, berechnet, und wird die Relativgeschwindigkeit basierend auf einer zeitlichen Änderung des Abstandskoordinatenwertes berechnet.
  • Außerdem wird ein Koordinatensystem, das die jeweiligen charakteristischen Werte des durch die Verarbeitungsabschnitte 5 bis 7 erfassten Objekts darstellt, in Überereinstimmung mit einem Koordinatensystem festgelegt, das ein Referenzsystem darstellt (z.B. mit einem Koordinatensystem zum Erkennen des Bildobjekts).
  • Daten des durch die jeweiligen Verarbeitungsabschnitte 5 bis 7 extrahierten Objekts werden an den Objekterkennungsabschnitt 10 übertragen. Der Objekterkennungsabschnitt 10 weist einen Bildobjekt-Existenzwahrscheinlichkeitsberechnungsabschnitt 11 zum Berechnen einer Existenzwahrscheinlichkeit eines basierend auf dem Bild erfassten Bildobjekts, einen Millimeterwellenobjekt-Existenzwahrscheinlichkeitsberechnungsabschnitt 12 zum Berechnen einer Existenzwahrscheinlichkeit eines basierend auf der Millimeterwelle erfassten Millimeterwellenobjekts und einen Laserobjekt-Existenzwahrscheinlichkeitsberechnungsabschnitt 13 zum Berechnen einer Existenzwahrscheinlichkeit eines basierend auf dem Laserlicht erfassten Laserobjekts auf, wodurch die Existenzwahrscheinlichkeiten für die jeweiligen individuellen Erkennungssensoren berechnet werden.
  • Außerdem werden, wie später beschrieben wird, in der vorliegenden Ausführungsform die jeweiligen Existenzwahrscheinlichkeiten für das Bildobjekt, das Millimeterwellenob jekt und das Laserobjekt grundsätzlich unter Verwendung eines ähnlichen Algorithmus berechnet.
  • Außerdem weist der Objekterkennungsabschnitt 10 einen Existenzwahrscheinlichkeitskorrekturabschnitt 14 und einen Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitt 15 auf. Der Existenzwahrscheinlichkeitskorrekturabschnitt 14 korrigiert die Existenzwahrscheinlichkeiten der jeweiligen Erkennungssensoren basierend auf den Charakteristiken der jeweiligen Erkennungssensoren und überträgt die korrigierten Existenzwahrscheinlichkeiten an den Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitt 15. Der Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitt 15 berechnet eine Fusions-Existenzwahrscheinlichkeit als ein Ergebnis der Objekterkennung durch Fusionieren oder Kombinieren der vom Existenzwahrscheinlichkeitskorrekturabschnitt 14 übertragenen jeweiligen korrigierten Existenzwahrscheinlichkeiten.
  • D.h., die Verarbeitung zum Berechnen der Existenzwahrscheinlichkeiten der jeweiligen Erkennungssensoren, Korrigieren der jeweiligen Existenzwahrscheinlichkeiten und Berechnen der Fusions-Existenzwahrscheinlichkeit werden gemäß den Ablaufdiagrammen der 2 und 3 ausgeführt. Die Verarbeitungen werden nachstehend unter Bezug auf die Ablaufdiagramme der 2 und 3 beschrieben.
  • Das Ablaufdiagramm von 2 zeigt eine Fusions-Existenzwahrscheinlichkeitsberechnungsverarbeitung, wobei in Schritt S1 zunächst das durch die Stereokamera 2 aufgenommene Stereobild als eine Funktion des Stereobildeverarbeitungsabschnitts 5 gelesen wird, um das Bildobjekt zu extrahieren, und die charakteristischen Werte der Positionskoordinate, der Relativgeschwindigkeit, usw. berechnet werden. Anschließend schreitet die Verarbeitung zu Schritt S2 fort, wo die Existenzwahrscheinlichkeit Pis des Bildobjekts berechnet wird.
  • Im folgenden Schritt S3 wird als eine Funktion des Millimeterwellensignalverarbeitungsabschnitts 6 das durch das Millimeterwellenradar 3 erfasste Millimeterwellensignal gelesen, um die Positionskoordinate, die Relativgeschwindig keit, usw. des Millimeterwellenobjekts zu berechnen, und in Schritt S4 wird die Existenzwahrscheinlichkeit Pms des Millimeterwellenobjekts berechnet.
  • Daraufhin schreitet die Verarbeitung zu Schritt S5 fort, wo als eine Funktion des Lasersignalverarbeitungsabschnitts 7 das Lasersignal vom Laserradar 4 gelesen wird und die Positionskoordinate, die Relativgeschwindigkeit, usw. des Laserobjekts vom gelesenen Lasersignal berechnet werden. Daraufhin wird in Schritt S6 die Existenzwahrscheinlichkeit Pls des Laserobjekts berechnet.
  • Daraufhin schreitet die Verarbeitung zu Schritt S7 fort, wo als eine Funktion des Existenzwahrscheinlichkeitskorrekturabschnitts 14 die jeweiligen Existenzwahrscheinlichkeiten Pis, Pms, Pls des Bildobjekts, des Millimeterwellenobjekts und des Laserobjekts basierend auf Charakteristiken der jeweiligen Erkennungssensoren korrigiert werden. Durch die Korrektur wird ein auf einem Experiment oder einer Simulation, die basierend auf theoretischen Erkennungswerten der Sensoren ausgeführt wird, basierender optimaler Korrekturwert gesetzt, wobei die Erkennungsraten der jeweiligen Erkennungssensoren in Abhängigkeit von den inhärenten Erfassungscharakteristiken der Sensoren anzeigenden Parametern bestimmt werden, z.B. in Abhängigkeit von Ausfallraten, die die Rate anzeigen, mit der das Objekt vorübergehend nicht erfassbar ist, einer korrekten Erkennungsrate, die die Rate anzeigt, mit der das Objekt korrekt erfassbar ist, einer Fehlererkennungsrate, die eine fehlerhafte Erfassung des Objekts anzeigt, usw.
  • Außerdem werden, wie durch die nachstehenden Gleichungen (1) bis (3) dargestellt ist, die basierend auf Signalen von der Stereokamera 2, dem Millimeterwellenradar 3 und dem Laserradar 4 berechneten Existenzwahrscheinlichkeiten Pis, Pms bzw. Pls unter Verwendung einer Erkennungsrate Ki der Stereokamera 2, einer Erkennungsrate Km des Millimeterwellenradars 3 und einer Erkennungsrate K1 des Laserradars 4 korrigiert, um korrigierte Existenzwahrscheinlichkeiten Pi, Pm und Pl zu erhalten. Pi = Pis × Ki (1) Pm = Pms × Km (2) Pl = Pls × K1 (3)
  • Daraufhin schreitet die Verarbeitung zu Schritt S8 fort, wo als eine Funktion des Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitts 15 gemäß der nachstehenden Gleichung (4) die Existenzwahrscheinlichkeit Pi der Stereokamera 2, die Existenzwahrscheinlichkeit Pm des Millimeterwellenradars und die Existenzwahrscheinlichkeit Pl des Laserradars 4 kombiniert oder fusioniert werden, um eine Sensorfusion auszuführen und eine Fusions-Existenzwahrscheinlichkeit P des Objekts zu erhalten. P = 1 – (1 – Pi)×(1 – Pm)×(1 – Pl) (4)
  • Die durch die vorstehend beschriebenen Verarbeitungen berechnete Fusions-Existenzwahrscheinlichkeit P wird gemäß ihrer Größe auf eine Verarbeitung zum Beibehalten des aktuellen Zustand, eine Gefahrinformationsdarstellungverarbeitung, eine Alarmsteuerung, eine automatische Bremssteuerung, usw. angewendet. In diesem Fall wird die Fusions-Existenzwahrscheinlichkeit P gemäß Gleichung (4) basierend auf einem Multiplikationswert berechnet, der durch Multiplizieren einer Nicht-Existenzwahrscheinlichkeit (1 – Pi) des Bildobjekts, einer Nicht-Existenzwahrscheinlichkeit (1 – Pm) des Millimeterwellenobjekts und einer Nicht-Existenzwahrscheinlichkeit (1 – Pl) des Laserobjekts erhalten wird, wobei, wenn ein Sensor vorhanden ist, der das Objekt nicht erkennt, wenn beispielsweise das Bild verloren geht, die Existenzwahrscheinlichkeiten des Millimeterwellenradars und des Laserradars gesetzt werden.
  • Daher kann der Aktivierungszeitpunkt für eine Steuerung zum Vermeiden eines Kontakts mit einem Hindernis oder für eine Alarmsteuerung früher gesetzt werden, wenn die Existenzwahrscheinlichkeit hoch ist, und verzögert werden, wenn die Existenzwahrscheinlichkeit niedrig ist, so dass eine Steuerung stabil und zu einem optimalen Zeitpunkt ausgeführt werden kann. Außerdem kann eine fehlerhafte Steuerung bezüg lich eines Hindernisses mit einer niedrigen Erfassungszuverlässigkeit vermieden werden.
  • Außerdem kann die Fusions-Existenzwahrscheinlichkeit P anstatt durch Gleichung (4) unter Berücksichtigung von Zuverlässigkeiten der jeweiligen Erkennungssensoren berechnet werden. D.h., wenn eine Zuverlässigkeit des Millimeterwellenradars 3 durch α, eine Zuverlässigkeit des Laserradars 4 durch ββ und eine Zuverlässigkeit der Stereokamera 2 durch γ bezeichnet werden, wird die Fusions-Existenzwahrscheinlichkeit P durch die nachstehende Gleichung (5) berechnet P = (Pm × α) + (Pl × β) + (Pi × γ) (5)
  • In Gleichung (5) gilt α + β + γ = 1, wobei die Zuverlässigkeiten α, β, γ der jeweiligen Erkennungssensoren auf Verhältnisse, wie beispielsweise α:β:γ = 5:3:2 gesetzt werden, indem vorausgesetzt wird, dass die Zuverlässigkeiten in der Folge der Millimeterwelle, des Lasers und des Bildes zunehmen.
  • Gemäß der durch Gleichung (5) erhaltenen Fusions-Existenzwahrscheinlichkeit kann, wenn irgendeiner der aus der Stereokamera 2, dem Millimeterwellenradar 3 und dem Laserradar 4 bestehenden Sensoren auf einen Nichterfassungszustand eingestellt ist, die Existenzwahrscheinlichkeit des entsprechenden Sensors für das Objekt auf 0 gesetzt werden, wobei der Aktivierungszeitpunkt der Steuerung ähnlicherweise früher gesetzt werden kann, wenn die Existenzwahrscheinlichkeit hoch ist, und verzögert werden kann, wenn die Existenzwahrscheinlichkeit niedrig ist, so dass die Steuerung stabil und zu einem optimalen Zeitpunkt ausgeführt und eine fehlerhafte Steuerung für ein Hindernis mit einer niedrigen Erfassungszuverlässigkeit vermieden werden kann.
  • Nachstehend werden Verarbeitungen zum Berechnen der Existenzwahrscheinlichkeiten für ein durch die jeweiligen Erkennungssensoren erfasstes Objekt erläutert. Gemäß dieser Ausführungsform werden die Existenzwahrscheinlichkeiten für das Bildobjekt, das Millimeterwellenobjekt und das Laserobjekt grundsätzlich unter Verwendung eines ähnlichen Algo rithmus berechnet. Gemäß einem Algorithmus zum Berechnen der Existenzwahrscheinlichkeit wird im Allgemeinen eine Verarbeitung unter Verwendung einer Wahrscheinlichkeitsverteilung unter Berücksichtigung des Verhaltes eines ein Bestimmungsobjekt darstellenden Objekts ausgeführt, wobei in diesem Fall die Verarbeitungen zum Berechnen der Existenzwahrscheinlichkeiten für ein durch die jeweiligen Erkennungssensoren erfasstes Objekt durch eine in 3 dargestellte Verarbeitung zum Berechnen einer Existenzwahrscheinlichkeit ausgeführt werden und die Existenzwahrscheinlichkeiten Pis, Pms, Pls für das durch die jeweiligen Erkennungssensoren erfasste Objekt durch eine Existenzwahrscheinlichkeit R dargestellt wird.
  • In der Verarbeitung zum Berechnen der Existenzwahrscheinlichkeit wird zunächst in Schritt S101 für die Verarbeitung erforderliche Information (z.B. Bildinformation, Fahrzeuggeschwindigkeit V0 des eigenen Fahrzeugs, usw.) gelesen. Dann schreitet die Verarbeitung zu Schritt S102 fort, wo ein ein Bestimmungsobjekt darstellendes Objekt (z.B. ein sich auf einem Bewegungsweg des eigenen Fahrzeugs befindendes, nähestes Objekt) extrahiert und jeweilige Daten für einen Abstand x zum Objekt, eine Geschwindigkeit Vx des Objekts in der Vorwärts-Rückwärtsrichtung (ein Differenzialwert des Abstands x + Geschwindigkeit V0 des eigenen Fahrzeugs), eine Beschleunigung ax des Objekts in der Vorwärts-Rückwärtsrichtung (ein Differenzialwert der Geschwindigkeit Vx in der Vorwärts-Rückwärtsrichtung), usw. erfasst werden.
  • Daraufhin schreitet die Verarbeitung zu Schritt 103 fort, wo eine aktuelle Beschleunigung ax(0) in der Vorwärts-Rückwärtsrichtung, eine aktuelle Geschwindigkeit Vx(0) in der Vorwärts-Rückwärtsrichtung und eine Ist-Position x(0) in der Vorwärts-Rückwärtsrichtung durch eine statistische Verarbeitung gemäß den nachstehenden Gleichungen (7) bis (9) berechnet werden, wobei vorausgesetzt wird, dass die jeweiligen Daten durch eine Normalverteilung bereitgestellt werden, wobei eine Achse (die x-Achse) die Vorwärts-Rückwärtsrichtung des Fahrzeugs darstellt und die Verteilung bei einem wahren Wert (in der vorliegenden Ausführungsform einem Mittelwert) zentriert ist, der auf jeweiligen Daten für den Abstand x zum das Bestimmungsobjekt darstellenden Objekt, der Geschwindigkeit Vx in der Vorwärts-Rückwärtsrichtung (Differenzialwert des Abstands x + Geschwindigkeit V0 des eigenen Fahrzeugs) bzw. der Beschleunigung ax in der Vorwärts-Rückwärtsrichtung (Differenzialwert der Geschwindigkeit Vx in der Vorwärts-Rückwärtsrichtung), usw. basiert.
  • Außerdem gilt in der folgenden Normalverteilung – ∞ < x < ∞, und eine Streuung der Normalverteilung ist ein positiver Wert. Außerdem werden in der statistischen Verarbeitung für die Beschleunigung in der Vorwärts-Rückwärtsrichtung die Geschwindigkeit in der Vorwärts-Rückwärtsrichtung und die Position in der Vorwärts-Rückwärtsrichtung, eine Wahrscheinlichkeitsdichtefunktion r gemäß Gleichung (6) unter Verwendung eines Mittelwertes μ und einer Streuung σ2 der Normalverteilung angewendet. r = (1/ ((2·π)1/2·σ))·exp(–(x – μ)2/(2·σ2)) (6)
  • D.h., die aktuelle Beschleunigung ax(0) in der Vorwärts-Rückwärtsrichtung wird, wie in der nachstehenden Gleichung (7) dargestellt ist, durch ax(ax(0)a, σax(0)2) als eine Normalverteilung mit einem Mittelwert ax(0)a der aktuellen Beschleunigung in der Vorwärts-Rückwärtsrichtung und einer Streuung σax(0)2 verarbeitet, die durch eine Abweichung σax(0) der aktuellen Beschleunigung in der Vorwärts-Rückwärtsrichtung dargestellt wird. ax(0) = ax(ax(0)a, σax(0)2) = (1/((2·π)1/2·σax(0) ))·exp(–(x – ax(0)a)2/(2·σax(0)2)) (7)
  • Außerdem wird die aktuelle Geschwindigkeit Vx(0) in der Vorwärts-Rückwärtsrichtung, wie in der nachstehenden Gleichung (8) dargestellt ist, durch Vx(Vx(0)a, σvx(0)2) als eine Normalverteilung mit einem Mittelwert Vx(0)a der aktuellen Geschwindigkeit in der Vorwärts-Rückwärtsrichtung und einer Streuung σvx(0)2 verarbeitet, die durch eine Abweichung σvx(0) der aktuellen Geschwindigkeit in der Vorwärts-Rückwärtsrichtung dargestellt wird. Vx(0) = Vx(Vx(0)a, σvx(0)2) = (1/((2·π)1/2·σvx(0)))·exp(–(x – Vx(0)a)2/(2·σvx(0)2)) (8)
  • Außerdem wird die Ist-Position ax(0) in der Vorwärts-Rückwärtsrichtung, wie in der nachstehenden Gleichung (9) dargestellt ist, durch x(x(0)a, σx(0)2) als eine Normalverteilung mit einem Mittelwert x(0)a der Ist-Position in der Vorwärts-Rückwärtsrichtung und einer Streuung σx(0)2 verarbeitet, die durch eine Abweichung σx(0) der Ist-Position in der Vorwärts-Rückwärtsrichtung dargestellt wird. x(0) = x(x(0)a, σx(0)2) = (1/((2·π)1/2·σx(0)))·exp(–(x – x(0)a)2/(2·σx(0)2)) (9)
  • Die vorstehend beschriebenen jeweiligen Streuungen σax(0)2, σvx(0)2, σx(0)2 sind Werte, die durch den Erkennungssensor oder das Erkennungsobjekt bestimmt sind, wobei die Geschwindigkeitsgenauigkeit bei einer Erkennung durch das Millimeterwellenradar 3 oder das Laserradar 4 im Vergleich zu einer Erkennung durch die Stereokamera 2 hoch ist, so dass die Streuung für diese auf einen kleinen Wert gesetzt werden kann.
  • Daraufhin schreitet die Verarbeitung zu Schritt S104 fort, wo eine Beschleunigung ax(Δt) in der Vorwärts-Rückwärtsrichtung, eine Geschwindigkeit Vx(Δt) in der Vorwärts-Rückwärtsrichtung und eine Position x(Δt) in der Vorwärts-Rückwärtsrichtung nach Δt Sekunden (z.B. nach 0,5 s) basierend auf der aktuellen Beschleunigung ax(0) des das Bestimmungsobjekt darstellenden Objekts in der Vorwärts-Rückwärtsrichtung, der aktuellen Geschwindigkeit Vx(0) in der Vorwärts-Rückwärtsrichtung und der Ist-Position x(0) in der Vorwärts-Rückwärtsrichtung durch eine statistische Ver arbeitung gemäß den nachstehenden Gleichungen (10) bis (12) berechnet werden.
  • D.h., die Beschleunigung ax(Δt) nach Δt s wird durch ax(ax(Δt)a, σax(Δt)2) als Normalverteilung mit einem Mittelwert ax(Δt)a der Beschleunigung in der Vorwärts-Rückwärtsrichtung nach Δt s und einer Streuung σax(Δt)2 verarbeitet, die durch eine Streuung σax(Δt) der Beschleunigung in der Vorwärts-Rückwärtsrichtung dargestellt wird. Außerdem wird die Berechnung gemäß der vorliegenden Ausführungsform unter Voraussetzung einer gleichmäßigen Beschleunigungsbewegung ausgeführt. ax(Δt) = ax(ax(Δt)a, σax(Δt)2) = ax(ax(Δt)a, σax(0)2) (10)
  • Außerdem wird die Geschwindigkeit vx(Δt) in der Vorwärts-Rückwärtsrichtung nach Δt s durch Vx(Vx(Δt)a, σvx(Δt)2) als Normalverteilung mit einem Mittelwert Vx(Δt)a der Geschwindigkeit in der Vorwärts-Rückwärtsrichtung nach Δt s und einer Streuung σvx(Δt)2 verarbeitet, die durch eine Streuung σvx(Δt) der Geschwindigkeit in der Vorwärts-Rückwärtsrichtung dargestellt wird. Die nachstehende Gleichung (11) wird unter Verwendung der aktuellen Beschleunigung ax(0) in der Vorwärts-Rückwärtsrichtung und der aktuellen Geschwindigkeit Vx(0) in der Vorwärts-Rückwärtsrichtung verarbeitet. Vx(Δt) = Vx(Vx(Δt)a, σvx(Δt)2) = Vx(Vx(0)a, σvx(0)2) + ax(ax(0)a, σax(0)2)·Δt = Vx(Vx(0)a + ax(0)a·Δt, (σvx(0) + σax(0)·Δt)2) (11)
  • Außerdem wird die Position x(Δt) in der Vorwärts-Rückwärtsrichtung nach Δt s durch x(x(Δt)a, σx(Δt)2) als Normalverteilung mit einem Mittelwert x(Δt)a der Position in der Vorwärts-Rückwärtsrichtung nach Δt s und einer Streuung σx(Δt)2 verarbeitet, die durch eine Streuung σx(Δt) der Po sition in der Vorwärts-Rückwärtsrichtung nach Δt s dargestellt wird. Die Berechnung wird unter Verwendung der aktuellen Beschleunigung ax(0) in der Vorwärts-Rückwärtsrichtung, der aktuellen Geschwindigkeit Vx(0) in der Vorwärts-Rückwärtsrichtung und der aktuellen Position x(0) in der Vorwärts-Rückwärtsrichtung gemäß der nachstehenden Gleichung (12) ausgeführt. x(Δt) = x(x(Δt)a, σx(Δt)2) = x(x(0)a, σx(0)2) + Vx(Vx(0)a, σvx(0)2)·Δt + (1/2)·ax(ax(0)a, σax(0)2)·Δt2 = x(x(0)a + Vx(0)a·Δt + (1/2)·ax(0)a·Δt2, (σx(0) + σvx(0)·Δt + (1/2)·σax(0)·Δt2)2) (12)
  • Daraufhin schreitet die Verarbeitung zu Schritt S105 fort, wo gemäß der nachstehenden Gleichung (13) eine Existenzwahrscheinlichkeit R(Δt) für das Objekt nach Δt s basierend auf der Position x(Δt) des das Bestimmungsobjekt darstellenden Objekts in der Vorwärts-Rückwärtsrichtung nach Δt s berechnet wird. R(Δt) = ∫(x(x(Δt)a, σx(Δt)2))dx (13)(wobei der Integrationsbereich –∞ < x < 0 beträgt).
  • D.h., wenn die Ist-Position x(0) des das Bestimmungsobjekt darstellenden Objekts in der Vorwärts-Rückwärtsrichtung durch die Normalverteilung dargestellt wird, wird vorausgesagt, dass eine Position x(Δt/2) in der Vorwärts-Rückwärtsrichtung nach Δt/2 s und die Position x(Δt) in der Vorwärts-Rückwärtsrichtung nach Δt s durch die in 4 dargestellten Positionen gegeben sind. Daher wird die Wahrscheinlichkeitsdichtefunktion der Normalverteilung bezüglich der Position in der Vorwärts-Rückwärtsrichtung als Risikofunktion rx zum Bewerten eines Risikos eingeführt, und die Normalfunktion wird integriert, indem die Position des eigenen Fahrzeugs auf der x-Achse als Position 0 vorausgesetzt wird, wie in 5 dargestellt ist (Integrationsbereich: –∞ < x < 0), und die Fläche (Wert der Risikofunktion rx nach t s) wird als Existenzwahrscheinlichkeit R(Δt) berechnet.
  • Außerdem ist die Position x(Δt) des das Bestimmungsobjekt darstellenden Objekts nach Δt s eine Funktion der Normalverteilung, so dass das Integrationsergebnis im Bereich –∞ < x < ∞ den Wert 1, 0 hat.
  • Dadurch kann eine Risikoverteilung, die die Gefahr eines Kontakts (Kollision) des eigenen Fahrzeugs mit dem Objekt oder eine ähnliche Gefahr darstellt, kontinuierlich bestimmt werden, so dass eine auf Information mit einer geringen Zuverlässigkeit basierende fehlerhafte Steuerung verhindert und die Sicherheit bezüglich einer Kollisionsvermeidung verbessert werden kann.
  • Nachstehend wird eine zweite Ausführungsform der vorliegenden Erfindung beschrieben. 6 zeigt ein Blockdiagramm einer zweiten Ausführungsform eines erfindungsgemäßen Objekterkennungsabschnitts.
  • Gemäß der zweiten Ausführungsform wird eine Gewichtung der Existenzwahrscheinlichkeit des Objekts gemäß einem vom Erkennungssensor unabhängigen Faktor variabel gemacht, wobei als ein derartiger Faktor ein Stabilitätsgrad des eigenen Fahrzeugs, z.B. ein mit der Fahrzeugstabilität in Beziehung stehender Parameter, ein durch eine Fahrzeugstabilitätssteuerungsvorrichtung verursachter Einfluss auf die Fahrzeugstabilität, oder eine Fahrtumgebung des Fahrzeugs in Betracht kommt.
  • Der mit der Fahrzeugstabilität in Beziehung stehende Parameter weist eine Seitenbeschleunigung, ein Giermoment oder eine Schlupfrate eines Fahrzeugs, usw. auf.
  • Außerdem weist die Fahrzeugstabilitätssteuerungsvorrichtung eine ABS- (Antiblockiersystem) Steuerungsvorrichtung oder eine VDC-Vorrichtung (Fahrzeugdynamiksteuerungsvorrichtung) oder eine ähnliche Vorrichtung auf.
  • Die zweite Ausführungsform ist auch auf einen Fall anwendbar, in dem mindestens ein unter der Stereokamera 2, dem Millimeterwellenradar 3 und dem Laserradar ausgewählter Sen sor als Erkennungssensor vorgesehen ist, wie in 6 dargestellt ist, wobei die erste Ausführungsform des Objekterkennungsabschnitts 10 durch einen Objekterkennungsabschnitt 10A mit einem Existenzwahrscheinlichkeitsberechnungsabschnitt 16 und einem Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitt 17 gebildet wird. In diesem Fall stellt eine durch den Existenzwahrscheinlichkeitsberechnungsabschnitt 16 berechnete Existenzwahrscheinlichkeit Ps die Existenzwahrscheinlichkeit Pis des Bildobjekts, die Existenzwahrscheinlichkeit Pms des Millimeterwellenobjekts bzw. die Existenzwahrscheinlichkeit Pls des Laserobjekts dar. Ein Algorithmus zum Berechnen der Existenzwahrscheinlichkeit Ps ist dem in der ersten Ausführungsform verwendeten Algorithmus ähnlich.
  • Durch den Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitt 17 wird unter Berücksichtigung eines durch eine Fahrzeugstabilitätssteuerungsvorrichtung verursachten Einflusses auf eine Fahrzeugstabilisierung eine Fusions-Existenzwahrscheinlichkeit P unter Verwendung eines Bewertungswertes α1 berechnet, der den Einfluss einer Fahrzeugstabilitätssteuerungsvorrichtung, z.B. einer ABS- (Antiblockiersystem) Vorrichtung oder einer VDC-Vorrichtung (Fahrzeugdynamiksteuerungsvorrichtung), usw. auf die Fahrzeugstabilisierung vorausbestimmt.
  • Beispielsweise wird der Bewertungswert in der ABS-Vorrichtung auf α1 = 0,1 und in der VDC-Vorrichtung auf α1 = 0,2 gesetzt, wobei, wie in Gleichung (14) dargestellt ist, die Existenzwahrscheinlichkeit Ps durch den Bewertungswert α1 gewichtet und damit variabel gemacht und als Fusions-Existenzwahrscheinlichkeit P berechnet wird. P = Ps × (1 – α1) (14)
  • Dadurch kann, wenn eine Stabilisierung eines Fahrzeugverhaltens durch die ABS-Vorrichtung oder die VDS-Vorrichtung erwartet werden kann, der Aktivierungszeitpunkt für eine Kollisionsvermeidungssteuerung oder eine Alarmsteuerung gemäß der Existenzwahrscheinlichkeit Ps verzögert gesetzt werden, so dass eine übermäßige Störung eines Fahrers durch Vermeiden einer unnötigen Steuerung verhindert werden kann.
  • Andererseits wird, wenn die Fusions-Existenzwahrscheinlichkeit P unter Berücksichtigung einer Fahrtumgebung des Fahrzeugs berechnet wird, eine nachstehend dargestellte Erfassungscharakteristik eines Erkennungssensors berücksichtigt. Beispielsweise werden die Erfassungscharakteristiken für die Erfassung des durch die Stereokamera 2, das Millimeterwellenradar 3 und das Laserradar 4 erfassten Objekts bezüglich der Fahrtumgebung folgendermaßen dargestellt. Hierbei bezeichnen ⦾, O, Δ und × Erfassungsgenauigkeiten, wobei ⦾ ausgezeichnet, O eher gut, Δ eher schlecht und × schlecht bezeichnen.
  • Figure 00190001
  • Wie vorstehend beschrieben wurde, ist es schwierig, die vom Millimeterwellenradar 3 emittierte Millimeterwelle im Vergleich zu Laserlicht schmal zu machen, so dass die Auflösung der Seitenposition niedriger ist als beim Laserradar 4 und die Erfassungsgenauigkeit bezüglich der Breite des Objekts gering ist, das Objekt kann allerdings ohne Einfluss durch das Wetter erfasst werden.
  • Andererseits kann das vom Laserradar 4 emittierte Laserlicht schmal gemacht werden und die Fahrzeugbreitenrichtung kontinuierlich abtasten, so dass eine ausgezeichnete Auflösung der Seitenposition erzielt und die Seitenposition somit hochgradig exakt erfasst werden kann, das Laserlicht wird allerdings durch Regentropfen gebrochen oder reflektiert, so dass das Laserlicht durch das Wetter leichter beeinflussbar ist als die Millimeterwelle.
  • Die Stereokamera 2 erkennt das Objekt durch Lichtkontrast, so dass eine ausgezeichnete Auflösung der Seitenposition und der Form erhalten werden, die Auflösung wird jedoch in einer Fahrtumgebung, in der der Kontrast durch Lichtverhältnisse, Regenfall, Schneefall, usw. schwer erkennbar ist, tendenziell niedrig.
  • Daher wird beispielsweise, wenn die Stereokamera 2 als Erkennungssensor verwendet wird, die Umgebung durch Erkennen des Bildes oder basierend auf der Aktivierung eines Scheibenwischers vorausbestimmt, und der Bewertungswert wird variabel derart gesetzt, dass der Bewertungswert in einer Fahrtumgebung mit Regen/Nebel α2 = 0,1 beträgt, in einer Fahrtumgebung mit Schneefall α2 = 0,2 beträgt, und der Bewertungswert in einer Fahrtumgebung mit Regen/Nebel und Schneefall α2 = 0,1 + 0,2 = 0,3 beträgt.
  • Das gleiche gilt für die Verwendung des Millimeterwellenradars 3 oder des Laserradars 4, wobei der Bewertungswert α2 gemäß der Fahrtumgebung variabel gesetzt wird. Außerdem wird, wie durch die nachstehende Gleichung (15) dargestellt ist, die Existenzwahrscheinlichkeit Ps mit dem Bewertungswert α2 gewichtet und somit variabel gemacht und als Fusions-Existenzwahrscheinlichkeit P gesetzt. P = Ps × (1 + α2) (15)
  • Dadurch können in einer Situation, in der das Fahrzeug tendenziell instabil wird, der Aktivierungszeitpunkt der der Steuerung früher gesetzt, die Steuerungszuverlässigkeit durch den geeigneten Steuerungszeitpunkt verbessert und eine geeignete Stabilisierung des Fahrzeugs erreicht werden.

Claims (8)

  1. Objekterkennungsvorrichtung zum Erkennen eines Objekts in der Umgebung des eigenen Fahrzeugs durch mehrere Sensoren, mit: einer Existenzwahrscheinlichkeitsberechnungseinheit, die dazu geeignet ist, jeweilige Existenzwahrscheinlichkeiten des Objekts für jeden der Sensoren basierend auf einer Normalverteilung zu berechnen, die um einen Ausgangswert jedes Sensors zentriert ist; einer Existenzwahrscheinlichkeitskorrektureinheit, die dazu geeignet ist, jeweilige korrigierte Existenzwahrscheinlichkeiten durch Korrigieren der jeweiligen Existenzwahrscheinlichkeit mit einer Erkennungsrate jedes Sensors zu berechnen; und einer Fusions-Existenzwahrscheinlichkeitsberechnungseinheit, die dazu geeignet ist, eine Fusions-Existenzwahrscheinlichkeit des Objekts durch Fusionieren der jeweiligen korrigierten Existenzwahrscheinlichkeiten zu berechnen.
  2. Objekterkennungsvorrichtung nach Anspruch 1, wobei die Fusions-Existenzwahrscheinlichkeit basierend auf einem Multiplikationswert berechnet wird, der durch Multiplizieren jeweiliger Nicht-Existenzwahrscheinlichkeit des Objekts berechnet wird, die basierend auf den jeweiligen korrigierten Existenzwahrscheinlichkeiten berechnet werden.
  3. Objekterkennungsvorrichtung nach Anspruch 1 oder 2, wobei die Fusions-Existenzwahrscheinlichkeit basierend auf einem Multiplikationswert berechnet wird, der durch Multiplizieren einer Zuverlässigkeit jedes der Sensoren mit der jeweiligen korrigierten Existenzwahrscheinlichkeit berechnet wird.
  4. Objekterkennungsvorrichtung zum Erkennen eines Objekts in der Umgebung des eigenen Fahrzeugs basierend auf mehreren Sensoren; mit: einer Existenzwahrscheinlichkeitberechnungseinheit, die dazu geeignet ist, jeweilige Existenzwahrscheinlichkeiten des Objekts bezüglich jedes der Sensoren basierend auf einer Normalverteilung zu berechnen, die um einen Ausgangswert jedes Sensors zentriert ist; einer Existenzwahrscheinlichkeitskorrektureinheit, die dazu geeignet ist, eine korrigierte Existenzwahrscheinlichkeit durch Korrigieren der jeweiligen Existenzwahrscheinlichkeiten gemäß einer Stabilität des eigenen Fahrzeugs zu berechnen; und einer Fusions-Existenzwahrscheinlichkeitsberechnungseinheit, die dazu geeignet ist, eine Fusions-Existenzwahrscheinlichkeit des Objekts durch Fusionieren der jeweiligen korrigierten Existenzwahrscheinlichkeiten zu berechnen.
  5. Objekterkennungsvorrichtung nach Anspruch 4, ferner mit. einer Fahrzeugstabilitätssteuerungsvorrichtung zum Stabilisieren von Fahrtzuständen des eigenen Fahrzeugs; wobei die Existenzwahrscheinlichkeitskorrektureinheit die jeweiligen Existenzwahrscheinlichkeiten basierend auf einer Charakteristik der Fahrzeugstabilitätssteuerungsvorrichtung korrigiert.
  6. Objekterkennungsvorrichtung nach Anspruch 5, wobei die Fahrzeugstabilitätssteuerungsvorrichtung mindestens ein Antiblockiersystem und/oder eine Fahrzeugdynamiksteuerung ist.
  7. Objekterkennungsvorrichtung zum Erkennen eines Objekts in der Umgebung des eigenen Fahrzeugs basierend auf mehreren Sensoren; mit: einer Existenzwahrscheinlichkeitberechnungseinheit, die dazu geeignet ist, jeweilige Existenzwahrscheinlichkeiten des Objekts bezüglich jedes der Sensoren basierend auf einer Normalverteilung zu berechnen, die um einen Ausgangswert jedes Sensors zentriert ist; einer Existenzwahrscheinlichkeitkorrektureinheit, die dazu geeignet ist, jeweilige korrigierte Existenzwahrscheinlichkeit durch Korrigieren der jeweiligen Existenzwahrscheinlichkeiten mit den jeweiligen Charakteristiken der Sensoren zu korrigieren, die gemäß einer Fahrtumgebung des eigenen Fahrzeugs gesetzt werden; und einer Fusions-Existenzwahrscheinlichkeitsberechnungseinheit, die dazu geeignet ist, eine Fusions-Existenzwahrscheinlichkeit des Objekts durch Fusionieren der jeweiligen korrigierten Existenzwahrscheinlichkeit zu berechnen.
  8. Objekterkennungsvorrichtung nach einem der Ansprüche 1 bis 7, wobei die Existenzwahrscheinlichkeit als Wahrscheinlichkeitsverteilung nach einer vorgegebenen Zeitdauer berechnet wird, die anhand einer aktuellen Bewegung und einer Position des Objekts vorausbestimmt wird.
DE102007023037A 2006-05-19 2007-05-16 Objekterkennungsvorrichtung Withdrawn DE102007023037A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006140755A JP2007310741A (ja) 2006-05-19 2006-05-19 立体物認識装置
JP2006-140755 2006-05-19

Publications (1)

Publication Number Publication Date
DE102007023037A1 true DE102007023037A1 (de) 2007-11-22

Family

ID=38608324

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007023037A Withdrawn DE102007023037A1 (de) 2006-05-19 2007-05-16 Objekterkennungsvorrichtung

Country Status (3)

Country Link
US (1) US7710247B2 (de)
JP (1) JP2007310741A (de)
DE (1) DE102007023037A1 (de)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008062273A1 (de) * 2008-12-15 2010-06-17 Volkswagen Ag Verfahren zum Bereitstellen von Informationen über Objekte in einer Umgebung eines Kraftfahrzeugs, Verfahren zum Steuern sicherheitsrelevanter Fahrzeugssysteme und Steuerungsvorrichtung
DE102010007520B3 (de) * 2010-02-11 2011-05-05 Sick Ag Sicherheitssteuerung mit einer Vielzahl von Anschlüssen für Sensoren
EP2549294A1 (de) * 2011-07-20 2013-01-23 Delphi Technologies, Inc. Verfahren zur Erfassung und Bestätigung kritischer Fahrsituationen
EP2483708B1 (de) 2009-10-02 2015-06-10 Robert Bosch GmbH Verfahren zur abbildung des umfelds eines fahrzeugs
WO2015179528A1 (en) * 2014-05-20 2015-11-26 Qualcomm Incorporated Systems and methods for haziness detection
US9734425B2 (en) 2015-02-11 2017-08-15 Qualcomm Incorporated Environmental scene condition detection
DE102017210955A1 (de) * 2017-06-28 2019-01-17 Volkswagen Aktiengesellschaft Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zum auflösen einer redundanz von zwei oder mehr redundanten modulen
CN109308442A (zh) * 2017-07-26 2019-02-05 株式会社斯巴鲁 车外环境识别装置
EP3358369A4 (de) * 2015-09-30 2019-05-08 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102014101400B4 (de) 2013-02-07 2020-07-23 Denso Corporation Zielerkennungsvorrichtung

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7796081B2 (en) * 1997-10-22 2010-09-14 Intelligent Technologies International, Inc. Combined imaging and distance monitoring for vehicular applications
US9428186B2 (en) 2002-04-09 2016-08-30 Intelligent Technologies International, Inc. Exterior monitoring for vehicles
JP2007333486A (ja) * 2006-06-13 2007-12-27 Denso Corp 車両用障害物検知装置
DE102006058308A1 (de) * 2006-12-11 2008-06-12 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erfassen eines Hindernisses in einem Umgebungsbereich eines Kraftfahrzeugs und Kraftfahrzeug
KR100951890B1 (ko) * 2008-01-25 2010-04-12 성균관대학교산학협력단 상황 모니터링을 적용한 실시간 물체 인식 및 자세 추정 방법
JP4969606B2 (ja) * 2009-05-11 2012-07-04 本田技研工業株式会社 車両用物体検知装置
JP4858574B2 (ja) * 2009-05-19 2012-01-18 トヨタ自動車株式会社 物体検出装置
EP2306433A1 (de) 2009-10-05 2011-04-06 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO Kollisionsverhinderungssystem und -Verfahren für ein Straßenfahrzeug und entpsrechendes Computerprogrammprodukt
US20110122133A1 (en) * 2009-11-25 2011-05-26 Kddi Corporation Method and program for constructing three dimensional object model
JP5469473B2 (ja) * 2010-02-03 2014-04-16 富士重工業株式会社 確認行動支援装置
JP5206752B2 (ja) 2010-08-30 2013-06-12 株式会社デンソー 走行環境認識装置
JP2012183867A (ja) * 2011-03-03 2012-09-27 Fuji Heavy Ind Ltd 車両の運転支援装置
JP6075287B2 (ja) 2011-06-30 2017-02-08 日本電気株式会社 解析エンジン制御装置
JP5712900B2 (ja) * 2011-11-08 2015-05-07 トヨタ自動車株式会社 周辺物体検出装置
DE102011122457A1 (de) * 2011-12-24 2013-06-27 Connaught Electronics Ltd. Verfahren zum Betreiben einer Kameraanordnung, Kameraanordnung und Fahrerassistenzsystem
DE102012003028A1 (de) 2012-02-15 2012-10-11 Daimler Ag Verfahren zur Ermittlung einer Existenzwahrscheinlichkeit eines in einer mittels einer Stereokameraanordnung erfassten Umgebung befindlichen Objekts
EP2849166B1 (de) * 2012-05-09 2020-08-26 Toyota Jidosha Kabushiki Kaisha Fahrassistenzvorrichtung
JP5849040B2 (ja) * 2012-11-28 2016-01-27 富士重工業株式会社 車両の運転支援制御装置
JP5842862B2 (ja) * 2013-05-14 2016-01-13 株式会社デンソー 衝突緩和装置
JP5884771B2 (ja) * 2013-05-22 2016-03-15 株式会社デンソー 衝突緩和装置
JP5991332B2 (ja) 2014-02-05 2016-09-14 トヨタ自動車株式会社 衝突回避制御装置
US10417570B2 (en) * 2014-03-06 2019-09-17 Verizon Patent And Licensing Inc. Systems and methods for probabilistic semantic sensing in a sensory network
JP6189815B2 (ja) 2014-10-29 2017-08-30 株式会社Soken 走行区画線認識システム
US9262681B1 (en) * 2014-11-19 2016-02-16 Amazon Technologies, Inc. Probabilistic registration of interactions, actions or activities from multiple views
JP2016166802A (ja) * 2015-03-10 2016-09-15 株式会社東芝 位置検出システム、位置検出装置、および位置検出方法
JP6365385B2 (ja) * 2015-04-17 2018-08-01 トヨタ自動車株式会社 立体物検出装置及び立体物検出方法
US10591594B2 (en) 2015-09-30 2020-03-17 Sony Corporation Information processing apparatus, information processing method, and program
EP3358552A4 (de) 2015-09-30 2019-04-24 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US9989963B2 (en) 2016-02-25 2018-06-05 Ford Global Technologies, Llc Autonomous confidence control
KR20170116305A (ko) * 2016-04-08 2017-10-19 한국전자통신연구원 코파일럿 차량을 위한 이종 다중 센서의 추적정보 융합기반 주변 장애물 인식 장치
US11222438B2 (en) 2016-05-27 2022-01-11 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method for presence probability of object
US11132611B2 (en) * 2016-05-27 2021-09-28 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method for determining presence probability of object
US11204610B2 (en) 2016-05-30 2021-12-21 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method using correlation between attributes
EP3252658B1 (de) 2016-05-30 2021-08-11 Kabushiki Kaisha Toshiba Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
JP2018010535A (ja) * 2016-07-14 2018-01-18 シャープ株式会社 固定カメラ、サーバ、道路情報更新システム、および情報処理プログラム
CN107945198B (zh) * 2016-10-13 2021-02-23 北京百度网讯科技有限公司 用于标注点云数据的方法和装置
US10386792B2 (en) * 2016-10-19 2019-08-20 Ants Technology (Hk) Limited Sensory systems for autonomous devices
JP6698864B2 (ja) * 2016-11-08 2020-05-27 三菱電機株式会社 物体検知装置および物体検知方法
US10315649B2 (en) 2016-11-29 2019-06-11 Ford Global Technologies, Llc Multi-sensor probabilistic object detection and automated braking
WO2018105135A1 (ja) 2016-12-06 2018-06-14 本田技研工業株式会社 車両周辺情報取得装置および車両
WO2018105037A1 (ja) * 2016-12-06 2018-06-14 本田技研工業株式会社 車両用制御装置
JP6855776B2 (ja) * 2016-12-16 2021-04-07 株式会社デンソー 物体検出装置、及び物体検出方法
JP6739364B2 (ja) * 2017-01-20 2020-08-12 株式会社クボタ 自動走行作業車
WO2018154862A1 (ja) * 2017-02-23 2018-08-30 本田技研工業株式会社 車両用制御システムおよび制御方法
KR102334158B1 (ko) * 2017-10-30 2021-12-02 현대모비스 주식회사 자동 긴급 제동장치 및 그 제어방법
US10852420B2 (en) 2018-05-18 2020-12-01 Industrial Technology Research Institute Object detection system, autonomous vehicle using the same, and object detection method thereof
JP2020052897A (ja) * 2018-09-28 2020-04-02 株式会社デンソーテン 物標検出装置および物標検出方法
CN109298415B (zh) * 2018-11-20 2020-09-22 中车株洲电力机车有限公司 一种轨道和道路障碍物检测方法
JP2022017619A (ja) * 2018-11-20 2022-01-26 コニカミノルタ株式会社 画像解析装置、画像解析システム、および制御プログラム
JP7069061B2 (ja) * 2019-01-31 2022-05-17 株式会社デンソー 物体判定装置
JP7095640B2 (ja) 2019-03-28 2022-07-05 株式会社デンソー 物体検出装置
JP6789341B2 (ja) * 2019-04-01 2020-11-25 本田技研工業株式会社 物標認識システム、物標認識方法、およびプログラム
JP7152355B2 (ja) * 2019-05-20 2022-10-12 株式会社Soken 障害物検出装置および障害物検出方法
US11798291B2 (en) * 2019-05-30 2023-10-24 Robert Bosch Gmbh Redundancy information for object interface for highly and fully automated driving
WO2021008712A1 (en) * 2019-07-18 2021-01-21 Toyota Motor Europe Method for calculating information relative to a relative speed between an object and a camera
CN110794406B (zh) * 2019-11-12 2022-08-02 北京经纬恒润科技股份有限公司 多源传感器数据融合系统和方法
JP7310587B2 (ja) * 2019-12-16 2023-07-19 株式会社デンソー 測距装置、測距方法、および測距プログラム
WO2021132229A1 (ja) * 2019-12-25 2021-07-01 京セラ株式会社 情報処理装置、センシング装置、移動体、情報処理方法、及び、情報処理システム
US11195063B2 (en) * 2020-02-14 2021-12-07 GM Global Technology Operations LLC Hidden hazard situational awareness
JP7443818B2 (ja) * 2020-02-27 2024-03-06 株式会社リコー 物体検出装置、移動体、及びプログラム
JP2021174135A (ja) 2020-04-22 2021-11-01 ソニーセミコンダクタソリューションズ株式会社 画像認識装置及び画像認識方法
JP7347343B2 (ja) * 2020-06-22 2023-09-20 株式会社デンソー 外界認識装置、外界認識方法、および外界認識プログラム
CN113960589A (zh) * 2020-07-03 2022-01-21 上海汽车集团股份有限公司 毫米波雷达与摄像头目标存在概率融合方法及装置
CN112051575B (zh) * 2020-08-31 2021-12-17 广州文远知行科技有限公司 一种毫米波雷达与激光雷达的调整方法及相关装置
CN116324487A (zh) 2020-10-13 2023-06-23 索尼半导体解决方案公司 传感器控制系统和传感器
WO2022215348A1 (ja) * 2021-04-08 2022-10-13 日立Astemo株式会社 物標検出装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4410603C1 (de) * 1994-03-26 1995-06-14 Jenoptik Technologie Gmbh Verfahren zur Erkennung von Fehlern bei der Inspektion von strukturierten Oberflächen
JP3501009B2 (ja) * 1999-03-26 2004-02-23 トヨタ自動車株式会社 車両衝突回避制御装置
JP2000292538A (ja) * 1999-04-07 2000-10-20 Mitsubishi Electric Corp 車両用障害物検出装置
GB0111979D0 (en) * 2001-05-17 2001-07-04 Lucas Industries Ltd Sensing apparatus for vehicles
JP3766909B2 (ja) * 2001-11-30 2006-04-19 株式会社日立製作所 走行環境認識方法および装置
JP3931879B2 (ja) * 2003-11-28 2007-06-20 株式会社デンソー センサフュージョンシステム及びそれを用いた車両制御装置
JP4544987B2 (ja) * 2004-09-06 2010-09-15 ダイハツ工業株式会社 衝突予測方法及び衝突予測装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008062273A1 (de) * 2008-12-15 2010-06-17 Volkswagen Ag Verfahren zum Bereitstellen von Informationen über Objekte in einer Umgebung eines Kraftfahrzeugs, Verfahren zum Steuern sicherheitsrelevanter Fahrzeugssysteme und Steuerungsvorrichtung
EP2483708B1 (de) 2009-10-02 2015-06-10 Robert Bosch GmbH Verfahren zur abbildung des umfelds eines fahrzeugs
DE102010007520B3 (de) * 2010-02-11 2011-05-05 Sick Ag Sicherheitssteuerung mit einer Vielzahl von Anschlüssen für Sensoren
EP2549294A1 (de) * 2011-07-20 2013-01-23 Delphi Technologies, Inc. Verfahren zur Erfassung und Bestätigung kritischer Fahrsituationen
DE102014101400B4 (de) 2013-02-07 2020-07-23 Denso Corporation Zielerkennungsvorrichtung
US9846927B2 (en) 2014-05-20 2017-12-19 Qualcomm Incorporated Systems and methods for haziness detection
WO2015179528A1 (en) * 2014-05-20 2015-11-26 Qualcomm Incorporated Systems and methods for haziness detection
US9734425B2 (en) 2015-02-11 2017-08-15 Qualcomm Incorporated Environmental scene condition detection
EP3358369A4 (de) * 2015-09-30 2019-05-08 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US11047976B2 (en) 2015-09-30 2021-06-29 Sony Corporation Information processing apparatus, information processing method and program
DE102017210955A1 (de) * 2017-06-28 2019-01-17 Volkswagen Aktiengesellschaft Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zum auflösen einer redundanz von zwei oder mehr redundanten modulen
US11188428B2 (en) 2017-06-28 2021-11-30 Volkswagen Aktiengesellschaft Method, apparatus, and computer-readable storage medium having instructions for cancelling a redundancy of two or more redundant modules
CN109308442A (zh) * 2017-07-26 2019-02-05 株式会社斯巴鲁 车外环境识别装置
CN109308442B (zh) * 2017-07-26 2023-09-01 株式会社斯巴鲁 车外环境识别装置

Also Published As

Publication number Publication date
JP2007310741A (ja) 2007-11-29
US7710247B2 (en) 2010-05-04
US20070286475A1 (en) 2007-12-13

Similar Documents

Publication Publication Date Title
DE102007023037A1 (de) Objekterkennungsvorrichtung
DE102017209772B4 (de) Objekterkennungsverarbeitungsvorrichtung, Objekterkennungsverarbeitungsverfahren und autonomes Fahrsystem
EP2054869B1 (de) Verfahren und vorrichtung zur fahrerassistenz durch erzeugung von spurinformationen zur unterstützung oder zum ersatz von spurinformationen einer videobasierten spurinformationseinrichtung
US9610945B2 (en) Collision mitigation and avoidance
DE10356797B4 (de) Objekt-Erkennungsvorrichtung für ein Fahrzeug, Fahrzeug-zu-Fahrzeug-Steuervorrichtung und Abstandsmessvorrichtung
EP2097770B1 (de) Vertikale ausrichtung eines lidar-sensors
DE112009005424B4 (de) Objektdetektionsvorrichtung und Objektdetektionsverfahren
DE10352596B4 (de) Warnvorrichtung und Warnverfahren für ein Fahrzeug
DE102016226040B4 (de) Verfahren und Vorrichtung in einem Kraftfahrzeug zum Fußgängerschutz
EP3465658B1 (de) Verfahren zum bereitstellen einer information bezüglich eines fussgängers in einem umfeld eines fahrzeugs und verfahren zum steuern eines fahrzeugs
DE102015112103B4 (de) Detektionsvorrichtung zur Nebelerkennung für ein Kraftfahrzeug
DE102004052242A1 (de) Sensorfusionssystem und Fahrzeugsteuersystem mit diesem
DE102004035842A1 (de) Duales ungleichartiges erfassendes Objektdetektions- und Zielerfassungssystem
DE102004051365A1 (de) Kollisionsvorhersageeinheit für ein Fahrzeug
DE102013113163A1 (de) Fahrzeugfahrtunterstützungssteuerungsvorrichtung
DE102013108000A1 (de) Kollisionserkennungssystem mit Plausibilitätsmodul
DE102011105074A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Sichtweite für ein Fahrzeug
DE102006036921A1 (de) Verfahren zum Stabilisieren eines Kraftfahrzeugs und Fahrdynamikregelsystem
EP3311196A1 (de) Manövrierung eines gespannes mit einem kraftwagen und einem anhänger
DE102012215014A1 (de) Verfahren zur Überwachung eines toten Winkels und Fahrassistenzsystem
EP3252502A1 (de) Verfahren zum erkennen einer neigung in einer fahrbahn eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
EP1912844B1 (de) Verfahren zum erzeugen von umwelthypothesen für fahrerassistenzfunktionen
WO2009109244A2 (de) Kooperatives sicherheitssystem für kraftfahrzeuge
DE102005042989B3 (de) Verfahren zur Erkennung eines bevorstehenden Unfalls aufgrund eines Schleudervorgangs bei einem vorausfahrenden Fahrzeug
WO2020119866A1 (de) Verfahren zur bestimmung eines sichtverhältnisses

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20111123

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20141202