-
HINTERGRUND DER ERFINDUNG
-
1. GEBIET DER ERFINDUNG
-
Die vorliegende Offenbarung betrifft eine Objekterkennungsvorrichtung, ein Objekterkennungsverfahren, ein Objekterkennungsprogramm und ein computerlesbares Speichermedium.
-
2. Beschreibung des Hintergrunds der Erfindung
-
Es ist eine Objekterkennungsvorrichtung zum Erkennen eines Objekts in der Umgebung eines Fahrzeugs unter Verwendung eines fahrzeugseitig angebrachten Sensors bekannt. Informationen über ein von der Objekterkennungsvorrichtung erkanntes Objekt werden zur Durchführung einer Benachrichtigung oder Warnung eines Fahrers verwendet und werden in einem automatisierten Fahrsystem zur Steuerung des Fahrzeugs verwendet, um eine Kollision mit dem Objekt oder dergleichen zu vermeiden.
-
Ferner ist eine Sensorfusionstechnologie bekannt, bei der eine Vielzahl von Sensoren vorgesehen ist und Informationen von den jeweiligen Sensoren kombiniert werden, so dass Informationen, die für die jeweiligen Sensoren einzigartig sind, fusioniert werden, wodurch eine Objekterkennung mit höherer Genauigkeit erfolgt. Beispielsweise sind in einem Fall, in dem ein Millimeterwellen-Radar (im Folgenden einfach als „Radar“ bezeichnet) und eine Kamera an der Vorderseite eines Fahrzeugs vorgesehen sind, diese so angeordnet, dass ein Abschnitt des Erkennungsbereichs des Radars und ein Abschnitt des Erkennungsbereichs der Kamera einander überlappen. Eine Erkennungsvorrichtung, die ein Objekt auf der Grundlage des Radarausgangs erkennt, kann eine Objekterkennung über eine große Entfernung durchführen und hat im Allgemeinen eine hohe Abstandsmessgenauigkeit in Längsrichtung (Tiefenrichtung). Auf der anderen Seite kann eine Erkennungsvorrichtung, die ein Objekt auf der Grundlage der Ausgabe der Kamera erkennt, ein Hindernis erkennen, wobei sie sich auf einen bestimmten Typ durch vorheriges Lernen konzentriert, und hat im Allgemeinen eine hohe Abstandsmessungsgenauigkeit in der Querrichtung. Darüber hinaus kann die Erkennungsvorrichtung der Kamera die Art eines Objekts erkennen und Größeninformationen über die Breite und Länge des Objekts ausgeben. Obwohl einige Radarerkennungsvorrichtungen auch Informationen über die Art und die Größe des Objekts ausgeben können, können Kamera-Erkennungsvorrichtungen im Allgemeinen eine genauere Erkennung durchführen. Im Falle der Erkennung eines identischen Objekts durch die Radar-Erkennungsvorrichtung und die Kamera-Erkennungsvorrichtung werden beispielsweise die von der Radar-Erkennungsvorrichtung ausgegebenen Informationen für einen Abstandsmesswert in Längsrichtung als zuverlässiger angesehen, und die von der Kamera-Erkennungsvorrichtung ausgegebenen Informationen werden für den Typ und einen Abstandsmesswert in Querrichtung als zuverlässiger angesehen, um verschiedene Parameter wie die Position und die Geschwindigkeit des Objekts zu berechnen, und diese werden als Fusionsobjektinformationen an einen Verarbeitungsblock (Steuersystem oder Meldesystem) in einem nachfolgenden Schritt ausgegeben.
-
Im Falle der Verwendung einer Vielzahl von Sensoren und der Erzeugung von Fusionsobjektinformationen durch Fusionieren (Verschmelzen) von Informationen der jeweiligen Sensoren kann es vorkommen, dass bei fehlerhafter Erkennung in einem Sensor Informationen, die auf der fehlerhaften Erkennung des einen Sensors beruhen, und Informationen eines anderen Sensors fälschlicherweise für ein identisches Objekt gehalten werden, so dass fehlerhafte Fusionsobjektinformationen ausgegeben werden. In diesem Fall wird ein Objekt erkannt, das in Wirklichkeit nicht existiert, so dass beispielsweise die Bremssteuerung fälschlicherweise für das nicht existierende Objekt durchgeführt wird. Um eine fehlerhafte Erkennung auf der Grundlage von Informationen von der Kamera zu verhindern, wird in der Sensorfusionstechnologie, die das Radar und die Kamera verwendet, eine Objekterkennungsvorrichtung vorgeschlagen, in der ein Kurzabstand-Kennzeichen für die Ausgabe vom Radar gesetzt wird und die Ausgabe von der Kamera entsprechend dem Zustand des Kennzeichens geändert wird (siehe beispielsweise Patentdokument 1).
-
Patentdokument 1: Japanisches Patent Nr. 4311861
-
In der in Patentdokument 1 gezeigten Objekterkennungsvorrichtung kann die Ausgabe eines fehlerhaften Fusionsobjekts aufgrund einer fehlerhaften Erkennung auf der Grundlage von Informationen der Kamera verhindert werden, aber es gibt ein Problem, dass die Ausgabe eines fehlerhaften Fusionsobjekts aufgrund einer fehlerhaften Erkennung auf der Grundlage von Informationen des Radars nicht verhindert werden kann.
-
ZUSAMMENFASSUNG DER ERFINDUNG
-
Die vorliegende Offenbarung wurde gemacht, um das obige Problem zu lösen, und ein Ziel der vorliegenden Offenbarung ist es, eine Objekterkennungsvorrichtung, ein Objekterkennungsverfahren und ein Objekterkennungsprogramm vorzusehen, die die Ausgabe eines fehlerhaften Fusionsobjekts aufgrund einer fehlerhaften Erkennung auf der Grundlage von Informationen eines Radars verhindern.
-
Eine Objekterkennungsvorrichtung gemäß der vorliegenden Offenbarung dient zur Erkennung eines Objekts auf der Grundlage von Informationen von einer ersten Erkennungsvorrichtung, die bezüglich eines Radarerkennungsobjekts, das ein vom Ausgang eines Radars erkanntes Objekt ist, Radarerkennungsobjektinformationen einschließlich einer Radarerkennungsposition, die Positionsinformationen über das Radarerkennungsobjekt ist, ausgibt, und Informationen von einer zweiten Erkennungsvorrichtung, die bezüglich eines zweiten Sensorerkennungsobjekts, das ein vom Ausgang eines zweiten, vom Radar verschiedenen Sensors erkanntes Objekt ist, zweite Sensorerkennungsobjektinformationen einschließlich einer zweiten Sensorerkennungsposition, die Positionsinformationen über das zweite Sensorerkennungsobjekt ist, ausgibt, wobei die Objekterkennungsvorrichtung Folgendes umfasst: eine Radarfehlererkennungs-Bestimmungseinheit, die bestimmt, ob die Radarerkennungsobjektinformation, die von der ersten Erkennungsvorrichtung erfasst wird, als fehlerhafte Erkennung vermutet wird oder nicht, und ein Radarfehlererkennung-Verdachtsflag für die Radarerkennungsobjektinformation, die als fehlerhafte Erkennung vermutet wird, als wahr setzt; eine Fusionsverarbeitungseinheit, die Fusionsobjektinformationen ausgibt, einschließlich einer Fusionsobjektposition, die eine Positionsinformation über ein Fusionsobjekt ist, auf der Grundlage der zweiten Sensorerkennungsobjektinformation und der Radarerkennungsobjektinformation, die von der Radar-Fehlererkennungs-Bestimmungseinheit erfasst wird; und eine Radar-Fehlererkennungs-Entfernungseinheit, die die Fusionsobjektinformationen entfernt, die als vermutlich fehlerhafte Erkennung bestimmt wurden. Wenn das Radarerkennungsobjekt und das zweite Sensorerkennungsobjekt als ein Fusionsobjekt erkannt werden, integriert die Fusionsverarbeitungseinheit die Radarerkennungsobjektinformation und die zweite Sensorerkennungsobjektinformation für die jeweiligen Objekte als ein Stück der Fusionsobjektinformation und setzt ein Einzelsensor-Erkennungsflag für die integrierte Fusionsobjektinformation als falsch. Wenn das Fusionsobjekt als ein nur vom Radar erkanntes Objekt bestimmt wird, verwendet die Fusionsverarbeitungseinheit die Radarerkennungsobjektinformation für das vom Radar erkannte Objekt als Fusionsobjektinformation und setzt das Einzelsensor-Erkennungsflag für die Fusionsobjektinformation als wahr. Die Radarfehlererkennung-Entfernungseinheit entfernt die Fusionsobjektinformationen, für die das Radarfehlererkennung-Verdachtsflag wahr ist und das Einzelsensor-Erkennungsflag wahr ist.
-
Die Objekterkennungsvorrichtung gemäß der vorliegenden Offenbarung dient zum Erkennen eines Objekts auf der Grundlage von Informationen von der ersten Erkennungsvorrichtung, die bezüglich des Radarerkennungsobjekts, das ein vom Ausgang des Radars erkanntes Objekt ist, die Radarerkennungsobjektinformationen ausgibt, die die Radarerkennungsposition umfassen, und Informationen von der zweiten Erkennungsvorrichtung, die bezüglich des zweiten Sensor-Erkennungsobjekts, bei dem es sich um ein Objekt handelt, das von einem Ausgang des zweiten, vom Radar verschiedenen Sensors erkannt wird, die Sensorerkennungsobjektinformation einschließlich der zweiten Sensorerkennungsposition, die eine Positionsinformation über das zweite Sensor-Erkennungsobjekt ist, ausgibt, wobei die Objekterkennungsvorrichtung Folgendes umfasst: die Radarfehlererkennung-Bestimmungseinheit, die bestimmt, ob die Radarerkennungsobjektinformation, die von der ersten Erkennungsvorrichtung erfasst wird, als fehlerhafte Erkennung vermutet wird oder nicht, und das Radarfehlererkennung-Verdachtsflag für die Radarerkennungsobjektinformation, die als vermutlich fehlerhafte Erkennung bestimmt wurde, als wahr setzt; die Fusionsverarbeitungseinheit, die die Fusionsobjektinformation ausgibt, einschließlich der Fusionsobjektposition, die eine Positionsinformation über das Fusionsobjekt ist, auf der Grundlage der zweiten Sensorerkennungsobjektinformation und der Radarerkennungsobjektinformation, die von der Radar-Fehlererkennungs-Bestimmungseinheit erfasst wird; und die Radar-Fehlererkennungs-Entfernungseinheit, die die Fusionsobjektinformation entfernt, die als verdächtig für eine fehlerhafte Erkennung bestimmt wurde. Wenn das Radarerkennungsobjekt und das zweite Sensorerkennungsobjekt als ein einziges Fusionsobjekt erkannt werden, integriert die Fusionsverarbeitungseinheit die Radarerkennungsobjektinformation und die zweite Sensorerkennungsobjektinformation für die jeweiligen Objekte als ein Stück der Fusionsobjektinformation und setzt das Einzelsensor-Erkennungsflag für die integrierte Fusionsobjektinformation als falsch. Wenn das Fusionsobjekt als ein nur vom Radar erkanntes Objekt bestimmt wird, verwendet die Fusionsverarbeitungseinheit die Radarerkennungsobjektinformation für das vom Radar erkannte Objekt als Fusionsobjektinformation und setzt das Einzelsensor-Erkennungsflag für die Fusionsobjektinformation auf wahr. Die Radarfehlererkennung-Entfernungseinheit entfernt die Fusionsobjektinformationen, für die das Radarfehlererkennung-Verdachtsflag wahr ist und das Einzelsensor-Erkennungsflag wahr ist. So kann die Ausgabe eines fehlerhaften Fusionsobjekts aufgrund einer fehlerhaften Erkennung auf der Grundlage von Radarerkennungsinformationen verhindert werden.
-
KURZBESCHREIBUNG DER ZEICHNUNGEN
-
- 1 ist ein Blockdiagramm, das die Konfiguration einer Objekterkennungsvorrichtung gemäß der ersten Ausführungsform der vorliegenden Offenbarung zeigt;
- 2 ist ein Erkennungsbereich eines Radars und ein Erkennungsbereich einer Kamera in der ersten Ausführungsform;
- 3 zeigt ein Beispiel für ein fehlerhaftes Erkennen in einer ersten Erkennungsvorrichtung der ersten Ausführungsform;
- 4 zeigt ein weiteres Beispiel für eine fehlerhafte Erkennung in der ersten Erkennungsvorrichtung in der ersten Ausführungsform;
- 5 ist ein Flussdiagramm, das den Betrieb der Objekterkennungsvorrichtung gemäß der ersten Ausführungsform illustriert;
- 6 ist ein Flussdiagramm, das die Details der Radarfehlererkennungs-Bestimmungseinheit in der ersten Ausführungsform zeigt, die eine fehlerhafte Erkennung erkennt;
- 7 ist ein Blockdiagramm, das die Konfiguration einer Objekterkennungsvorrichtung gemäß der zweiten Ausführungsform der vorliegenden Offenbarung zeigt;
- 8 ist ein Flussdiagramm, das den Betrieb der Objekterkennungsvorrichtung gemäß der zweiten Ausführungsform zeigt;
- 9 ist ein Flussdiagramm, das die Einzelheiten der Verarbeitung der Bestimmung der fehlerhaften Erkennung durch Fusion in einer Fusionsfehlererkennung-Bestimmungseinheit in der zweiten Ausführungsform zeigt;
- 10 ist ein schematisches Diagramm, das ein Beispiel für die Hardware-Konfiguration der Objekterkennungsvorrichtung gemäß jeder Ausführungsform zeigt; und
- 11 ist ein schematisches Diagramm, das ein weiteres Beispiel für die Hardwarekonfiguration der Objekterkennungsvorrichtung gemäß jeder Ausführungsform zeigt.
-
DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN DER ERFINDUNG
-
Nachfolgend werden eine Objekterkennungsvorrichtung, ein Objekterkennungsverfahren und ein Objekterkennungsprogramm gemäß Ausführungsformen zur Durchführung der vorliegenden Offenbarung unter Bezugnahme auf die Zeichnungen im Detail beschrieben. In den Zeichnungen bezeichnen die gleichen Bezugszeichen die gleichen oder zugehörigen Abschnitte.
-
ERSTE AUSFÜHRUNGSFORM
-
1 ist ein Blockdiagramm, das die Konfiguration einer Objekterkennungsvorrichtung 100 gemäß der ersten Ausführungsform der vorliegenden Offenbarung zeigt. Die Objekterkennungsvorrichtung 100 erkennt ein Objekt auf der Grundlage von mindestens Informationen von einer ersten Erkennungsvorrichtung 1 und Informationen von einer zweiten Erkennungsvorrichtung 2. In 1 erkennt die ObjektErkennungsvorrichtung 100 ein Objekt auf der Grundlage von Informationen von der ersten Erkennungsvorrichtung 1, Informationen von der zweiten Erkennungsvorrichtung 2 und Informationen von einem Fahrzeuginformationssensor 3. Die erste Erkennungsvorrichtung 1 umfasst ein Radar 11, erkennt ein Objekt auf der Grundlage der Ausgabe des Radars 11 und gibt dann bezüglich eines Radarerkennungsobjekts, das das auf der Grundlage der Ausgabe des Radars 11 erkannte Objekt ist, Radarerkennungsobjektinformationen aus, die eine Radarerkennungsposition umfassen, die Positionsinformationen über das Radarerkennungsobjekt sind. Die zweite Erkennungsvorrichtung 2 umfasst einen zweiten Sensor, der sich von einem Radar unterscheidet. Der zweite Sensor, der in der zweiten Erkennungsvorrichtung 2 umfasst ist, kann ein beliebiger Sensor sein, der sich von einem Radar unterscheidet, beispielsweise ein LiDAR-Sensor (Light-Detection-and-Ranging), ein Ultraschallsensor (Sonarsensor) oder eine Infrarotkamera. In der folgenden Beschreibung wird davon ausgegangen, dass die zweite Erkennungsvorrichtung 2 eine Kamera 12 umfasst. Die zweite Erkennungsvorrichtung 2 umfasst die Kamera 12, bei der es sich um den zweiten Sensor handelt, erkennt ein Objekt auf der Grundlage der Ausgabe der Kamera 12, bei der es sich um den zweiten Sensor handelt, und gibt dann in Bezug auf ein zweites Sensorerkennungsobjekt, bei dem es sich um das auf der Grundlage der Ausgabe der Kamera 12, bei der es sich um den zweiten Sensor handelt, erkannte Objekt handelt, eine zweite Sensorerkennungsobjektinformation aus, die eine zweite Sensorerkennungsposition umfasst, bei der es sich um eine Positionsinformation über das zweite Sensorerkennungsobjekt handelt. Die erste Erkennungsvorrichtung 1 und das Radar 11 können identisch sein, und beispielsweise kann das Radar 11 ein Objekt erkennen und eine Radarerkennungsobjektinformation ausgeben, die eine Radarerkennungsposition umfasst, die eine Positionsinformation über das vom Radar erkannte Objekt ist. Die zweite Erkennungsvorrichtung 2 und der zweite Sensor können identisch sein, und beispielsweise kann die Kamera 12, die der zweite Sensor ist, ein Objekt erkennen und zweite Sensorerkennungsobjektinformationen ausgeben, die eine zweite Sensorerkennungsposition umfassen, die eine Positionsinformation über das vom zweiten Sensor erkannte Objekt ist.
-
2 zeigt den Erkennungsbereich des Radars 11 und den Erkennungsbereich der Kamera 12 in der ersten Ausführungsform. Die Objekterkennungsvorrichtung 100 ist beispielsweise an einem Fahrzeug 101 angebracht, und das Radar 11 und die Kamera 12 sind an der Vorderseite des Fahrzeugs 101 vorgesehen. In 2 ist ein Radarerkennungsbereich 102, der der Erkennungsbereich des Radars 11 ist, ein Bereich, der mit nach rechts absteigenden Linien schraffiert ist, und ein Kameraerkennungsbereich 103, der der Erkennungsbereich der Kamera 12 ist, ein Bereich, der mit nach rechts aufsteigenden Linien schraffiert ist. Der Radarerkennungsbereich 102 und der Kameraerkennungsbereich 103 überschneiden sich teilweise, und der Abschnitt, in dem sich der Radarerkennungsbereich 102 und der Kameraerkennungsbereich 103 überschneiden, ist ein Fusionsbereich 104. In 2 ist ein Bereich, in dem sich die nach rechts aufsteigenden Linien und die nach rechts absteigenden Linien überschneiden, der Fusionsbereich 104.
-
Die Objekterkennungsvorrichtung 100 erkennt ein Objekt vor dem Fahrzeug 101 als Fusionsobjekt unter Verwendung von Ausgabeinformationen der ersten Erkennungsvorrichtung 1 und Ausgabeinformationen der zweiten Erkennungsvorrichtung 2 und gibt ein Ergebnis davon in einem nachfolgenden Schritt an einen Verarbeitungsblock (Steuersystem oder Meldesystem) aus, wodurch automatisiertes Fahren oder Fahrassistenz realisiert wird. Die Objekterkennungsvorrichtung 100 kann in einem Zustand montiert sein, in dem sie mit einer anderen Komponente innerhalb des Fahrzeugs 101 integriert oder von dieser nicht trennbar ist, oder sie kann in einem abnehmbaren oder trennbaren Zustand montiert sein. Der Fahrzeuginformationssensor 3 gibt Fahrzeuginformationen wie beispielsweise die Geschwindigkeit, die Gierrate, den Azimut oder die Position des Fahrzeugs 101 aus, und die Objekterkennungsvorrichtung 100 kann ein Objekt vor dem Fahrzeug 101 als Fusionsobjekt erkennen, indem sie Ausgangsinformationen von der ersten Erkennungsvorrichtung 1, Ausgangsinformationen von der zweiten Erkennungsvorrichtung 2 und Ausgangsinformationen von dem Fahrzeuginformationssensor 3 verwendet.
-
Bei dem Fahrzeug 101 handelt es sich beispielsweise um ein Automobil. Ohne diesbezügliche Einschränkung kann das Fahrzeug 101 jedoch auch ein vierrädriges Fahrzeug wie ein Lastwagen oder ein Golfwagen, ein zweirädriges Fahrzeug, ein persönliches Mobilitätsfahrzeug (PMV) oder ein beweglicher Körper wie beispielsweise ein autonomer mobiler Roboter (AMR) sein.
-
Das Radar 11 ist beispielsweise ein Sensor, der Radiowellen in einem Millimeterwellenband ausstrahlt und von einem erkannten Zielobjekt reflektierte Radiowellen empfängt und dabei einen Abstand und einen Winkel zu dem Objekt misst. Die erste Erkennungsvorrichtung 1, die das Radar 11 umfasst, erkennt ein Objekt auf der Grundlage der Ausgabe des Radars 11. Dann berechnet die erste Erkennungsvorrichtung 1 bezüglich eines Radarerkennungsobjekts, das das erkannte Objekt ist, Informationen über eine Radarerkennungsposition, die Positionsinformationen über das erkannte Objekt auf der Grundlage von Abstandsmessungsinformationen und Winkelmessungsinformationen umfasst, und gibt Radarerkennungsobjektinformationen aus, die die Informationen über die Radarerkennungsposition umfassen. Ferner kann die erste Vorrichtung 1 bezüglich des vom Radar erkannten Objekts als Radarerkennungsobjektinformation zusätzliche Informationen ausgeben, beispielsweise eine Geschwindigkeit, eine Beschleunigung, eine Reflektionsintensität (oder Informationen wie einen mit der Reflektionsintensität korrelierten Radarquerschnitt (RCS)), eine Größe (Breite, Länge usw.), einen Typ oder eine Zuverlässigkeit. Das Radar 11 kann sogar ein Objekt in einer Entfernung von 100 m oder mehr erkennen, aber seine Auflösung in Querrichtung ist gering, und daher ist es beispielsweise bei einer kurzen Entfernung von 30 m oder weniger unwahrscheinlich, dass ein in der Nähe befindliches Objekt durch die Signalverarbeitung innerhalb der elektronischen Steuereinheit (ECU) des Radars erkannt wird. Infolgedessen kann eine Vielzahl verschiedener Objekte (oder Geräusche) zu einem Objekt zusammengefasst werden, das von der ersten Erkennungsvorrichtung 1 ausgegeben wird, was zu einer fehlerhaften Erkennung führt.
-
3 zeigt ein Beispiel für eine fehlerhafte Erkennung, die in der ersten Erkennungsvorrichtung 1 der ersten Ausführungsform auftritt. Aufgrund der oben genannten Eigenschaften des Radars 11, insbesondere bei einer kurzen Entfernung, kann ein Rauschen 105, das sich von einer Seite her auf die Fahrzeugmitte zubewegt, in der Ausgabe der ersten Erkennungsvorrichtung 1 während des Fahrens erscheinen. 4 zeigt ein weiteres Beispiel für eine fehlerhafte Erkennung, die in der ersten Erkennungsvorrichtung 1 in der ersten Ausführungsform auftritt. Aufgrund der oben genannten Eigenschaften des Radars 11 kann insbesondere bei einer kurzen Entfernung ein großes Rauschen 106 in der Ausgabe der ersten Erkennungsvorrichtung 1 während des Fahrens auftreten. Geräusche wie beispielsweise das Rauschen 105 und das Rauschen 106 können in der Radar-ECU-Verarbeitung nicht vollständig entfernt werden, und es ist schwierig, sie sicher von einem tatsächlich vorhandenen Fußgänger, der kreuzt oder herauseilt, oder einem tatsächlich vorhandenen Fahrzeug in einer kurzen Entfernung zu unterscheiden.
-
Die zweite Erkennungsvorrichtung 2 erkennt ein Objekt auf der Grundlage der Ausgabe der Kamera 12 und unterzieht sich vorab einem Bildlernprozess, um ein Objekt zu erkennen, das im Blickwinkel der Kamera 12 erscheint. Beispiele für erkannte Ziele umfassen einen Menschen, ein Auto, ein Fahrrad und ein zweirädriges Fahrzeug. Hinsichtlich eines zweiten Sensorerkennungsobjekts, das das erkannte Objekt ist, berechnet die zweite Erkennungsvorrichtung 2 Informationen über eine zweite Sensorerkennungsposition, die Positionsinformationen des erkannten Objekts auf der Grundlage von Informationen, die von der Kamera 12 erfasst werden, und gibt zweite Sensorerkennungsobjektinformationen aus, die die zweite Sensorerkennungsposition umfassen. Als Kamera 12 kann eine monokulare Kamera verwendet werden, um eine Querposition und eine ungefähre Längsposition zu erhalten, hauptsächlich zur Identifizierung der Art eines Objekts, oder eine binokulare Kamera (Stereokamera) kann verwendet werden, um eine genauere Längsposition zu erhalten. Die Kamera 12 kann entweder eine monokulare Kamera oder eine binokulare Kamera sein.
-
Eine Radarfehlererkennungs-Bestimmungseinheit 4 der Objekterkennungsvorrichtung 100 empfängt Stücke von Radarerkennungsobjektinformationen, die der Anzahl der erkannten Objekte von der ersten Erkennungsvorrichtung 1 zugehören, und bestimmt, ob jedes Stück von Radarerkennungsobjektinformationen als fehlerhafte Erkennung vermutet wird oder nicht. Die Radarfehlererkennung-Bestimmungseinheit 4 setzt ein Radarfehlererkennung-Verdachtsflag für die Radarerkennungsobjektinformationen, die als verdächtig erkannt wurden, als wahr, setzt ein Radarfehlererkennung-Verdachtsflag für die Radarerkennungsobjektinformationen, die nicht als verdächtig erkannt wurden, als falsch, und gibt dann die Radarerkennungsobjektinformationen aus. Nach der Bestimmung, ob jede Radarerkennungsobjektinformation als fehlerhafte Erkennung erkannt wird oder nicht, kann die Radarfehlererkennung-Bestimmungseinheit 4 die Radarerkennungsobjektinformation, die angibt, dass ein Verdacht auf fehlerhafte Erkennung besteht, zu der Radarerkennungsobjektinformation hinzufügen, die als verdächtig für eine fehlerhafte Erkennung bestimmt wurde, und die Radarerkennungsobjektinformation ausgeben. Die Bestimmungseinheit 4 für die fehlerhafte Erkennung durch Radar kann auf der Grundlage von Radarerkennungsobjektinformationen, die der von der ersten Erkennungsvorrichtung 1 ausgegebenen Anzahl von erkannten Objekten zugehören, und von Fahrzeuginformationen, die vom Informationssensor 3 ausgegeben werden, bestimmen, ob jeder Teil der Radarerkennungsobjektinformationen als fehlerhafte Erkennung vermutet wird oder nicht. Ein Bestimmungsverfahren für eine fehlerhafte Erkennung in der Radarfehlererkennung-Bestimmungseinheit 4 wird später im Detail beschrieben.
-
Eine Radarfilterverarbeitungseinheit 5 führt eine Radarfilterverarbeitung an den Radarerkennungsobjektinformationen durch, die von der Radarfehlererkennungs-Bestimmungseinheit 4 erfasst wurden, und gibt ein Ergebnis aus, in dem unnötige Radarerkennungsobjektinformationen entfernt wurden. Bei der Radar-Filterverarbeitung in der RadarFilterverarbeitungseinheit 5 können beispielsweise in einem Fall, in dem der Positionsbereich von Objekten, die endgültige Kontroll- oder Benachrichtigungsziele sein werden, im Voraus als Erkennungszielbereich festgelegt wird, Radarerkennungsobjektinformationen, deren Radarerkennungsposition außerhalb des Erkennungszielbereichs liegt, entfernt werden. Bei der Radarfilterverarbeitung in der Radarfilterverarbeitungseinheit 5 können beispielsweise in einem Fall, in dem Informationen über eine erkannte Objektgeschwindigkeit, die die Geschwindigkeit des Radarerkennungsobjekts ist, in den Radarerkennungsobjektinformationen umfasst sind, Radarerkennungsobjektinformationen, deren erkannte Objektgeschwindigkeit einen vorgegebenen Normalwert-Geschwindigkeitsbereich überschreitet, entfernt werden. Bei der Radarfilterverarbeitung in der Radarfilterverarbeitungseinheit 5 können beispielsweise in einem Fall, in dem Informationen über eine erkannte Objektbeschleunigung, die die Beschleunigung des Radarerkennungsobjekts ist, in den Radarerkennungsobjektinformationen umfasst sind, Radarerkennungsobjektinformationen, deren erkannte Objektbeschleunigung einen vorgegebenen Normalwert-Beschleunigungsbereich überschreitet, entfernt werden. Dabei können der Normalwert-Geschwindigkeitsbereich und der Normalwert-Beschleunigungsbereich aus einem ungültigen Wert oder einem unregelmäßigen Wert festgelegt werden, der als Spezifikation des Radars 11 vorgeschrieben ist, oder er kann in Übereinstimmung mit der Anwendungsmethode für die endgültige Kontrolle oder Meldung festgelegt werden. Insbesondere können der Normalwert-Geschwindigkeitsbereich und der Normalwert-Beschleunigungsbereich so eingestellt werden, dass Informationen für ein Objekt, das sich mit einer hohen Geschwindigkeit bewegt, die in einem fahrenden Bereich nicht auftreten kann, entfernt werden, selbst wenn der Wert ein normaler Wert in Bezug auf die Ausgangsspezifikationen des Radars 11 ist. Bei der Radarfilterverarbeitung in der Radarfilterverarbeitungseinheit 5 können beispielsweise in einem Fall, in dem Informationen über eine Reflektionsintensität eines erkannten Objekts, die eine Reflektionsintensität für das vom Radar erkannte Objekt ist, in den Radarerkennungsobjektinformationen umfasst sind, Radarerkennungsobjektinformationen, bei denen die Reflektionsintensität des erkannten Objekts kleiner als ein vorgegebener Reflektionsintensität-Schwellenwert ist, entfernt werden. Für die Radarfilterverarbeitung in der Radarfilterverarbeitungseinheit 5 kann jedes der oben genannten Verfahren verwendet oder eine Vielzahl der Verfahren kombiniert werden. In einem Fall, in dem die Radarfilterverarbeitung in der Radarfilterverarbeitungseinheit 5 nicht benötigt wird, kann die Radarfilterverarbeitung in der Radarfilterverarbeitungseinheit 5 übersprungen werden und eine Fusionsverarbeitungseinheit 7 kann die Radarerkennungsobjektinformation von der Radarfehlererkennungs-Bestimmungseinheit 4 erfassen.
-
Eine Kamerafilter-Verarbeitungseinheit 6 führt eine Kamerafilter-Verarbeitung an den von der zweiten Erkennungsvorrichtung 2 erfassten zweiten Sensor-Erkennungsobjektinformationen durch und gibt die zweiten Sensor-Erkennungsobjektinformationen nach der Verarbeitung an die Fusionsverarbeitungseinheit 7 aus. Bei der Kamerafilter-Verarbeitung in der Kamerafilter-Verarbeitungseinheit 6, wie auch bei der Radar-Filter-Verarbeitung in der Radar-Filter-Verarbeitungseinheit 5, können beispielsweise in einem Fall, in dem der Positionsbereich von Objekten, die endgültige Kontroll- oder Benachrichtigungsziele sein werden, im Voraus als Erkennungszielbereich festgelegt wird, von dem zweiten Sensor erkannte Objektinformationen, deren zweite Sensordetektionsposition außerhalb des Erkennungszielbereichs liegt, entfernt werden. In einem Fall, in dem die Kamerafilter-Verarbeitung in der Kamerafilter-Verarbeitungseinheit 6 nicht benötigt wird, kann die Kamerafilter-Verarbeitung in der Kamerafilter-Verarbeitungseinheit 6 übersprungen werden, und die Fusionsverarbeitungseinheit 7 kann die vom zweiten Sensor erkannten Objektinformationen von der zweiten Erkennungsvorrichtung 2 erfassen.
-
Die Fusionsverarbeitungseinheit 7 führt eine Sensorfusionsverarbeitung (im Folgenden einfach als „Fusionsverarbeitung“ bezeichnet) auf der Grundlage der von der Radarfilter-Verarbeitungseinheit 5 erfassten RadarErkennungsobjektinformationen und der von der Kamerafilter-Verarbeitungseinheit 6 erfassten zweiten Sensor-Erkennungsobjektinformationen durch und gibt bezüglich eines als Fusionsverarbeitungsergebnis erhaltenen Fusionsobjekts Fusionsobjektinformationen einschließlich einer Fusionsobjektposition aus, die Positionsinformationen über das Fusionsobjekt sind. In einem Fall, in dem die Radar-Filter-Verarbeitung durch die Radar-Filter-Verarbeitungseinheit 5 und die Kamera-Filter-Verarbeitung durch die Kamera-Filter-Verarbeitungseinheit 6 übersprungen werden, führt die Fusionsverarbeitungseinheit 7 eine Fusionsverarbeitung auf der Grundlage der RadarErkennungsobjektinformation, die von der Radar-Fehlererkennungs-Bestimmungseinheit 4 erfasst wird, und der zweiten Sensor-Erkennungsobjektinformation, die von der zweiten Erkennungsvorrichtung 2 erfasst wird, durch und gibt bezüglich eines Fusionsobjekts, das als ein Fusionsverarbeitungsergebnis erhalten wird, eine Fusionsobjektinformation aus, die eine Fusionsobjektposition enthält, die eine Positionsinformation über das Fusionsobjekt ist.
-
Bei der Fusionsverarbeitung wird zunächst jede Radarerkennungsobjektinformation und jede zweite Sensorerkennungsobjektinformation miteinander verglichen, und ob das Radarerkennungsobjekt und das zweite Sensorerkennungsobjekt ein Fusionsobjekt sind oder nicht, wird anhand von Informationen über die Radarerkennungsposition und die zweite Sensorerkennungsposition bestimmt. Bei der Fusionsverarbeitung werden beispielsweise die Radarerkennungsobjektinformationen und die zweiten Sensorerkennungsobjektinformationen, bei denen die Radarerkennungsposition und die zweite Sensorerkennungsposition nahe beieinander liegen, als Informationen über ein identisches Objekt bestimmt, und somit werden das durch die Radarerkennungsobjektinformationen angegebene Radarerkennungsobjekt und das durch die zweiten Sensorerkennungsobjektinformationen angegebene zweite Sensorerkennungsobjekt als ein Fusionsobjekt bestimmt. Bei der Fusionsverarbeitung, insbesondere wenn die zweite Sensorerkennungsposition des zweiten Sensorerkennungsobjekts innerhalb eines vorgegebenen Erkennungsbereichs für identische Objekte liegt, der die Radarerkennungsposition des Radarerkennungsobjekts umfasst, werden das Radarerkennungsobjekt und das zweite Sensorerkennungsobjekt als ein identisches Fusionsobjekt bestimmt, die Radarerkennungsobjektinformation und die zweite Sensorerkennungsobjektinformation für die jeweiligen Objekte als ein Stück Fusionsobjektinformation integriert werden, und ein Einzelsensor-Erkennungsflag für die integrierte Fusionsobjektinformation als falsch gesetzt wird, um anzugeben, dass das integrierte Fusionsobjekt das Objekt ist, das sowohl von dem Radar 11 als auch von dem zweiten Sensor erkannt wird. Um beispielsweise anzugeben, dass es sich bei dem integrierten Fusionsobjekt um das sowohl von dem Radar 11 als auch von dem zweiten Sensor erkannte Objekt handelt, kann den Fusionsobjektinformationen eine erste Erkennungsinformation hinzugefügt werden, die angibt, dass es sich bei dem integrierten Fusionsobjekt um das sowohl von dem Radar 11 als auch von dem zweiten Sensor erkannte Objekt handelt. Wenn die Radarerkennungsobjektinformationen und die Sensorerkennungsobjektinformationen des zweiten Sensors als eine Fusionsobjektinformation integriert werden, werden Informationen, die nur eine der Radarerkennungsobjektinformationen oder die Sensorerkennungsobjektinformationen des zweiten Sensors umfassen, direkt in die Fusionsobjektinformationen übernommen. Da beispielsweise Informationen über das Verdachtsflag für fehlerhafte Erkennung nur in der Radarerkennungsobjektinformation umfasst sind, werden Informationen über das Verdachtsflag für fehlerhafte Erkennung in der Radarerkennungsobjektinformation als Informationen über das Verdachtsflag für fehlerhafte Erkennung in der Fusionsobjektinformation verwendet. Hinsichtlich der Informationen, die sowohl in der Radarerkennungsobjektinformation als auch in der zweiten Sensorerkennungsobjektinformation umfasst sind, wird beispielsweise diejenige mit der höheren Zuverlässigkeit zwischen den jeweiligen Informationen ausgewählt, die in der Radarerkennungsobjektinformation und der zweiten Sensorerkennungsobjektinformation umfasst sind, und für die Fusionsobjektinformation verwendet. Beispielsweise werden hinsichtlich der Positionsinformationen in Längsrichtung die in den Radarerkennungsobjektinformationen enthaltenen Informationen ausgewählt, und hinsichtlich der Positionsinformationen in Querrichtung die in den zweiten Sensorerkennungsobjektinformationen umfassenden Informationen. Alternativ können für die Fusionsobjektinformationen, anstatt eine der jeweiligen Informationen auszuwählen, die in den Radarerkennungsobjektinformationen und den zweiten Sensorerkennungsobjektinformationen umfasst sind, die jeweiligen Informationen, die in den Radarerkennungsobjektinformationen und den zweiten Sensorerkennungsobjektinformationen umfasst sind, in einem vorbestimmten Verhältnis gewichtet werden, wobei die Datenausgabezyklen des Radars 11 und der Kamera 12, das Fehlen einer Erkennung derselben und Ähnliches berücksichtigt werden, und der resultierende Wert kann als ein Wert in den Fusionsobjektinformationen verwendet werden.
-
Als nächstes wird bei der Fusionsverarbeitung, wenn das zweite Sensorerkennungsobjekt nicht innerhalb des Erkennungsbereichs für identische Objekte einschließlich der Radarerkennungsposition des Radarerkennungsobjekts erkannt wird, das Fusionsobjekt als ein Objekt bestimmt, das nur vom Radar 11 erkannt wird, die Radarerkennungsobjektinformation für das Radarerkennungsobjekt als Fusionsobjektinformation verwendet, und ein Kennzeichen für die Einzelsensorerkennungsobjektinformation wird als wahr gesetzt, um anzuzeigen, dass das Fusionsobjekt ein Objekt ist, das nur vom Radar 11 erkannt wird. Um anzugeben, dass es sich bei dem integrierten Fusionsobjekt um ein nur vom Radar 11 erkanntes Objekt handelt, kann beispielsweise eine zweite Erkennungsinformation zu den Fusionsobjektinformationen hinzugefügt werden, die angibt, dass es sich bei dem Fusionsobjekt um ein nur vom Radar 11 erkanntes Objekt handelt. In einem Fall, in dem die Radarerkennungsobjektinformation keine Information über den Typ des Radarerkennungsobjekts umfasst und die zweite Sensorerkennungsobjektinformation Information über den Typ des zweiten Sensorerkennungsobjekts umfasst, kann die Tatsache, dass die Information über den Typ des zweiten Sensorerkennungsobjekts in der Fusionsobjektinformation umfasst ist, wenn das integrierte Fusionsobjekt ein Objekt ist, das sowohl vom Radar 11 als auch vom zweiten Sensor erkannt wurde, angeben, ob das integrierte Fusionsobjekt ein Objekt ist, das nur vom Radar 11 erkannt wurde, oder ein Objekt, das nur vom Radar 11 erkannt wurde.
-
Hinsichtlich der Bestimmung, ob die zweite Sensorerkennungsposition des zweiten Sensorerkennungsobjekts innerhalb des Erkennungsbereichs für identische Objekte liegt, der die Radarerkennungsposition des Radarerkennungsobjekts umfasst, kann beispielsweise bestimmt werden, dass die zweite Sensorerkennungsposition des zweiten Sensorerkennungsobjekts innerhalb des Erkennungsbereichs für identische Objekte liegt, wenn ein Abstand von der Radarerkennungsposition des Radarerkennungsobjekts zu der zweiten Sensorerkennungsposition des zweiten Sensorerkennungsobjekts kleiner als ein vorgegebener erster Abstandsschwellenwert ist. Insbesondere wird die Radarerkennungsposition durch (x1, y1) dargestellt, wobei x1 eine Position in der Querrichtung und y1 eine Position in der Längsrichtung ist, die zweite Sensorerkennungsposition wird durch (x2, y2) dargestellt, wobei x2 eine Position in der Querrichtung und y2 eine Position in der Längsrichtung ist, und die erste Abstandsschwelle wird durch th1 dargestellt. Wenn dann der folgende Ausdruck (1) erfüllt ist, kann die Sensorerkennungsposition des zweiten Sensors als innerhalb des Erkennungsbereichs für identische Objekte liegend bestimmt werden.
[Gleichung 1]
-
Alternativ kann hinsichtlich der Bestimmung, ob die zweite Sensorerkennungsposition des zweiten Sensorerkennungsobjekts innerhalb des Erkennungsbereichs für identische Objekte liegt, der die Radarerkennungsposition des Radarerkennungsobjekts umfasst, beispielsweise bestimmt werden, dass eine Differenz zwischen der Position in der Querrichtung der Radarerkennungsposition des Radarerkennungsobjekts und der Position in der Querrichtung der zweiten Sensorerkennungsposition des zweiten Sensorerkennungsobjekts kleiner ist als ein vorbestimmter Querschwellenwert, und eine Differenz zwischen der Position in der Längsrichtung der Radarerkennungsposition des Radarerkennungsobjekts und der Position in der Längsrichtung der zweiten Sensorerkennungsposition des zweiten Sensorerkennungsobjekts kleiner als ein vorbestimmter Längsschwellenwert ist, kann die zweite Sensorerkennungsposition als innerhalb des Erkennungsbereichs für identische Objekte liegend bestimmt werden. Im Einzelnen wird die Radarerkennungsposition durch (x1, y1), die zweite Sensorerkennungsposition durch (x2, y2), die Querschwelle durch thx und die Längsschwelle durch thy dargestellt. Wenn die folgenden Ausdrücke (2) und (3) erfüllt sind, kann die Sensorerkennungsposition des zweiten Sensors so bestimmt werden, dass sie innerhalb des Bereichs zur Bestimmung identischer Objekte liegt.
[Gleichung 2]
-
Bei der Fusionsverarbeitung wird die Radarerkennungsposition durch (x1, y1), eine Geschwindigkeit in der Längsrichtung, d.h. eine Geschwindigkeit in der Tiefenrichtung, des vom Radar erkannten Objekts durch vy1, die zweite Sensorerkennungsposition durch (x2, y2), eine Geschwindigkeit in der Längsrichtung, d.h. eine Geschwindigkeit in der Tiefenrichtung, des vom zweiten Sensor erkannten Objekts durch vy2, der erste Abstandsschwellenwert durch th1 und ein Längsgeschwindigkeitsschwellenwert durch thvy dargestellt. Wenn der obige Ausdruck (1) und der folgende Ausdruck (4) erfüllt sind, können das vom Radar erkannte Objekt und das vom zweiten Sensor erkannte Objekt als ein Fusionsobjekt bestimmt werden. Zu diesem Zeitpunkt kann bei der Fusionsverarbeitung unter Verwendung der Radarerkennungsposition des vom Radar erkannten Objekts als Referenz, wenn das vom zweiten Sensor erkannte Objekt, für das Ausdruck (1) und Ausdruck (4) erfüllt sind, nicht erkannt wird, das Fusionsobjekt als ein nur vom Radar 11 erkanntes Objekt bestimmt werden.
[Gleichung 3]
-
Alternativ wird bei der Fusionsverarbeitung die Radarerkennungsposition durch (x1, y1), eine Geschwindigkeit in der Längsrichtung, d.h. eine Geschwindigkeit in der Tiefenrichtung, des vom Radar erkannten Objekts durch vy1, die zweite Sensorerkennungsposition durch (x2, y2), eine Geschwindigkeit in der Längsrichtung, d.h. dargestellt, eine Geschwindigkeit in Tiefenrichtung des zweiten Sensorerkennungsobjekts wird durch vy2 dargestellt, der Querschwellenwert wird durch thx dargestellt, der Längsschwellenwert wird durch thy dargestellt, und der Längsgeschwindigkeitsschwellenwert wird durch thvy dargestellt. Wenn dann die obigen Ausdrücke (2) und (3) erfüllt sind und der obige Ausdruck (4) erfüllt ist, können das Radarerkennungsobjekt und das zweite Sensorerkennungsobjekt als ein Fusionsobjekt bestimmt werden. Zu diesem Zeitpunkt kann bei der Fusionsverarbeitung unter Verwendung der Radarerkennungsposition des vom Radar erkannten Objekts als Referenz, wenn das vom zweiten Sensor erkannte Objekt, für das Ausdruck (2), Ausdruck (3) und Ausdruck (4) erfüllt sind, nicht erkannt wird, das Fusionsobjekt als ein nur vom Radar 11 erkanntes Objekt bestimmt werden.
-
Alternativ wird bei der Fusionsverarbeitung die Radarerkennungsposition durch (x1, y1), eine Geschwindigkeit des vom Radar erkannten Objekts durch (vx1, vy1) dargestellt, wobei vx1 eine Geschwindigkeit in der Querrichtung und vy1 eine Geschwindigkeit in der Längsrichtung ist, d.h., eine Geschwindigkeit in der Tiefenrichtung, die zweite Sensorerkennungsposition wird durch (x2, y2) dargestellt, eine Geschwindigkeit des zweiten Sensorerkennungsobjekts wird durch (vx2, vy2) dargestellt, wobei vx2 eine Geschwindigkeit in der Querrichtung und vy2 eine Geschwindigkeit in der Längsrichtung ist, d.h. eine Geschwindigkeit in der Tiefenrichtung, der erste Abstandsschwellenwert wird durch th1 dargestellt, und ein Geschwindigkeitsschwellenwert wird durch thv dargestellt. Wenn der obige Ausdruck (1) und der folgende Ausdruck (5) erfüllt sind, können das vom Radar erkannte Objekt und das vom zweiten Sensor erkannte Objekt als ein Fusionsobjekt bestimmt werden. Zu diesem Zeitpunkt kann bei der Fusionsverarbeitung unter Verwendung der Radarerkennungsposition des vom Radar erkannten Objekts als Referenz, wenn das vom zweiten Sensor erkannte Objekt, für das Ausdruck (1) und Ausdruck (5) erfüllt sind, nicht erkannt wird, das Fusionsobjekt als ein nur vom Radar 11 erkanntes Objekt bestimmt werden.
[Gleichung 4]
-
Alternativ wird bei der Fusionsverarbeitung die Radarerkennungsposition durch (x1, y1), eine Geschwindigkeit des vom Radar erkannten Objekts durch (vx1, vy1), die zweite Sensorerkennungsposition durch (x2, y2), eine Geschwindigkeit des vom zweiten Sensor erkannten Objekts durch (vx2, vy2), die Querschwelle durch thx, die Längsschwelle durch thy, eine dritte Quergeschwindigkeitsschwelle durch thvx und die Längsgeschwindigkeitsschwelle durch thvy dargestellt. Wenn die obigen Ausdrücke (2), (3) und (4) erfüllt sind und der folgende Ausdruck (6) erfüllt ist, können das vom Radar erkannte Objekt und das vom zweiten Sensor erkannte Objekt als ein Fusionsobjekt bestimmt werden. Zu diesem Zeitpunkt kann bei der Fusionsverarbeitung unter Verwendung der Radarerkennungsposition des vom Radar erkannten Objekts als Referenz, wenn das vom zweiten Sensor erkannte Objekt, für das Ausdruck (2), Ausdruck (3), Ausdruck (4) und Ausdruck (6) erfüllt sind, nicht erkannt wird, das Fusionsobjekt als ein nur vom Radar 11 erkanntes Objekt bestimmt werden.
[Gleichung 5]
-
Alternativ kann bei der Fusionsverarbeitung unter Verwendung einer Kombination beliebiger Ausdrücke der Ausdrücke (1) bis (6) bestimmt werden, ob das vom Radar erkannte Objekt und das vom zweiten Sensor erkannte Objekt ein Fusionsobjekt sind oder nicht.
-
Die Fusionsverarbeitungseinheit 7 kann die Fusionsverarbeitung auf der Grundlage der von der Radar-Filter-Verarbeitungseinheit 5 erfassten Radar-Detektionsobjektinformationen, der von der Kamera-Filter-Verarbeitungseinheit 6 erfassten zweiten Sensor-Detektionsobjektinformationen und der von dem FahrzeugInformationssensor 3 erfassten Fahrzeuginformationen durchführen und bezüglich des als Fusionsverarbeitungsergebnis erhaltenen Fusionsobjekts Fusionsobjektinformationen einschließlich einer Fusionsobjektposition ausgeben, die Positionsinformationen über das Fusionsobjekt sind. Beispielsweise kann auf der Grundlage der Radarerkennungsobjektinformation, der zweiten Sensorerkennungsobjektinformation und der Fahrzeuginformation eine Geschwindigkeit relativ zum Boden jedes Radarerkennungsobjekts und eine Geschwindigkeit relativ zum Boden eines zweiten Sensorerkennungsobjekts berechnet werden, und für jedes Radarerkennungsobjekt und jedes zweite Sensorerkennungsobjekt kann bestimmt werden, ob das Objekt ein statisches Objekt oder ein sich bewegendes Objekt ist. Selbst wenn die zweite Sensorerkennungsposition des zweiten Sensorerkennungsobjekts innerhalb des vorbestimmten Erkennungsbereichs für identische Objekte liegt, der die Radarerkennungsposition des Radarerkennungsobjekts umfasst, kann außerdem festgestellt werden, dass das Radarerkennungsobjekt und das zweite Sensorerkennungsobjekt kein Fusionsobjekt sind, wenn eines der beiden Objekte ein statisches Objekt und das andere ein sich bewegendes Objekt ist. Alternativ kann, selbst wenn die zweite Sensorerkennungsposition des zweiten Sensorerkennungsobjekts innerhalb des vorbestimmten Erkennungsbereichs für identische Objekte liegt, der die Radarerkennungsposition des Radarerkennungsobjekts umfasst, wenn eines von dem Radarerkennungsobjekt und dem zweiten Sensorerkennungsobjekt ein statisches Objekt ist und das andere ein sich bewegendes Objekt ist, ein Schwellenwert oder dergleichen geändert werden, so dass das Radarerkennungsobjekt und das zweite Sensorerkennungsobjekt mit geringerer Wahrscheinlichkeit als ein Fusionsobjekt bestimmt werden.
-
In einem Fall, in dem nur ein Objekt, das sowohl vom Radar 11 als auch vom zweiten Sensor erkannt wurde, als Fusionsobjekt behandelt wird, kann ein Objekt, das vom Radar 11 erkannt wird, aber vom zweiten Sensor nicht erkannt wird, oder ein Objekt, das kein Erkennungsziel der zweiten Erkennungsvorrichtung 2 ist, wenn der zweite Sensor die Kamera 12 ist (ein Objekt eines Typs, der nicht im Voraus gelernt wurde), ein solches Objekt nicht erkannt und als Fusionsobjekt ausgegeben werden. In der Objekterkennungsvorrichtung 100 gemäß der ersten Ausführungsform wird auch ein nur vom Radar 11 erkanntes Objekt als Fusionsobjekt behandelt, wodurch verhindert werden kann, dass Informationen über ein nur vom Radar 11 erkanntes Objekt fälschlicherweise entfernt werden.
-
Abhängig von der Form, der Größe, dem Material und dergleichen eines zu erkennenden Objekts kann es vorkommen, dass das Objekt von der ersten Erkennungsvorrichtung 1 oder der zweiten Erkennungsvorrichtung 2 als eine Vielzahl von Objekten erkannt wird, obwohl es sich eigentlich um ein einziges Objekt handelt. Daher kann bei der Fusionsverarbeitung in der Fusionsverarbeitungseinheit 7 eine Integrationsverarbeitung durchgeführt werden, um eine Vielzahl von Fusionsobjekten, bei denen der Abstand zwischen den in den jeweiligen Fusionsobjektinformationen umfassten Fusionsobjektpositionen kleiner als ein vorgegebener dritter Abstandsschwellenwert ist, als ein Objekt zu integrieren. Bei der Integrationsverarbeitung werden beispielsweise, wenn der Abstand zwischen den Fusionsobjektpositionen, die in den jeweiligen Fusionsobjektinformationen umfasst sind, kleiner ist als der vorgegebene dritte Abstandsschwellenwert, die jeweiligen Fusionsobjektinformationen zu einer einzigen Information integriert. Wenn eine Vielzahl von Fusionsobjektinformationen in eine Information integriert wird, können Informationen mit hoher Zuverlässigkeit aus den jeweiligen Fusionsobjektinformationen ausgewählt werden, um als neu integrierte Fusionsobjektinformationen verwendet zu werden, oder Informationen, die in den jeweiligen Fusionsobjektinformationen umfasst sind, können in einem vorbestimmten Verhältnis gewichtet werden und als neu integrierte Fusionsobjektinformationen verwendet werden. Wenn eine Vielzahl von Fusionsobjektinformationen in eine einzige Information integriert wird, kann die Größe eines Objekts, die alle Fusionsobjektpositionen der jeweiligen Fusionsobjektinformationen umfasst, als Größeninformation der neu integrierten Fusionsobjektinformation verwendet werden. Wenn die Werte der Radarfehlererkennung-Verdachtsflaggen für die Vielzahl der in eine Information zu integrierenden Fusionsobjektinformationen wahr sind, kann der Wert eines Radarfehlererkennung-Verdachtsflags für die neu integrierte Fusionsobjektinformation auf wahr gesetzt werden. Wenn der Wert des Radarfehlererkennung-Verdachtsflags für mindestens eine der Vielzahl von Fusionsobjektinformationen, die in eine Information integriert werden sollen, wahr ist, kann der Wert eines Radarfehlererkennung-Verdachtsflags für die neu integrierte Fusionsobjektinformation auf wahr gesetzt werden. Wenn die Werte der Radarfehlererkennung-Verdachtsflaggen für nicht weniger als die Hälfte der Vielzahl der in eine Information zu integrierenden Fusionsobjektinformationen wahr sind, kann der Wert eines Radarfehlererkennung-Verdachtsflags für die neu integrierte Fusionsobjektinformation als wahr gesetzt werden. Wenn die Werte der Einzelsensor-Erkennungsflags für die Vielzahl von Fusionsobjektinformationen, die in eine Information integriert werden sollen, wahr sind, kann der Wert eines Einzelsensor-Erkennungsflags für die neu integrierte Fusionsobjektinformation auf wahr gesetzt werden, und wenn mindestens einer der Werte der Einzelsensor-Erkennungsflags für die Vielzahl von Fusionsobjektinformationen, die in eine Information integriert werden sollen, falsch ist, kann der Wert eines Einzelsensor-Erkennungsflags für die neu integrierte Fusionsobjektinformation auf falsch gesetzt werden. In jedem Fall können die erhaltenen Fusionsobjektinformationen verschiedenen Nachbearbeitungen unterzogen werden, beispielsweise einer Verfolgungsverarbeitung oder einer Glättungsverarbeitung, um das Ergebnis zu korrigieren, wodurch die Genauigkeit oder Sicherheit erhöht werden kann. Die Bewegung des Fahrzeugs 101 kann auf der Grundlage der Fahrzeuginformationen, die vom Board-Fahrzeugsensor 3 erfasst werden, vorhergesagt werden, und die Verfolgungsverarbeitung kann auf der Grundlage des Vorhersageergebnisses durchgeführt werden. Beispielsweise kann sich das Fahrzeug 101 während einer Sensorverarbeitungsverzögerung, einer Millimeterwellenübertragungsverzögerung oder ähnlichem bewegen, und daher können der von dem Sensor, der das Radar 11 oder die Kamera 12 ist, ausgegebene Wert und der aktuelle Wert in der tatsächlichen Positionsbeziehung des Fahrzeugs 101 und des Fusionsobjekts unterschiedlich sein. Daher kann die Verfolgungsverarbeitung unter Verwendung eines Wertes durchgeführt werden, der durch Vorhersage des Fehlers zwischen dem Sensorausgangswert und dem aktuellen Wert in der tatsächlichen Positionsbeziehung zwischen dem Fahrzeug 101 und dem Fusionsobjekt korrigiert wird.
-
Für jedes Fusionsobjekt, das durch die Fusionsverarbeitung erhalten wird, existiert immer die entsprechende Radarerkennungsobjektinformation. Daher wird als Wert des Fusionsfehlererkennung-Verdachtsflags für die Fusionsobjektinformation der Wert des Radarfehlererkennung-Verdachtsflags für die entsprechende Radarerkennungsobjektinformation verwendet. Das heißt, der Wert des Radarfehlererkennung-Verdachtsflags für jede Radarerkennungsobjektinformation wird als Radarfehlererkennung-Verdachtsflag für die entsprechende Fusionsobjektinformation übernommen. Umfasst die Radarerkennungsobjektinformation die Information über die fehlerhafte Erkennung des Radars, wird die Information über die fehlerhafte Erkennung des Radars der entsprechenden Fusionsobjektinformation hinzugefügt. In einem Fall, in dem der Ausgabezyklus der Radarerkennungsobjektinformationen von der ersten Erkennungsvorrichtung 1 und der Ausführungszyklus der Fusionsverarbeitung durch die Fusionsverarbeitungseinheit 7 voneinander verschieden sind, sind die entsprechenden Radarerkennungsobjektinformationen in einem bestimmten Ausführungszyklus möglicherweise nicht vorhanden. In diesem Fall werden die Radarerkennungsobjektinformationen der Fusionsobjektinformationen für dasselbe Fusionsobjekt im vorherigen Zyklus übernommen. Somit werden die Werte der entsprechenden Radarfehlererkennung-Verdachtsflags immer auf alle Fusionsobjektinformationen übertragen.
-
Eine Radarfehlererkennung-Entfernungseinheit 8 erfasst die Fusionsobjektinformationen von der Fusionsverarbeitungseinheit 7, entfernt Fusionsobjektinformationen, die als verdächtige fehlerhafte Erkennung erkannt wurden, und gibt die verbleibenden Fusionsobjektinformationen, die nicht entfernt wurden, an eine Objektauswahleinheit 9 aus. Ein Bestimmungsverfahren, ob Fusionsobjektinformationen in der Radarfehlererkennung-Entfernungseinheit 8 entfernt werden sollen oder nicht, wird später im Detail beschrieben.
-
Die Objektauswahleinheit 9 führt eine Objektauswahlverarbeitung an den Fusionsobjektinformationen durch, die von der Radarfehlererkennung-Entfernungseinheit 8 erfasst werden, und gibt ein Auswahlergebnis als ein endgültiges Objekterkennungsergebnis aus. Als Objektauswahlverarbeitung kann beispielsweise ein Verfahren zum Entfernen von Fusionsobjektinformationen verwendet werden, das einen Parameter umfasst, der außerhalb eines normalen Wertebereichs liegt. Das heißt, es kann eine ähnliche Verarbeitung wie bei der Radarfilterverarbeitungseinheit 5 oder der Kamerafilter-Verarbeitungseinheit 6 verwendet werden. Für die Fusionsobjektinformationen kann eine Priorität unter Verwendung einer vorbestimmten Referenz berechnet werden, und eine vorbestimmte Anzahl von Fusionsobjektinformationen kann in der Reihenfolge der höchsten Priorität ausgewählt und ausgegeben werden. Genauer gesagt, in einem Fall, in dem es tatsächlich N Fusionsobjekte gibt, aber die Anzahl von ihnen aufgrund von Bedingungen wie beispielsweise einer Verarbeitungslast auf M (< N) reduziert werden muss, wenn der Steuerverarbeitungsblock in der nachfolgenden Stufe erfordert, dass ein Objekt in einem kurzen Abstand bevorzugt ausgegeben wird, werden die Prioritäten für die N Fusionsobjektinformationen in der Reihenfolge ab dem Objekt in einem kürzeren Abstand festgelegt, und M Fusionsobjektinformationen mit höheren Prioritäten werden ausgewählt und ausgegeben. Wenn beispielsweise ein Objekt, das sich auf derselben Fahrspur wie das Fahrzeug 101 befindet, vorrangig behandelt werden soll, können die Prioritäten anhand von Parametern wie einer Querposition oder Fahrspurinformationen sowie einer Entfernung festgelegt werden. Für die Objektauswahl kann jedes der oben genannten Verfahren verwendet oder eine Vielzahl dieser Verfahren kombiniert werden. Die Verarbeitung in der Objektauswahleinheit 9 kann übersprungen werden, wenn dies nicht erforderlich ist, und die Ausgabe der Radarfehlererkennung-Entfernungseinheit 8 kann als endgültiges Ergebnis der Objekterkennung ausgegeben werden.
-
5 ist ein Flussdiagramm, das den Betrieb der Objekterkennungsvorrichtung 100 gemäß der ersten Ausführungsform illustriert. Schritt S01 ist ein Radarfehlererkennung-Bestimmungsschritt zum Durchführen einer Radarfehlererkennung-Bestimmungsverarbeitung, Schritt S02 ist ein Radarfilterverarbeitungsschritt zum Durchführen einer Radarfilterverarbeitung, Schritt S03 ist ein Kamerafilterverarbeitungsschritt zum Durchführen einer Kamerafilterverarbeitung, Schritt S04 ist ein Fusionsverarbeitungsschritt zum Durchführen einer Fusionsverarbeitung, Schritt S05, Schritt S06 und Schritt S07 sind ein Radarfehlererkennung-Entfernungsschritt zum Durchführen einer Radarfehlererkennung-Entfernung, und Schritt S08 ist ein Objektauswahlschritt zum Auswählen von Objekten.
-
In Schritt S01 bestimmt die Radarfehlererkennungs-Bestimmungseinheit 4, ob jede Radarerkennungsobjektinformation, die von der ersten Erkennungsvorrichtung 1 erfasst wird, als fehlerhafte Erkennung vermutet wird oder nicht. Die Radarfehlererkennung-Bestimmungseinheit 4 setzt das Radarfehlererkennung-Verdachtsflag für die Radarerkennungsobjektinformationen, die als verdächtig erkannt wurden, als wahr, setzt das Radarfehlererkennung-Verdachtsflag für die Radarerkennungsobjektinformationen, die nicht als verdächtig erkannt wurden, als falsch, und gibt dann die Radarerkennungsobjektinformationen an die Radarfilterverarbeitungseinheit 5 aus. Dann fährt das Verfahren mit Schritt S02 fort. Die Bestimmungsmethode für fehlerhafte Erkennung wird später im Detail beschrieben.
-
In Schritt S02 führt die Radarfehlererkennung-Bestimmungseinheit 5 die Radarfilterverarbeitung an jeder Radarerkennungsobjektinformation durch, die von der Radarfehlererkennung-Bestimmungseinheit 4 erfasst wurde, und gibt die Radarerkennungsobjektinformation nach der Verarbeitung an die Fusionsverarbeitungseinheit 7 aus. Dann fährt das Verfahren mit Schritt S03 fort. In Schritt S03 führt die Kamerafilter-Verarbeitungseinheit 6 die Kamerafilter-Verarbeitung an den von der zweiten Erkennungsvorrichtung 2 erfassten zweiten Sensor-Erkennungsobjektinformationen durch und gibt die zweiten Sensor-Erkennungsobjektinformationen nach der Verarbeitung an die Fusionsverarbeitungseinheit 7 aus. Dann fährt das Verfahren mit Schritt S04 fort.
-
In Schritt S04 führt die Fusionsverarbeitungseinheit 7 die Fusionsverarbeitung auf der Grundlage der von der Radarfilter-Verarbeitungseinheit 5 erfassten Fusionsobjektinformationen und der von der Kamerafilter-Verarbeitungseinheit 6 erfassten Fusionsobjektinformationen des zweiten Sensors durch und gibt bezüglich jedes Fusionsobjekts, das als Fusionsverarbeitungsergebnis erhalten wird, Fusionsobjektinformationen einschließlich einer Fusionsobjektposition, die eine Positionsinformation über das Fusionsobjekt ist, an die Radar-Entfernungseinheit für fehlerhafte Erkennung 8 aus. Dann fährt das Verfahren mit Schritt S05 fort. Schritt S02 und Schritt S03 können übersprungen werden. In einem Fall, in dem Schritt S02 und Schritt S03 übersprungen werden, führt die Fusionsverarbeitungseinheit 7 die Fusionsverarbeitung auf der Grundlage der von der Radar-Fehlererkennungs-Bestimmungseinheit 4 erfassten RadarErkennungsobjektinformation und der von der zweiten Erkennungsvorrichtung 2 erfassten zweiten Sensor-Erkennungsobjektinformation durch. Bei der Fusionsverarbeitung wird beispielsweise auch die Verarbeitung der Übertragung des Wertes des Radarfehlererkennung-Verdachtsflags von der Radarerkennungsobjektinformation zu der Fusionsobjektinformation durchgeführt.
-
In Schritt S05 bestätigt die Radarfehlererkennung-Entfernungseinheit 8 den Wert des Radarfehlererkennung-Verdachtsflags für jede Fusionsobjektinformation, die von der Fusionsverarbeitungseinheit 7 erfasst wurde. Wenn das Radarfehlererkennung-Verdachtsflag wahr ist, fährt der Prozess mit Schritt S06 fort, und wenn das Radarfehlererkennung-Verdachtsflag falsch ist, fährt der Prozess mit Schritt S08 fort. In Schritt S06 bestätigt die Radarfehlererkennung-Entfernungseinheit 8 den Wert des Einzelsensor-Erkennungsflags für jede Fusionsobjektinformation. Wenn der Wert des Einzelsensor-Erkennungsflags wahr ist, fährt der Prozess mit Schritt S07 fort, und wenn der Wert des Einzelsensor-Erkennungsflags falsch ist, fährt der Prozess mit Schritt S08 fort. In Schritt S07 entfernt die Radarfehlererkennungs-Entfernungseinheit 8 die Fusionsobjektinformationen, und dann fährt der Prozess mit Schritt S08 fort. Durch die Verarbeitung in den Schritten S05 bis S07 entfernt die Radarfehlererkennung-Entfernungseinheit 8 die Fusionsobjektinformationen, für die das Radarfehlererkennung-Verdachtsflag wahr ist und das Einzelsensor-Erkennungsflag wahr ist, und gibt die Fusionsobjektinformationen, für die nur eines von Radarfehlererkennung-Verdachtsflag und Einzelsensor-Erkennungsflag wahr ist oder beide, das Radarfehlererkennung-Verdachtsflag und das Einzelsensor-Erkennungsflag, falsch sind, an die Objektauswahleinheit 9 aus. Das heißt, wenn das Fusionsobjekt ein nur vom Radar 11 erkanntes Objekt ist und die Erkennung durch das Radar 11 als fehlerhafte Erkennung vermutet wird, entfernt die Radarfehlererkennung-Entfernungseinheit 8 die Fusionsobjektinformation.
-
In Schritt S08 führt die Objektauswahleinheit 9 die Objektauswahlverarbeitung an jeder Fusionsobjektinformation durch, die von der Radarfehlererkennung-Entfernungseinheit 8 erfasst wurde, und gibt das Auswahlergebnis als endgültiges Objekterkennungsergebnis aus. Schritt S08 kann übersprungen werden. In einem Fall, in dem Schritt S08 übersprungen wird, wird die Ausgabe der Radarfehlererkennung-Entfernungseinheit 8 als ein endgültiges Objekterkennungsergebnis ausgegeben.
-
6 ist ein Flussdiagramm, das den Inhalt der Radarfehlererkennung-Bestimmungs-Verarbeitung in der Radarfehlererkennung-Bestimmungseinheit 4 in der ersten Ausführungsform veranschaulicht, und zeigt die Details der Radarfehlererkennung-Bestimmungs-Verarbeitung, die in Schritt S01 in 5 dargestellt ist. Schritt S11 ist ein erster Bestimmungsschritt für fehlerhafte Erkennung, Schritt S12 und Schritt S13 sind ein erster Einstellschritt für ein fehlerhaftes Erkennungskennzeichen, Schritt S14 ist ein zweiter Bestimmungsschritt für fehlerhafte Erkennung, Schritt S15 und Schritt S16 sind ein zweiter Einstellschritt für ein fehlerhaftes Erkennungskennzeichen, Schritt S17 ist ein erster Bestätigungsschritt für ein fehlerhaftes Erkennungskennzeichen, Schritt S18 ist ein zweiter Bestätigungsschritt für ein fehlerhaftes Erkennungskennzeichen, und Schritt S19 und Schritt S20 sind Einstellschritte für ein Radarfehlererkennung-Verdachtsflag.
-
In Schritt S11 führt die Radarfehlererkennungs-Bestimmungseinheit 4 eine erste fehlerhafte Erkennung durch, um zu bestimmen, ob der Inhalt jeder Radarerkennungsobjektinformation, die von der ersten Erkennungsvorrichtung 1 erfasst wird, eine Bedingung für eine erste fehlerhafte Erkennung erfüllt oder nicht. Die Bestimmung der ersten fehlerhaften Erkennung wird durchgeführt, indem bestätigt wird, ob der Inhalt der Radarerkennungsobjektinformationen die Bedingung der ersten fehlerhaften Erkennung erfüllt oder nicht. Wenn der Inhalt der Radarerkennungsobjektinformation die Bedingung der ersten fehlerhaften Erkennung erfüllt, fährt das Verfahren mit Schritt S12 fort, und wenn der Inhalt der Radarerkennungsobjektinformation die Bedingung der ersten fehlerhaften Erkennung nicht erfüllt, fährt das Verfahren mit Schritt S13 fort.
-
Wie oben beschrieben, kann ein Geräusch 105 mit einem Verhalten, das von einer seitlichen Seite auf die Fahrzeugmitte zu rauscht, wie in 3 gezeigt, im Ausgang der ersten Erkennungsvorrichtung 1 erscheinen. Daher wird die Radarerkennungsobjektinformation, die ein Verhalten angibt, wie es durch das Geräusch 105 in 3 gezeigt wird, als Folge einer ersten fehlerhaften Erkennung bestimmt. Bei der Bestimmung der ersten fehlerhaften Erkennung werden Informationen verwendet, die das Verhalten des Radarerkennungsobjekts angeben und in den Radarerkennungsobjektinformationen umfasst sind. Hier wird die Information, die das Verhalten des Radarerkennungsobjekts angibt, als Zeitreiheninformation über mindestens eine der folgenden Informationen dargestellt: die Radarerkennungsposition (Längskoordinate und Querkoordinate), die eine Radarerkennungsposition ist, die Bewegungsgeschwindigkeit (Längsgeschwindigkeit und Quergeschwindigkeit) des Radarerkennungsobjekts und die Bewegungsbeschleunigung (Längsbeschleunigung und Querbeschleunigung) des Radarerkennungsobjekts. Stattdessen können auch Informationen berechnet und verwendet werden, die den oben genannten Informationen entsprechen. Beispielsweise kann anstelle der Bewegungsgeschwindigkeit des erkannten Radarerkennungsobjekts ein Ergebnis verwendet werden, das durch die Durchführung einer Differenzberechnung der Radarerkennungsposition erzielt wird. Genauer gesagt sind beispielsweise „Werteübergang durch die aktuelle Radarerkennungsposition, die Radarerkennungsposition vor einem Verarbeitungszyklus und die Radarerkennungsposition vor zwei Verarbeitungszyklen“ oder „Werteübergang durch die aktuelle Quergeschwindigkeit, die Quergeschwindigkeit vor einem Verarbeitungszyklus und die Quergeschwindigkeit vor zwei Verarbeitungszyklen“ Informationen, die das Verhalten des Radarerkennungsobjekts angeben. Bei der Bestimmung der ersten fehlerhaften Erkennung wird ermittelt, ob die Information, die das Verhalten des erkannten Radarerkennungsobjekts angibt, ein Verhalten ist, das darin besteht, dass es von einer Seite her auf die Fahrzeugmittelachse (Querposition = 0) zueilt oder nicht. Insbesondere, beispielsweise, wenn der Änderungsbetrag der Radarerkennungsposition, wenn sich das Radarerkennungsobjekt in Richtung der Mitte in der Links-Rechts-Richtung des Radarerkennungsbereichs 102 bewegt, der der Erkennungsbereich des Radars 11 ist, während einer vorbestimmten ersten Beobachtungsperiode (beispielsweise einer Periode von drei Verarbeitungszyklen) aufeinanderfolgend größer als ein vorbestimmter erster Änderungsbetrag-Schwellenwert war, bestimmt die Radar-Fehlererkennungs-Bestimmungseinheit 4, dass die Radarerkennungsobjektinformation auf eine erste fehlerhafte Erkennung zurückzuführen ist. Das heißt, wenn der Wert der Geschwindigkeit, wenn sich das Radarerkennungsobjekt in Richtung des Zentrums in der Links-Rechts-Richtung des Radarerkennungsbereichs 102 bewegt, während der vorbestimmten ersten Beobachtungsperiode aufeinanderfolgend größer als der vorbestimmte erste Änderungsbetrag-Schwellenwert war, bestimmt die Radarfehlererkennung-Bestimmungseinheit 4, dass die Radarerkennungsobjektinformation auf eine erste fehlerhafte Erkennung zurückzuführen ist. In einem Fall, in dem die Radarerkennungsobjektinformation Informationen über eine erste Quergeschwindigkeit umfasst, die die Bewegungsgeschwindigkeit in der Querrichtung des Radarerkennungsobjekts ist, kann die Radarfehlererkennungs-Bestimmungseinheit 4, wenn der Absolutwert der ersten Quergeschwindigkeit während der ersten Beobachtungsperiode aufeinanderfolgend größer als ein vorbestimmter erster Quergeschwindigkeit-Schwellenwert gewesen ist, bestimmen, dass die Radarerkennungsobjektinformation auf eine erste fehlerhafte Erkennung zurückzuführen ist.
-
Hinsichtlich der Bestimmung für die erste fehlerhafte Erkennung kann der Bestimmungsbereich, anstatt die Bestimmung für den gesamten Fusionsbereich 104 durchzuführen, so begrenzt werden, dass beispielsweise die Bestimmung nur für ein Radarerkennungsobjekt durchgeführt wird, das sich in einer kurzen Entfernung befindet. Darüber hinaus kann beispielsweise jeder Schwellenwert in Abhängigkeit von der Position, der Geschwindigkeit oder der Beschleunigung des erkannten Radarerkennungsobjekts verändert werden. Hinsichtlich der Position, der Geschwindigkeit oder der Beschleunigung des erkannten Radarerkennungsobjekts kann beispielsweise ein Ergebnis verwendet werden, das durch eine Wegkoordinatenumrechnung in Abhängigkeit von der Neigung des Fahrzeugs 101 unter Verwendung der von der ersten Erkennungsvorrichtung 1 erfassten Radarerkennungsobjektinformationen und der vom FahrzeugInformationssensor 3 erfassten Fahrzeuginformationen erzielt wird. In ähnlicher Weise kann in Bezug auf die Geschwindigkeit des Radarerkennungsobjekts anstelle der Bewegungsgeschwindigkeit (Geschwindigkeit relativ zum Fahrzeug 101) des Radarerkennungsobjekts in der Radarerkennungsobjektinformation ein Wert verwendet werden, der durch Umwandlung der Bewegungsgeschwindigkeit des Radarerkennungsobjekts in eine Geschwindigkeit relativ zum Boden unter Verwendung der Geschwindigkeit des Fahrzeugs 101 auf der Grundlage der von der ersten Vorrichtung 1 erfassten Radarerkennungsobjektinformation und der vom Board-Fahrzeugsensor 3 erfassten Fahrzeuginformation erhalten wird. Darüber hinaus kann beispielsweise für das Radarerkennungsobjekt, das einmal aufgrund einer ersten fehlerhaften Erkennung erkannt wurde, das Bestimmungsergebnis als erste fehlerhafte Erkennung für dasselbe Objekt während bestimmter Zyklen beibehalten werden oder bis das Radarerkennungsobjekt, das aufgrund einer ersten fehlerhaften Erkennung erkannt wurde, nicht mehr erkannt wird.
-
In Schritt S12 setzt die Radarfehlererkennungs-Bestimmungseinheit 4 den Wert eines Kennzeichens für eine erste fehlerhafte Erkennung für die Radarerkennungsobjektinformation als wahr, und dann fährt das Verfahren mit Schritt S14 fort. In Schritt S13 setzt die Radarfehlererkennung-Bestimmungseinheit 4 den Wert des ersten Kennzeichens für fehlerhafte Erkennung für die Radarerkennungsobjektinformation als falsch, und dann fährt das Verfahren mit Schritt S14 fort.
-
In Schritt S14 wird die Bestimmung der zweiten fehlerhaften Erkennung durchgeführt, um zu bestimmen, ob der Inhalt jeder Radarerkennungsobjektinformation, die von der ersten Erkennungsvorrichtung 1 erfasst wird, eine Bedingung der zweiten fehlerhaften Erkennung erfüllt oder nicht. Die Bestimmung der zweiten fehlerhaften Erkennung wird durchgeführt, indem bestätigt wird, ob der Inhalt der Radarerkennungsobjektinformationen die Bedingung der zweiten fehlerhaften Erkennung erfüllt oder nicht. Wenn der Inhalt der Radarerkennungsobjektinformation die Bedingung der zweiten fehlerhaften Erkennung erfüllt, fährt das Verfahren mit Schritt S15 fort, und wenn der Inhalt der Radarerkennungsobjektinformation die Bedingung der zweiten fehlerhaften Erkennung nicht erfüllt, fährt das Verfahren mit Schritt S16 fort. Wie oben beschrieben, kann ein Rauschen 106 mit einer großen Größe in einer kurzen Entfernung erscheinen, wie in 4 gezeigt, in der Ausgabe der ersten Erkennungsvorrichtung 1. Daher wird die Radarerkennungsobjektinformation, die einen Zustand angibt, wie er durch das Rauschen 106 in 4 gezeigt wird, als Folge einer zweiten fehlerhaften Erkennung bestimmt. Bei der Bestimmung der zweiten fehlerhaften Erkennung werden Informationen verwendet, die die Eigenschaft des erkannten Radarerkennungsobjekts angeben, die in den Radarerkennungsobjektinformationen umfasst sind. Die Informationen, die die Eigenschaft des erkannten Radarerkennungsobjekts angeben, werden hier als aktuelle Informationen oder Zeitreiheninformationen über die Reflektionsintensität (oder RCS), die Größe (Breite, Länge und Höhe), den Typ, die Radarerkennungsposition (Längs- und Querkoordinate) und die Zuverlässigkeit des erkannten Radarerkennungsobjekts dargestellt. Insbesondere, beispielsweise, wenn die Radarerkennungsobjektinformationen Informationen über die Größe des Radarerkennungsobjekts und Informationen über die Reflektionsintensität des Radarerkennungsobjekts umfassen, die Größe des Radarerkennungsobjekts größer ist als ein vorbestimmter Größenschwellenwert und die Reflektionsintensität des Radarerkennungsobjekts kleiner ist als ein vorbestimmter Reflektionsintensität-Schwellenwert, bestimmt die Radarfehlererkennung-Bestimmungseinheit 4, dass die Radarerkennungsobjektinformationen auf eine zweite fehlerhafte Erkennung zurückzuführen sind. Darüber hinaus bestimmt beispielsweise in einem Fall, in dem die Informationen über das vom Radar erkannte Objekt Informationen über die Reflexionsintensität für das vom Radar erkannte Objekt enthalten, ein Abstand von dem Radar 11 zu der Radarerkennungsposition des vom Radar erkannten Objekts kleiner als ein vorbestimmter zweiter Abstandsschwellenwert ist (beispielsweise, wenn sich die Radarerkennungsposition in einem vordefinierten Zielbereich befindet, in dem das Fahrzeug 101 eine Steuerung ausführt), und die Reflexionsintensität für das vom Radar erkannte Objekt kleiner als ein vorbestimmter Reflexionsintensitätsschwellenwert ist, die Radar-Fehlererkennungs-Bestimmungseinheit 4, dass die Informationen über das vom Radar erkannte Objekt auf eine zweite fehlerhafte Erkennung zurückzuführen sind. Darüber hinaus bestimmt beispielsweise in einem Fall, in dem die Radarerkennungsobjektinformation Informationen über die Zuverlässigkeit für das Radarerkennungsobjekt und Informationen über die Reflektionsintensität für das Radarerkennungsobjekt umfasst, die Zuverlässigkeit für das Radarerkennungsobjekt kleiner als ein vorbestimmter Zuverlässigkeitsschwellenwert ist, und die Reflektionsintensität für das Radarerkennungsobjekt kleiner als ein vorbestimmter Reflektionsintensität-Schwellenwert ist, die Radarfehlererkennung-Bestimmungseinheit 4, dass die Radarerkennungsobjektinformation auf eine zweite fehlerhafte Erkennung zurückzuführen ist.
-
Hinsichtlich der Bestimmung für die zweite fehlerhafte Erkennung kann der Erkennungsbereich, anstatt die Bestimmung für den gesamten Fusionsbereich 104 durchzuführen, derart eingeschränkt werden, dass beispielsweise die Bestimmung nur für ein Radarerkennungsobjekt durchgeführt wird, das sich in einer kurzen Entfernung befindet. Darüber hinaus kann beispielsweise in einem Fall, in dem die von der ersten Erkennungsvorrichtung 1 ausgegebene Radarerkennungsobjektinformation Informationen über den Typ umfasst, die Bestimmung unter Verwendung von Informationen über den Typ anstelle von Informationen über die Größe des Radarerkennungsobjekts durchgeführt werden. Insbesondere kann, anstatt zu bestätigen, dass die Größe des erkannten Radarerkennungsobjekts größer als ein vorbestimmter Größenschwellenwert ist, wenn der Typ des erkannten Radarerkennungsobjekts ein Typ ist, der einem großen Objekt wie beispielsweise einem Fahrzeug, einem Lastwagen oder einem breiten Objekt zugehört, bestimmt werden, dass eine Bedingung für die Größe des erkannten Radarerkennungsobjekts erfüllt ist. Darüber hinaus kann beispielsweise unter Verwendung von Zeitreiheninformationen über Informationen, die die Eigenschaft des Radarerkennungsobjekts angeben, die Bestimmungsbedingung gelockert werden, wenn das Radarerkennungsobjekt plötzlich auftaucht, plötzlich in einer kurzen Entfernung auftaucht oder plötzlich nahe der Front auftaucht, so dass die Radarerkennungsobjektinformationen wahrscheinlich als Folge einer zweiten fehlerhaften Erkennung bestimmt werden. Der Grund dafür ist der folgende. Wenn es sich bei dem Radarerkennungsobjekt um ein tatsächlich existierendes Objekt handelt, sollte das Objekt nicht plötzlich auftauchen, und es ist allgemein üblich, dass ein solches Objekt zunächst in großer Entfernung oder in einer Querposition nahe dem Sichtwinkel des Radars erkannt wird und sich dann in eine nahe oder vordere Position bewegt. Daher ist es sehr wahrscheinlich, dass ein plötzlich auftauchendes Objekt (insbesondere ein Objekt in geringer Entfernung oder ein Objekt mit großen Abmessungen) auf eine zweite fehlerhafte Erkennung zurückzuführen ist. Hinsichtlich der Position des Radarerkennungsobjekts kann beispielsweise ein Ergebnis verwendet werden, das durch die Durchführung einer Wegkoordinatenumrechnung in Abhängigkeit von der Neigung des Fahrzeugs 101 unter Verwendung der von der ersten Erkennungsvorrichtung 1 erfassten Radarerkennungsobjektinformationen und der vom FahrzeugInformationssensor 3 erfassten Fahrzeuginformationen erzielt wird. Darüber hinaus kann beispielsweise für das Radarerkennungsobjekt, das einmal aufgrund einer zweiten fehlerhaften Erkennung erkannt wurde, das Bestimmungsergebnis als zweite fehlerhafte Erkennung für dasselbe Objekt während bestimmter Zyklen beibehalten werden oder bis das Radarerkennungsobjekt, das aufgrund einer zweiten fehlerhaften Erkennung erkannt wurde, nicht mehr erkannt wird.
-
In Schritt S15 setzt die Radarfehlererkennungs-Bestimmungseinheit 4 den Wert eines Kennzeichens für eine zweite fehlerhafte Erkennung für die Radarerkennungsobjektinformation als wahr, und dann fährt das Verfahren mit Schritt S17 fort. In Schritt S16 setzt die Radarfehlererkennungs-Bestimmungseinheit 4 den Wert des zweiten Kennzeichens für fehlerhafte Erkennung für die Radarerkennungsobjektinformation als falsch, und dann fährt der Prozess mit Schritt S17 fort.
-
In Schritt S17 bestätigt die Radarfehlererkennung-Bestimmungseinheit 4, ob das erste Kennzeichen für eine fehlerhafte Erkennung für jede Radarerkennungsobjektinformation wahr ist oder nicht. Wenn das erste Kennzeichen für fehlerhafte Erkennung wahr ist, fährt der Prozess mit Schritt S19 fort, und wenn das erste Kennzeichen für fehlerhafte Erkennung nicht wahr ist, d.h., das erste Kennzeichen für fehlerhafte Erkennung ist falsch, fährt der Prozess mit Schritt S18 fort. In Schritt S18 bestätigt die Radarfehlererkennung-Bestimmungseinheit 4, ob das zweite Kennzeichen für fehlerhafte Erkennung für jede von Radarerkennungsobjektinformationen wahr ist oder nicht. Wenn das zweite Kennzeichen für eine fehlerhafte Erkennung wahr ist, fährt der Prozess mit Schritt S19 fort, und wenn das zweite Kennzeichen für eine fehlerhafte Erkennung nicht wahr ist, d.h. das zweite Kennzeichen für eine fehlerhafte Erkennung falsch ist, fährt der Prozess mit Schritt S20 fort. In Schritt S19 setzt die Radarfehlererkennung-Bestimmungseinheit 4 den Wert des Radarfehlererkennung-Verdachtsflags für die Radarerkennungsobjektinformation als wahr, wodurch die Radarfehlererkennung-Bestimmungsverarbeitung beendet wird. In Schritt S20 setzt die Radarfehlererkennung-Bestimmungseinheit 4 den Wert des Radarfehlererkennung-Verdachtsflags für die Radarerkennungsobjektinformation als falsch, wodurch die Radarfehlererkennung-Bestimmungsverarbeitung beendet wird.
-
Die Reihenfolge zwischen der für die erste fehlerhafte Erkennung relevanten Verarbeitung, die in den Schritten S11 bis S13 durchgeführt wird, und der für die zweite fehlerhafte Erkennung relevanten Verarbeitung, die in den Schritten S14 bis S16 durchgeführt wird, kann umgekehrt werden. Es kann auch nur eine der für die erste fehlerhafte Erkennung relevanten Verarbeitungen und die für die zweite fehlerhafte Erkennung relevanten Verarbeitungen durchgeführt werden. Wird nur eine der für die erste fehlerhafte Erkennung relevanten Verarbeitungen und die für die zweite fehlerhafte Erkennung relevante Verarbeitung durchgeführt, wird der Wert des durch die durchgeführte Verarbeitung erhaltenen Kennzeichens direkt als der Wert des Radarfehlererkennung-Verdachtsflags verwendet.
-
Die Radar-Fehlererkennungs-Bestimmungseinheit 4 kann als Fahrzeuginformationen Informationen über die Geschwindigkeit, die Gierrate, den Azimut oder die Position des Fahrzeugs 101 von dem Fahrzeuginformationssensor 3 erfassen und bei der Bestimmung für die erste fehlerhafte Erkennung und bei der Bestimmung für die zweite fehlerhafte Erkennung mindestens eine der folgenden Informationen ändern: den ersten Beobachtungszeitraum, den ersten Änderungsbetrags-Schwellenwert, den ersten Quergeschwindigkeits-Schwellenwert, den Größen-Schwellenwert, den Reflexionsintensitäts-Schwellenwert, den zweiten Abstands-Schwellenwert und den Zuverlässigkeits-Schwellenwert, und zwar in Übereinstimmung mit den Fahrzeuginformationen. Wenn das Fahrzeug 101 mit einer hohen Geschwindigkeit fährt, ist die Wahrscheinlichkeit, dass ein tatsächlich vorhandenes Objekt (das kein Geräusch ist) mit einer hohen Relativgeschwindigkeit auftaucht oder ein tatsächlich vorhandenes Objekt plötzlich vor oder in der Nähe des Fahrzeugs 101 auftaucht, höher als wenn das Fahrzeug 101 mit einer niedrigen Geschwindigkeit fährt. Darüber hinaus wird mit zunehmender Geschwindigkeit des Fahrzeugs 101 für einen Insassen das Risiko, dass die Bremssteuerung oder - benachrichtigung in Bezug auf ein tatsächlich vorhandenes Objekt nicht durchgeführt wird, größer als das Risiko, dass das Geräusch nicht beseitigt werden kann und eine fehlerhafte Bremssteuerung oder -benachrichtigung durchgeführt wird. Daher kann die Radar-Fehlererkennungs-Bestimmungseinheit 4 Geschwindigkeitsinformationen des Fahrzeugs 101 von dem Board-Fahrzeugsensor 3 erfassen und mindestens eine der folgenden Informationen ändern: die erste Beobachtungsperiode, den ersten Änderungsbetrags-Schwellenwert, den ersten Quergeschwindigkeits-Schwellenwert, den Größen-Schwellenwert, den Reflexionsintensitäts-Schwellenwert, den zweiten Abstands-Schwellenwert und den Zuverlässigkeits-Schwellenwert, so dass, wenn die Geschwindigkeit des Fahrzeugs 101 höher wird, es weniger wahrscheinlich ist, dass die von dem Radar erkannten Objektinformationen aufgrund einer fehlerhaften Erkennung bestimmt werden (d.h., Fusionsobjektinformation weniger wahrscheinlich entfernt wird), wodurch es möglich ist, eine Bestimmung mit einem geringeren Risiko für einen Insassen durchzuführen.
-
Die Radarfehlererkennungs-Bestimmungseinheit 4 kann Außenumgebungsinformationen erfassen, die mindestens eines der folgenden Elemente umfassen: das Wetter, eine Zeit, eine Temperatur, einen Straßenoberflächenzustand und eine Peripheriestruktur-Platzierungsbedingung (Leitplankenplatzierungsbedingung, Baumplatzierungsintervall usw.), und mindestens eines der folgenden Elemente ändern: die erste Beobachtungsperiode, den ersten Änderungsbetrag-Schwellenwert, den ersten Quergeschwindigkeit-Schwellenwert , den Größenschwellenwert, den Reflexionsintensitätsschwellenwert, den zweiten Abstandschwellenwert und den Zuverlässigkeitsschwellenwert in Übereinstimmung mit den Außenumgebungsinformationen, bei der Bestimmung für die erste fehlerhafte Erkennung und bei der Bestimmung für die zweite fehlerhafte Erkennung. Beispielsweise ist bei Nacht die Erkennungsleistung der Kamera 12 stark reduziert. Wenn das Radarfehlererkennung-Verdachtsflag auf „wahr“ gesetzt wird, werden die entsprechenden Fusionsobjektinformationen daher mit hoher Wahrscheinlichkeit entfernt. Während der Nachtzeit ist für einen Insassen das Risiko, dass eine Bremskontrolle oder Benachrichtigung in Bezug auf ein tatsächlich vorhandenes Objekt nicht durchgeführt wird, höher als das Risiko, dass Rauschen nicht entfernt werden kann und eine fehlerhafte Bremskontrolle oder Benachrichtigung durchgeführt wird. Daher kann die Radar-Fehlererkennungs-Bestimmungseinheit 4 Zeitinformationen erfassen und während der Nachtzeit mindestens eine der folgenden Informationen ändern: die erste Beobachtungsperiode, den ersten Änderungsbetrag-Schwellenwert, den ersten Quergeschwindigkeits-Schwellenwert, den Größen-Schwellenwert, den Reflexionsintensitäts-Schwellenwert, den zweiten Entfernungs-Schwellenwert und den Zuverlässigkeits-Schwellenwert, so dass es weniger wahrscheinlich ist, dass die Radarerkennungsobjektinformation aufgrund einer fehlerhaften Erkennung bestimmt wird (d.h., es ist weniger wahrscheinlich, dass Fusionsobjektinformationen entfernt werden). Bei regnerischem oder verschneitem Wetter ist die Erkennungsleistung der Kamera 12 im Vergleich zu einem normalen Fall reduziert. Daher kann die Radar-Fehlererkennungs-Bestimmungseinheit 4 Wetterinformationen erfassen und bei regnerischem oder verschneitem Wetter mindestens eine der folgenden Informationen ändern: die erste Beobachtungsperiode, den ersten Änderungsbetrag-Schwellenwert, den ersten Quergeschwindigkeits-Schwellenwert, den Größen-Schwellenwert, den Reflexionsintensitäts-Schwellenwert, den zweiten Entfernungs-Schwellenwert und den Zuverlässigkeits-Schwellenwert, so dass es weniger wahrscheinlich ist, dass die vom Radar erkannten Objektinformationen aufgrund einer fehlerhaften Erkennung bestimmt werden (d.h. es ist weniger wahrscheinlich, dass Fusionsobjektinformationen entfernt werden). In einem Fall, in dem die Temperatur niedrig und die Fahrbahnoberfläche gefroren ist, wird der Bremsweg bei der Durchführung der Brems- oder Verzögerungssteuerung länger, auch wenn die Sensorerkennungsleistung derjenigen im Normalfall entspricht, und es ist daher notwendig, die Steuerung auch für ein Hindernis in einem längeren Abstand durchzuführen. Daher kann die Radarfehlererkennung-Bestimmungseinheit 4 Informationen über die Temperatur erfassen und, wenn die Temperatur niedrig ist, jeden Schwellenwert so ändern, dass sogar ein Objekt in großer Entfernung wahrscheinlich als fehlerhaft erkannt wird. Beispielsweise kann die Radarfehlererkennungs-Bestimmungseinheit 4 Temperaturinformationen erfassen, und wenn die Temperatur höher als ein vorbestimmter Temperaturschwellenwert ist, kann die Radarfehlererkennungs-Bestimmungseinheit 4 eine Bestimmung für eine erste fehlerhafte Erkennung oder eine Bestimmung für eine zweite fehlerhafte Erkennung in Bezug auf nur das Radarerkennungsobjekt durchführen, das sich in einem kurzen Abstand im Fusionsbereich 104 befindet. Andererseits kann die Radarfehlererkennung-Bestimmungseinheit 4, wenn die Temperatur nicht höher als die Temperaturschwelle ist, die Bestimmung für die erste fehlerhafte Erkennung und die Bestimmung für die zweite fehlerhafte Erkennung in Bezug auf das Radarerkennungsobjekt, das in einem größeren Bereich vorhanden ist, durchführen, so dass sogar ein Objekt in einer großen Entfernung wahrscheinlich aufgrund einer fehlerhaften Erkennung bestimmt wird. Darüber hinaus werden beispielsweise in einem Fall, in dem Leitplanken oder Bäume in der Nähe der Fahrstraße platziert sind, bei einem kurzen Abstand zwischen den Leitplanken oder der Baumanordnung eine Vielzahl von Leitplanken oder Bäumen durch die Verarbeitung in der Radar-ECU zu einem Objekt zusammengefasst, so dass ein Objekt mit einer großen Größe wahrscheinlich erscheint. Im Allgemeinen befinden sich Leitplanken oder Bäume nicht auf der Fahrstraße und sind keine Kontroll- oder Meldeziele. Daher sollten solche Objekte als Folge einer fehlerhaften Erkennung durch das Radargerät entfernt werden (obwohl es sich um tatsächlich vorhandene Objekte handelt). Daher kann in einem Fall, in dem die Information, dass es eine solche Struktur gibt, beispielsweise in diesem Bereich erfasst wird, jeder Schwellenwert, wie beispielsweise der Größenschwellenwert, so geändert werden, dass die durch Clustering erzeugte Struktur bei der Bestimmung für die zweite fehlerhafte Erkennung wahrscheinlich als auf eine fehlerhafte Erkennung zurückzuführen bestimmt wird.
-
Die Radar-Fehlererkennungs-Bestimmungseinheit 4 kann Karteninformationen erfassen und Positionsinformationen von dem Board-Fahrzeugsensor 3 erfassen und mindestens eine der folgenden Informationen ändern: die erste Beobachtungsperiode, den ersten Änderungsbetrags-Schwellenwert, den ersten Quergeschwindigkeits-Schwellenwert, den Größen-Schwellenwert, den Reflexionsintensitäts-Schwellenwert, den zweiten Abstands-Schwellenwert und den Zuverlässigkeits-Schwellenwert in Übereinstimmung mit den Karteninformationen und den Positionsinformationen, bei der Bestimmung für die erste fehlerhafte Erkennung und der Bestimmung für die zweite fehlerhafte Erkennung. Bei den Karteninformationen handelt es sich um Informationen, die im Voraus erfasst oder aufgezeichnet wurden, und um Informationen, die eine allgemeine Karte eines Gebiets darstellen, in dem das Fahrzeug 101 fährt, oder um eine hochauflösende Karte, die Informationen wie eine Peripheriestruktur-Anordnungsbedingung (Leitplankenanordnungsbedingung, Baumanordnungsabstand usw.) umfasst. Beispielsweise kann die Radarerkennungsbestimmungseinheit 4 in einem Fall, in dem herausgefunden wurde, dass eine fehlerhafte Erkennung durch Radar wahrscheinlich in einem bestimmten Bereich auf der Karte durch vorherige Untersuchung, vorläufige Fahrt, Betriebsbestätigung oder dergleichen auftritt, wenn sich die Position in dem bestimmten Bereich befindet, mindestens eine der folgenden Informationen ändern: die erste Beobachtungsperiode, den ersten Änderungsbetrag-Schwellenwert, den ersten Quergeschwindigkeit-Schwellenwert , den Größenschwellenwert, den Reflexionsintensitätsschwellenwert, den zweiten Abstandschwellenwert und den Zuverlässigkeitsschwellenwert, so dass die Radarerkennungsobjektinformationen wahrscheinlich als aufgrund einer fehlerhaften Erkennung bestimmt werden. Darüber hinaus ist es beispielsweise in einem Fall, in dem sich viele Hindernisse in der Nähe des Fahrzeugs 101 befinden, wie im Falle des Fahrens auf einer engen Straße, weniger wahrscheinlich, dass nahe beieinander liegende Objekte bei der Signalverarbeitung innerhalb der ersten Erkennungsvorrichtung 1 getrennt werden, so dass Rauschen auftreten kann. Daher kann die Radarfehlererkennungs-Bestimmungseinheit 4 in einem Fall, in dem sich die Position auf einer schmalen Straße befindet, mindestens eine der folgenden Informationen ändern: die erste Beobachtungsperiode, den ersten Änderungsbetrag-Schwellenwert, den ersten Quergeschwindigkeits-Schwellenwert, den Größen-Schwellenwert, den Reflektionsintensität-Schwellenwert, den zweiten Abstands-Schwellenwert und den Zuverlässigkeits-Schwellenwert, so dass die Radarfehlererkennungsobjektinformation wahrscheinlich als aufgrund einer fehlerhaften Erkennung bestimmt wird.
-
Wie oben beschrieben, detektiert die Objekterkennungsvorrichtung 100 gemäß der ersten Ausführungsform ein Objekt auf der Grundlage von Informationen von der ersten Erkennungsvorrichtung 1, die bezüglich eines Radarerkennungsobjekts, das ein vom Ausgang des Radars 11 erkanntes Objekt ist, Radarerkennungsobjektinformationen ausgibt, die eine Radarerkennungsposition umfassen, und Informationen von der zweiten Erkennungsvorrichtung 2, die bezüglich eines zweiten Sensorerkennungsobjekts, das ein Objekt ist, das von einem Ausgang eines zweiten, von dem Radar 11 verschiedenen Sensors erkannt wird, zweite Sensorerkennungsobjektinformationen ausgibt, die eine zweite Sensorerkennungsposition umfassen, die eine Positionsinformation über das zweite Sensorerkennungsobjekt ist, wobei die Objekterkennungsvorrichtung 100 Folgendes umfasst: die Radarfehlererkennung-Bestimmungseinheit 4, die bestimmt, ob die Radarerkennungsobjektinformation, die von der ersten Erkennungsvorrichtung 1 erfasst wird, als fehlerhafte Erkennung vermutet wird oder nicht, und das Radarfehlererkennung-Verdachtsflag für die Radarerkennungsobjektinformation, die als verdächtig für eine fehlerhafte Erkennung bestimmt wurde, als wahr setzt; die Fusionsverarbeitungseinheit 7, die Fusionsobjektinformationen einschließlich einer Fusionsobjektposition ausgibt, die Positionsinformationen über ein Fusionsobjekt auf der Grundlage der zweiten Sensorerkennungsobjektinformationen und der Radarerkennungsobjektinformationen sind, die von der Radar-Fehlererkennungs-Bestimmungseinheit 4 erfasst wurden; und die Radar-Fehlererkennungs-Entfernungseinheit 8, die die Fusionsobjektinformationen entfernt, die als im Verdacht einer fehlerhaften Erkennung stehend bestimmt wurden. Wenn das Radarerkennungsobjekt und das zweite Sensorerkennungsobjekt als ein Fusionsobjekt bestimmt werden, integriert die Fusionsverarbeitungseinheit 7 die Radarerkennungsobjektinformation und die zweite Sensorerkennungsobjektinformation für die jeweiligen Objekte als ein Stück der Fusionsobjektinformation und setzt das Einzelsensor-Erkennungsflag für die integrierte Fusionsobjektinformation als falsch. Wenn das Fusionsobjekt als ein nur vom Radar 11 erkanntes Objekt bestimmt wird, verwendet die Fusionsverarbeitungseinheit 7 die Radarerkennungsobjektinformation für das Radarerkennungsobjekt als Fusionsobjektinformation und setzt das Einzelsensor-Erkennungsflag für die Fusionsobjektinformation als wahr. Die Radarfehlererkennung-Entfernungseinheit 8 entfernt die Fusionsobjektinformationen, für die das Radarfehlererkennung-Verdachtsflag wahr ist und das Einzelsensor-Erkennungsflag wahr ist. So kann die Ausgabe eines fehlerhaften Fusionsobjekts aufgrund einer fehlerhaften Erkennung auf der Grundlage von Informationen des Radars 11 verhindert werden. Darüber hinaus wird die Fusionsobjektinformation für das nur vom Radar 11 erkannte Fusionsobjekt gezielt entfernt, wodurch verhindert werden kann, dass die Fusionsobjektinformation fälschlicherweise entfernt wird.
-
ZWEITE AUSFÜHRUNGSFORM
-
7 ist ein Blockdiagramm, das die Konfiguration einer Objekterkennungsvorrichtung 100a gemäß der zweiten Ausführungsform der vorliegenden Offenbarung zeigt. In der Objekterkennungsvorrichtung 100a gemäß der in 7 dargestellten zweiten Ausführungsform ist eine Fusionsfehlererkennung-Bestimmungseinheit 10 hinzugefügt, eine Fusionsverarbeitungseinheit 7a ist anstelle der Fusionsverarbeitungseinheit 7 vorgesehen, und eine Radarfehlererkennung-Entfernungseinheit 8a ist anstelle der Radarfehlererkennung-Entfernungseinheit 8 vorgesehen, im Vergleich zu der Objekterkennungsvorrichtung 100 gemäß der in 1 dargestellten ersten Ausführungsform. Die anderen Konfigurationen der Objekterkennungsvorrichtung 100a gemäß der zweiten Ausführungsform sind die gleichen wie die der Objekterkennungsvorrichtung 100 gemäß der ersten Ausführungsform.
-
Die Fusionsverarbeitungseinheit 7a führt dieselbe Operation wie die Fusionsverarbeitungseinheit 7 durch und führt auch eine Verfolgungsverarbeitung oder eine Integrationsverarbeitung der Integration einer Vielzahl von Fusionsobjekten, für die der Abstand zwischen Fusionsobjektpositionen, die in jeweiligen Teilen von Fusionsobjektinformationen umfasst sind, kleiner als ein vorbestimmter dritter Abstandsschwellenwert ist, in ein Stück Information durch und gibt die integrierte Information als neue Fusionsobjektinformationen aus.
-
Die Fusionsfehlererkennung-Bestimmungseinheit 10 erfasst die Fusionsobjektinformationen von der Fusionsverarbeitungseinheit 7a und bestimmt, ob jedes Stück Fusionsobjektinformation als fehlerhafte Erkennung vermutet wird oder nicht. Die Fusionsfehlererkennung-Bestimmungseinheit 10 setzt ein Fusionsfehlererkennung-Verdachtsflag für die Fusionsobjektinformationen, die als verdächtig erkannt wurden, als wahr, setzt das Fusionsfehlererkennung-Verdachtsflag für die Fusionsobjektinformationen, die nicht als verdächtig erkannt wurden, als falsch, und gibt dann die Fusionsobjektinformationen aus. Nach der Bestimmung, ob jede Fusionsobjektinformation als fehlerhafte Erkennung erkannt wird oder nicht, kann die Fusionsfehlererkennung-Bestimmungseinheit 10 Fusionsfehlererkennungsinformationen, die die Bestimmung angeben, dass ein Verdacht auf fehlerhafte Erkennung besteht, zu den Fusionsobjektinformationen hinzufügen, die als verdächtig erkannt wurden, und die Fusionsobjektinformationen ausgeben. Die Fusionsfehlererkennung-Bestimmungseinheit 10 kann auf der Grundlage der von der Fusionsverarbeitungseinheit 7a ausgegebenen Fusionsobjektinformationen und der von dem Fahrzeuginformationssensor 3 ausgegebenen Fahrzeuginformationen bestimmen, ob jede Fusionsobjektinformation als fehlerhafte Erkennung vermutet wird oder nicht. Ein Bestimmungsverfahren zur fehlerhaften Erkennung in der Fusionsfehlererkennungs-Bestimmungseinheit 10 wird später im Detail beschrieben.
-
Die Radarfehlererkennung-Entfernungseinheit 8a erfasst die Fusionsobjektinformationen von der Fusionsfehlererkennung-Bestimmungseinheit 10, entfernt Fusionsobjektinformationen, die als fehlerhafte Erkennung erkannt wurden, und gibt die verbleibenden Fusionsobjektinformationen, die nicht entfernt wurden, an die Objektauswahleinheit 9 aus. Ein Bestimmungsverfahren dafür, ob Fusionsobjektinformationen in der Radarfehlererkennung-Entfernungseinheit 8a entfernt werden sollen oder nicht, wird später im Detail beschrieben.
-
8 ist ein Flussdiagramm, das den Betrieb der Objekterkennungsvorrichtung 100a gemäß der zweiten Ausführungsform illustriert. In 8 sind die Verarbeitung in den Schritten S01 bis S03, die Verarbeitung in Schritt S05 und die Verarbeitung in den Schritten S06 bis S08 die gleichen wie die Verarbeitung in den Schritten S01 bis S03, die Verarbeitung in Schritt S05 und die Verarbeitung in den Schritten S06 bis S08 in der Objekterkennungsvorrichtung 100 gemäß der ersten Ausführungsform, die in 5 gezeigt ist. Schritt S04a ist ein Fusionsverarbeitungsschritt zur Durchführung einer Fusionsverarbeitung, Schritt S09 ist ein Fusionsfehlererkennung-Bestimmungs-Verarbeitungsschritt zur Durchführung einer Fusionsfehlererkennung-Bestimmungsverarbeitung, und Schritt S05, Schritt S10, Schritt S06 und Schritt S07 sind ein Radarfehlererkennung-Entfernungsschritt zur Durchführung einer Radarfehlererkennung-Entfernung.
-
In Schritt S04a führt die Fusionsverarbeitungseinheit 7a die gleiche Verarbeitung wie die Fusionsverarbeitungseinheit 7 durch und führt auch eine Integrationsverarbeitung durch, bei der eine Vielzahl von Fusionsobjekten, für die der Abstand zwischen Fusionsobjektpositionen, die in jeweiligen Teilen von Fusionsobjektinformationen umfasst sind, kleiner als der vorbestimmte dritte Abstandsschwellenwert ist, in ein Stück Information integriert wird und die integrierte Information als neue Fusionsobjektinformation ausgegeben wird. Dann gibt die Fusionsverarbeitungseinheit 7a bezüglich jedes als Ergebnis erhaltenen Fusionsobjekts Fusionsobjektinformationen, die eine Fusionsobjektposition umfassen, die Positionsinformationen über das Fusionsobjekt sind, an die Fusionsfehlererkennung-Bestimmungseinheit 10 aus. Dann fährt das Verfahren mit Schritt S09 fort.
-
In Schritt S09 bestimmt die Fusionsfehlererkennungs-Bestimmungseinheit 10, ob jede Fusionsobjektinformation, die von der Fusionsverarbeitungseinheit 7a erfasst wird, als fehlerhafte Erkennung vermutet wird oder nicht. Dann setzt die Fusionsfehlererkennung-Bestimmungseinheit 10 das Fusionsfehlererkennung-Verdachtsflag für die Fusionsobjektinformation, die als verdächtig erkannt wurde, als wahr, setzt das Fusionsfehlererkennung-Verdachtsflag für die Fusionsobjektinformation, die nicht als verdächtig erkannt wurde, als falsch, und gibt die Fusionsobjektinformation an die Radarfehlererkennung-Entfernungseinheit 8a aus. Dann fährt das Verfahren mit Schritt S05 fort. Eine Bestimmungsmethode für fehlerhafte Erkennung wird später im Detail beschrieben.
-
In Schritt S05 bestätigt die Radarfehlererkennung-Entfernungseinheit 8a den Wert des Radarfehlererkennung-Verdachtsflags für jede Fusionsobjektinformation, die von der Fusionsverarbeitungseinheit 7a erfasst wird. Wenn das Radarfehlererkennung-Verdachtsflag wahr ist, fährt der Prozess mit Schritt S06 fort, und wenn das Radarfehlererkennung-Verdachtsflag falsch ist, fährt der Prozess mit Schritt S10 fort. In Schritt S10 bestätigt die Radarfehlererkennung-Entfernungseinheit 8a den Wert des Fusionsfehlererkennung-Verdachtsflags für jede Fusionsobjektinformation, die von der Fusionsverarbeitungseinheit 7a erfasst wurde. Wenn das Fusionsfehlererkennung-Verdachtsflag wahr ist, fährt der Prozess mit Schritt S06 fort, und wenn das Fusionsfehlererkennung-Verdachtsflag falsch ist, fährt der Prozess mit Schritt S08 fort. In Schritt S06 bestätigt die Radarfehlererkennung-Entfernungseinheit 8a den Wert des Einzelsensor-Erkennungsflags für jede Fusionsobjektinformation. Wenn der Wert des Einzelsensor-Erkennungsflags wahr ist, fährt der Prozess mit Schritt S07 fort, und wenn der Wert des Einzelsensor-Erkennungsflags falsch ist, fährt der Prozess mit Schritt S08 fort. In Schritt S07 entfernt die Radarfehlererkennungs-Entfernungseinheit 8a die Fusionsobjektinformationen, und dann fährt der Prozess mit Schritt S08 fort. Durch die Verarbeitung in den Schritten S05 bis S07 und die Verarbeitung in Schritt S10 entfernt die Radarfehlererkennung-Entfernungseinheit 8a die Fusionsobjektinformationen, für die das Radarfehlererkennung-Verdachtsflag wahr ist und das Einzelsensor-Erkennungsflag wahr ist, und die Fusionsobjektinformationen, für die das Fusionsfehlererkennung-Verdachtsflag wahr ist und das Einzelsensor-Erkennungsflag wahr ist, und gibt die verbleibenden Fusionsobjektinformationen an die Objektauswahleinheit 9 aus. Das heißt, wenn das Fusionsobjekt ein nur vom Radar 11 erkanntes Objekt ist und die Erkennung durch das Radar 11 als fehlerhafte Erkennung vermutet wird, entfernt die Radarfehlererkennung-Entfernungseinheit 8 die Fusionsobjektinformationen, und auch, wenn das Fusionsobjekt ein nur vom Radar 11 erkanntes Objekt ist und das Verhalten des Fusionsobjekts dasselbe ist wie das Verhalten eines als fehlerhafte Erkennung des Radars 11 vermuteten Fusionsobjekts, entfernt die Radarfehlererkennung-Entfernungseinheit 8 die Fusionsobjektinformationen.
-
In Schritt S08 führt die Objektauswahleinheit 9 eine Objektauswahleinheit-Verarbeitung an jeder Fusionsobjektinformation durch, die von der Radarfehlererkennung-Entfernungseinheit 8a erfasst wird, und gibt das Auswahlausgangsergebnis als ein endgültiges Objekterkennungsergebnis aus. Schritt S08 kann übersprungen werden. In einem Fall, in dem Schritt S08 übersprungen wird, wird die Ausgabe der Radarfehlererkennung-Entfernungseinheit 8a als ein endgültiges Objekterkennungsergebnis ausgegeben.
-
9 ist ein Flussdiagramm, das den Inhalt der Fusionsfehlererkennung-Bestimmungs-Verarbeitung in der Fusionsfehlererkennung-Bestimmungseinheit 10 in der zweiten Ausführungsform veranschaulicht und die Details der Fusionsfehlererkennung-Bestimmungs-Verarbeitung zeigt, die in Schritt S09 in 8 gezeigt ist. Schritt S21 ist ein Schritt zur Bestimmung der fehlerhaften Erkennung einer Fusion, und Schritt S22 und Schritt S23 sind ein Schritt zur Einstellung eines Fusionsfehlererkennung-Verdachtsflags.
-
In Schritt S21 führt die Fusionsfehlererkennungs-Bestimmungseinheit 10 eine Fusionsfehlererkennungsbestimmung durch, um zu bestimmen, ob der Inhalt jeder Fusionsobjektinformation, die von der Fusionsverarbeitungseinheit 7a erfasst wird, eine Bedingung für eine Fusionsfehlererkennung erfüllt oder nicht. Die Bestimmung der fehlerhaften Erkennung von Fusionsobjekten wird durchgeführt, indem bestätigt wird, ob der Inhalt der Fusionsobjektinformationen die Bedingung der fehlerhaften Erkennung von Fusionsobjekten erfüllt oder nicht. Wenn der Inhalt der Fusionsobjektinformation die Bedingung der fehlerhaften Erkennung der Fusion erfüllt, fährt das Verfahren mit Schritt S22 fort, und wenn der Inhalt der Fusionsobjektinformation die Bedingung der fehlerhaften Erkennung der Fusion nicht erfüllt, fährt das Verfahren mit Schritt S23 fort.
-
Die Bedingung der Fusionsfehlererkennung kann die gleiche sein wie die Bedingung der ersten fehlerhaften Erkennung in der Radarfehlererkennungs-Bestimmungseinheit 4, und beispielsweise wird eine Fusionsobjektinformation, die ein Verhalten angibt, wie es durch das Rauschen 105 in 3 gezeigt wird, als auf eine Fusionsfehlererkennung zurückzuführen bestimmt. Hier werden Informationen, die das Verhalten des Fusionsobjekts angeben, als Zeitreiheninformationen über die Fusionsobjektposition (Längskoordinate und Querkoordinate), die Positionsinformationen des Fusionsobjekts sind, die Bewegungsgeschwindigkeit (Längsgeschwindigkeit und Quergeschwindigkeit) des Fusionsobjekts und die Bewegungsbeschleunigung (Längsbeschleunigung und Querbeschleunigung) des Fusionsobjekts dargestellt. Stattdessen können Informationen, die den oben genannten Informationen entsprechen, berechnet und verwendet werden. Beispielsweise kann anstelle der Bewegungsgeschwindigkeit des Fusionsobjekts ein Ergebnis verwendet werden, das durch eine Differenzberechnung der Fusionsobjektposition erhalten wurde. Genauer gesagt ist beispielsweise „Werteübergang durch die aktuelle Fusionsobjektposition, die Fusionsobjektposition vor einem Verarbeitungszyklus und die Fusionsobjektposition vor zwei Verarbeitungszyklen“ oder „Werteübergang durch die aktuelle Quergeschwindigkeit des Fusionsobjekts, die Quergeschwindigkeit des Fusionsobjekts vor einem Verarbeitungszyklus und die Quergeschwindigkeit des Fusionsobjekts vor zwei Verarbeitungszyklen“ eine Information, die das Verhalten des Fusionsobjekts angibt. Bei der Bestimmung der fehlerhaften Erkennung wird ermittelt, ob die Information, die das Verhalten des Fusionsobjekts angibt, ein Verhalten ist, das darin besteht, dass es von einer seitlichen Seite aus auf die Fahrzeugmittelachse (Querposition = 0) zueilt oder nicht. Insbesondere, beispielsweise, wenn der Änderungsbetrag der Fusionsobjektposition, wenn sich das Fusionsobjekt in Richtung der Mitte in der Links-Rechts-Richtung des Radarerfassungsbereichs 102 bewegt, der der Erfassungsbereich des Radars 11 ist, größer als ein vorbestimmter zweiter Änderungsbetrag-Schwellenwert aufeinanderfolgend während einer vorbestimmten zweiten Beobachtungsperiode (beispielsweise einer Periode von drei Verarbeitungszyklen) gewesen ist, bestimmt die Fusionsfehlererkennung-Bestimmungseinheit 10, dass die Fusionsobjektinformation auf eine fehlerhafte Erkennung zurückzuführen ist. Das heißt, wenn der Wert der Geschwindigkeit, wenn sich das Fusionsobjekt in Richtung des Zentrums in der Links-Rechts-Richtung des Radarerkennungsbereichs 102 bewegt, während der vorbestimmten zweiten Beobachtungsperiode aufeinanderfolgend größer als der vorbestimmte zweite Änderungsbetrag-Schwellenwert gewesen ist, bestimmt die Radarfehlererkennung-Bestimmungseinheit 10, dass die Fusionsobjektinformation auf eine fehlerhafte Erkennung zurückzuführen ist. In einem Fall, in dem die Fusionsobjektinformationen Informationen über eine zweite Quergeschwindigkeit umfassen, die die Bewegungsgeschwindigkeit in der Querrichtung des Fusionsobjekts ist, kann die Fusionsfehlererkennung-Bestimmungseinheit 10 bestimmen, dass die Fusionsobjektinformationen auf eine fusionsfehlerhafte Erkennung zurückzuführen sind, wenn der Absolutwert der zweiten Quergeschwindigkeit während der zweiten Beobachtungsperiode aufeinanderfolgend größer als der vorbestimmte zweite Quergeschwindigkeit-Schwellenwert war. Hier kann die zweite Beobachtungsperiode die gleiche sein wie die erste Beobachtungsperiode, die für die Bestimmung der fehlerhaften Erkennung durch das Radar in der Radarfehlererkennung-Bestimmungseinheit 4 verwendet wird, der zweite Schwellenwert für den Änderungsbetrag kann der gleiche sein wie der erste Schwellenwert für den Änderungsbetrag, der für die Bestimmung der fehlerhaften Erkennung durch das Radar in der Radarfehlererkennung-Bestimmungseinheit 4 verwendet wird, und der zweite Schwellenwert für die Quergeschwindigkeit kann der gleiche sein wie der erste Schwellenwert für die Quergeschwindigkeit, der für die Bestimmung der fehlerhaften Erkennung durch das Radar in der Radarfehlererkennung-Bestimmungseinheit 4 verwendet wird.
-
In Schritt S22 setzt die Fusionsfehlererkennung-Bestimmungseinheit 10 den Wert des Fusionsfehlererkennung-Verdachtsflags für die Fusionsobjektinformation als wahr, wodurch die Fusionsfehlererkennung-Bestimmungsverarbeitung beendet wird. Im Schritt S23 setzt die Fusionsfehlererkennung-Bestimmungseinheit 10 den Wert des Fusionsfehlererkennung-Verdachtsflags für die Fusionsobjektinformation als falsch, wodurch die Verarbeitung der Fusionsfehlererkennung-Bestimmung beendet wird.
-
Die Fusionsfehlererkennung-Bestimmungseinheit 10 kann als die Fahrzeuginformationen Informationen über die Geschwindigkeit, die Gierrate, den Azimut oder die Position des Fahrzeugs 101 von dem Fahrzeuginformationssensor 3 erfassen und mindestens eine der zweiten Beobachtungsperiode, den zweiten Änderungsbetrag-Schwellenwert und den zweiten Quergeschwindigkeit-Schwellenwert in Übereinstimmung mit den Fahrzeuginformationen bei der Bestimmung zur Fusionsfehlererkennung ändern. Beispielsweise kann die Fusionsfehlererkennungs-Bestimmungseinheit 10 Geschwindigkeitsinformationen des Fahrzeugs 101 von dem Board-Fahrzeugsensor 3 erfassen und mindestens eine der zweiten Beobachtungsperiode, des zweiten Änderungsbetrag-Schwellenwerts und des zweiten Quergeschwindigkeit-Schwellenwert s ändern, so dass, wenn die Geschwindigkeit des Fahrzeugs 101 höher wird, die Fusionsobjektinformationen weniger wahrscheinlich aufgrund einer fehlerhaften Erkennung bestimmt werden (d.h., Fusionsobjektinformationen werden weniger wahrscheinlich entfernt), wodurch es möglich ist, eine Bestimmung mit einem geringeren Risiko für einen Insassen durchzuführen.
-
Die Fusionsfehlererkennungs-Bestimmungseinheit 10 kann Außenumgebungsinformationen erfassen, die mindestens eine der folgenden Informationen umfassen: das Wetter, eine Zeit, eine Temperatur, einen Straßenoberflächenzustand und eine Peripheriestruktur-Anordnungsbedingung (Leitplankenanordnungsbedingung, Baumanordnungsintervall usw.), und mindestens eine der folgenden Informationen ändern: die zweite Beobachtungsperiode, den zweiten Änderungsbetrag-Schwellenwert und den zweiten Quergeschwindigkeit-Schwellenwert in Übereinstimmung mit den Außenumgebungsinformationen, um eine fehlerhafte Erkennung durch Fusion zu bestimmen. Beispielsweise kann die Fusionsfehlererkennungs-Bestimmungseinheit 10 Zeitinformationen erfassen und während der Nachtzeit mindestens eine der zweiten Beobachtungsperiode, des zweiten Änderungsbetrags-Schwellenwerts und des zweiten Quergeschwindigkeits-Schwellenwerts ändern, so dass es weniger wahrscheinlich ist, dass die Fusionsobjektinformationen als fehlerhafte Erkennung erkannt werden (d.h., es ist weniger wahrscheinlich, dass Fusionsobjektinformationen entfernt werden). Bei regnerischem oder verschneitem Wetter ist die Erkennungsleistung der Kamera 12 im Vergleich zu einem normalen Fall reduziert. Daher kann die Fusionsfehlererkennung-Bestimmungseinheit 10 Wetterinformationen erfassen und bei regnerischem oder verschneitem Wetter die zweite Beobachtungsperiode, den zweiten Änderungsbetrag-Schwellenwert und/oder den zweiten Quergeschwindigkeit-Schwellenwert so ändern, dass es weniger wahrscheinlich ist, dass die Fusionsobjektinformationen als fehlerhafte Erkennung erkannt werden (d.h. es ist weniger wahrscheinlich, dass Fusionsobjektinformationen entfernt werden). Die Fusionsfehlererkennung-Bestimmungseinheit 10 kann Temperaturinformationen erfassen und, wenn die Temperatur niedrig ist, jeden Schwellenwert so ändern, dass selbst bei einem Objekt in großer Entfernung die Wahrscheinlichkeit besteht, dass es als fehlerhafte Erkennung erkannt wird. Beispielsweise werden in einem Fall, in dem Leitplanken oder Bäume in der Nähe der Fahrstraße platziert sind, bei einem kurzen Abstand zwischen den Leitplanken oder der Baumanordnung eine Vielzahl von Leitplanken oder Bäumen zu einem Objekt zusammengefasst, so dass ein Objekt mit einer großen Größe wahrscheinlich erscheint. Im Allgemeinen befinden sich Leitplanken oder Bäume nicht auf der Fahrstraße und sind keine Kontroll- oder Meldeobjekte. Daher sollten solche Objekte als Folge einer fehlerhaften Erkennung durch die Fusion entfernt werden (obwohl sie tatsächlich vorhandene Objekte sind). Daher kann in einem Fall, in dem Informationen, dass es eine solche Struktur gibt, beispielsweise in diesem Bereich erfasst wird, jeder Schwellenwert, beispielsweise der Größenschwellenwert, so geändert werden, dass die Struktur, die durch Clustering erzeugt wird, bei der Bestimmung durch die Fusionsfehlererkennung-Bestimmungseinheit 10 wahrscheinlich als aufgrund einer fehlerhaften Erkennung erkannt wird.
-
Die Fusionsfehlererkennungs-Bestimmungseinheit 10 kann Karteninformationen erfassen und Positionsinformationen von dem Board-Fahrzeugsensor 3 erfassen und kann mindestens eine der zweiten Beobachtungsperiode, den zweiten Änderungsbetrag-Schwellenwert und den zweiten Quergeschwindigkeit-Schwellenwert in Übereinstimmung mit den Karteninformationen und den Positionsinformationen bei der Bestimmung für eine Fusionsfehlererkennung ändern. Beispielsweise kann die Fusionsfehlererkennung-Bestimmungseinheit 10 in einem Fall, in dem herausgefunden wurde, dass eine Radarfehlererkennung wahrscheinlich in einem bestimmten Bereich auf der Karte durch eine vorherige Untersuchung, eine vorläufige Fahrt, eine Betriebsbestätigung oder ähnliches auftritt, wenn sich die Position in dem bestimmten Bereich befindet, mindestens eine der folgenden Informationen ändern: die zweite Beobachtungsperiode, den zweiten Änderungsbetrag-Schwellenwert und den zweiten Quergeschwindigkeit-Schwellenwert , so dass die Fusionsobjektinformationen wahrscheinlich so bestimmt werden, dass sie als fehlerhafte Erkennung vermutet werden. In einem Fall, in dem sich die Position auf einer schmalen Straße befindet, kann die Fusionsfehlererkennung-Bestimmungseinheit 10 mindestens eine der zweiten Beobachtungsperiode, des zweiten Änderungsbetrag-Schwellenwerts und des zweiten Quergeschwindigkeit-Schwellenwert s ändern, so dass die Fusionsobjektinformationen wahrscheinlich als fehlerhafte Erkennung bestimmt werden.
-
Wie oben beschrieben, umfasst die Objekterkennungsvorrichtung 100a gemäß der zweiten Ausführungsform ferner die Fusionsfehlererkennung-Bestimmungseinheit 10, die bestimmt, ob die Fusionsobjektinformation, die von der Fusionsverarbeitungseinheit 7a erfasst wird, als fehlerhafte Erkennung vermutet wird oder nicht, und das Fusionsfehlererkennung-Verdachtsflag für die Fusionsobjektinformation, die als verdächtig für eine fehlerhafte Erkennung bestimmt wird, als wahr setzt. Die Fusionsverarbeitungseinheit 7a integriert eine Vielzahl von Fusionsobjektinformationen, für die der Abstand zwischen den Fusionsobjektpositionen, die in den jeweiligen Fusionsobjektinformationen umfasst sind, kleiner ist als der vorbestimmte dritte Abstandsschwellenwert, in eine Information und gibt die integrierte Information als neue Fusionsobjektinformation aus. In einem Fall, in dem der Änderungsbetrag der Fusionsobjektposition, wenn sich das Fusionsobjekt in Richtung des Zentrums in der Links-Rechts-Richtung des Erkennungsbereichs des Radars 11 bewegt, größer als der vorbestimmte zweite Änderungsbetrag-Schwellenwert während der vorbestimmten zweiten Beobachtungsperiode gewesen ist, oder in einem Fall, in dem die Fusionsobjektinformationen Informationen über die zweite Quergeschwindigkeit umfassen, die die Bewegungsgeschwindigkeit in der Querrichtung des Fusionsobjekts ist, und der Absolutwert der zweiten Quergeschwindigkeit während der zweiten Beobachtungsperiode größer als der vorbestimmte Schwellenwert für die zweite Quergeschwindigkeit war, bestimmt die Fusionsfehlererkennung-Bestimmungseinheit 10, dass die Fusionsobjektinformationen als fehlerhafte Erkennung vermutet werden. Die Radarfehlererkennung-Entfernungseinheit 8a entfernt die Fusionsobjektinformationen, für die das Radarfehlererkennung-Verdachtsflag wahr ist und das Einzelsensor-Erkennungsflag wahr ist, und entfernt die Fusionsobjektinformationen, für die das Fusionsfehlererkennung-Verdachtsflag wahr ist und das Einzelsensor-Erkennungsflag wahr ist. Auf diese Weise kann die Ausgabe eines fehlerhaften Fusionsobjekts aufgrund einer fehlerhaften Erkennung auf der Grundlage von Informationen des Radars 11 weiter verhindert werden.
-
Als Ergebnis der Fusionsverarbeitung kann eine Vielzahl von Objekten zusammengeführt werden, oder es können verschiedene Korrekturverarbeitungen, wie beispielsweise eine Verfolgungsverarbeitung, durchgeführt werden, und daher unterscheidet sich der Wert jedes Parameters, wie beispielsweise die Position oder die Geschwindigkeit, im Allgemeinen zwischen der Radarerkennungsobjektinformation und der Fusionsobjektinformation. Selbst wenn die Radarerkennungsobjektinformation nicht als fehlerhafte Erkennung erkannt wird, kann die entsprechende Fusionsobjektinformation daher dasselbe Verhalten wie Rauschen angeben. In diesem Fall kann mit der Objekterkennungsvorrichtung 100a gemäß der zweiten Ausführungsform die Ausgabe eines fehlerhaften Fusionsobjekts aufgrund einer fehlerhaften Erkennung auf der Grundlage von Informationen des Radars 11 weiter verhindert werden.
-
In den Ausführungsformen, wie in 2 gezeigt, wurde der Fall beschrieben, in dem das Radar 11 und die Kamera 12, die der zweite Sensor ist, als zwei Sensoren an der Vorderseite des Fahrzeugs 101 angeordnet sind. Die Anordnung der Sensoren ist jedoch nicht auf die Vorderseite beschränkt, und die Sensoren können auch an einer anderen Stelle außer der Vorderseite, beispielsweise an der Rückseite oder an einer seitlichen Seite, angeordnet sein. Das Radar 11 und der zweite Sensor können an verschiedenen Oberflächen des Fahrzeugs 101 angebracht werden, solange sich ihre jeweiligen Erkennungsbereiche teilweise überschneiden, d. h. ein Fusionsbereich besteht. Der zweite Sensor kann ein Sensor sein, der für eine Straßenrandeinheit (Infrastruktursensor) vorgesehen ist.
-
Die Objekterkennungsvorrichtung gemäß der jeweiligen Ausführungsform weist ein solches Merkmal auf, dass selbst in einem Fall, in dem eine Information über ein vom Radar 11 erkanntes Objekt als fehlerhafte Erkennung erkannt wird, wenn der zweite Sensor das identische Objekt erkannt hat, die Information über das Objekt nicht als fehlerhafte Erkennung erkannt wird. Daher reicht es aus, dass der zweite Sensor Objekteigenschaften (d. h. eine andere Tendenz zur fehlerhaften Erkennung) als das Radar 11 aufweist. Daher kann der zweite Sensor ein Radar sein, das eine andere Frequenz als das Radar 11 verwendet. Alternativ kann die Verarbeitung des Erkennungssignals in der zweiten Erkennungsvorrichtung 2 sich von der Verarbeitung des Erkennungssignals in der ersten Erkennungsvorrichtung 1 unterscheiden, obwohl der zweite Sensor derselbe Sensor wie das Radar 11 ist.
-
Der zweite Sensor kann eine Kombination aus einer Vielzahl von Sensoren sein. Beispielsweise können das Radar 11, eine Kamera und ein Ultraschallsensor an der Vorderseite des Fahrzeugs 101 angeordnet sein, und die Verarbeitung kann so durchgeführt werden, dass die Kamera als der zweite Sensor für einen Fusionsbereich von einem kurzen Abstand bis zu einem langen Abstand von dem Fahrzeug 101 verwendet wird, und der Ultraschallsensor als der zweite Sensor für einen Fusionsbereich in einem sehr kurzen Abstand von dem Fahrzeug 101 verwendet wird. Wenn beispielsweise das Radar 11, eine Kamera und ein LiDAR-Sensor an der Vorderseite des Fahrzeugs 101 angeordnet sind und die Kamera und der LiDAR-Sensor als zweiter Sensor verwendet werden, kann ein von der Kamera und/oder dem LiDAR-Sensor erkanntes Objekt als ein vom zweiten Sensor erkanntes Objekt betrachtet werden, und wenn die zweite Sensor-Erkennungsposition des vom zweiten Sensor erkannten Objekts innerhalb des vorbestimmten Erkennungsbereichs für identische Objekte liegt, der die Radarerkennungsposition des entsprechenden vom Radar erkannten Objekts umfasst, kann das Einzelsensor-Erkennungsflag als falsch gesetzt werden. Alternativ kann beispielsweise mit dem Radar 11, der Kamera und dem LiDAR-Sensor, die an der Vorderseite des Fahrzeugs 101 angeordnet sind, und unter Verwendung der Kamera und des LiDAR-Sensors als dem zweiten Sensor ein Objekt, das sowohl von der Kamera als auch von dem LiDAR-Sensor erkannt wird, als ein von dem zweiten Sensor erkanntes Objekt betrachtet werden, und wenn die zweite Sensor-Erkennungsposition des von dem zweiten Sensor erkannten Objekts innerhalb des vorbestimmten Erkennungsbereiches für identische Objekte liegt, der die Radarerkennungsposition des entsprechenden von dem Radar erkannten Objekts umfasst, kann das Einzelsensor-Erkennungsflag als falsch gesetzt werden.
-
10 ist ein schematisches Diagramm, das ein Beispiel für die Hardwarekonfiguration der Objekterkennungsvorrichtung 100, 100a gemäß jeder Ausführungsform zeigt. Die Radarfehlererkennungs-Bestimmungseinheit 4, die Radarfilterverarbeitungseinheit 5, die Kamerafilterverarbeitungseinheit 6, die Fusionsverarbeitungseinheit 7, 7a, die Radarfehlererkennungs-Entfernungseinheit 8, 8a, die Objektauswahleinheit 9 und die Fusionsfehlererkennungs-Bestimmungseinheit 10 werden durch einen Prozessor 201, beispielsweise eine zentrale Verarbeitungseinheit (CPU), implementiert, der ein in einem Speicher 202 gespeichertes Programm ausführt. Bei dem in dem Speicher 202 gespeicherten Programm kann es sich beispielsweise um ein in einem Speichermedium 204 gespeichertes Programm 205 handeln. Das heißt, man kann sagen, dass das Programm dazu dient, einen Computer zu veranlassen, einen Ablauf von Operationen von Komponenten der Objekterkennungsvorrichtung 100, 100a und deren Objekterkennungsverfahren auszuführen. Der Speicher 202 kann auch als temporäre Vorrichtung bei jeder durch den Prozessor 201 ausgeführten Verarbeitung verwendet werden. Der Speicher 202 ist ein nichtflüchtiger oder flüchtiger Halbleiterspeicher, beispielsweise ein RAM, ein ROM, ein Flash-Speicher oder ein EPROM, eine Magnetplatte, eine optische Platte oder eine Kombination davon. Der Prozessor 201 und der Speicher 202 sind mit einem Bus 203 verbunden. Die erste Erkennungsvorrichtung 1, die zweite Erkennungsvorrichtung 2 und der Board-Fahrzeuginformationssensor 3 sind über eine Kommunikationsschnittstelle 206 mit einem Bus 203 verbunden. Die Kommunikationsschnittstelle 206, die den Bus 203 und jede der ersten Erkennungsvorrichtung 1, der zweiten Erkennungsvorrichtung 2 und des Fahrzeuginformationssensors 3 verbindet, kann ein drahtgebundener Kommunikationstyp oder ein drahtloser Kommunikationstyp sein und kann aus einer Schnittstelle zum Senden/Empfangen einer Vielzahl von Arten von Signalen oder einer Vielzahl von Schnittstellen mit einzelnen Funktionen gebildet sein.
-
11 ist ein schematisches Diagramm, das ein weiteres Beispiel für die Hardwarekonfiguration der Objekterkennungsvorrichtung 100, 100a gemäß jeder Ausführungsform zeigt. In 11 ist eine Verarbeitungsschaltung 207 mit dem Bus 203 verbunden, und die erste Erkennungsvorrichtung 1, die zweite Erkennungsvorrichtung 2 und der Fahrzeuginformationssensor 3 sind über die Kommunikationsschnittstelle 206 mit dem Bus 203 verbunden. In einem Fall, in dem die Verarbeitungsschaltung 207 zugeordnete Hardware ist, ist die Verarbeitungsschaltung 207 beispielsweise eine einzelne Schaltung, eine komplexe Schaltung, ein programmierter Prozessor, eine anwendungsspezifische integrierte Schaltung (ASIC), ein feldprogrammierbares Gate-Array (FPGA) oder eine Kombination davon. Jede Funktion der Objekterkennungsvorrichtung 100, 100a kann von der Verarbeitungsschaltung 207 implementiert werden, oder die Funktionen können gemeinsam von der Verarbeitungsschaltung 207 implementiert werden. Einige der Funktionen der Objekterkennungsvorrichtung 100, 100a können durch zugeordnete Hardware implementiert werden und andere können durch Software oder Firmware implementiert werden.
-
Obwohl die Offenbarung oben in Bezug auf verschiedene beispielhafte Ausführungsformen und Implementierungen beschrieben ist, sollte verstanden werden, dass die verschiedenen Merkmale, Aspekte und Funktionen, die in einer oder mehreren der einzelnen Ausführungsformen beschrieben sind, in ihrer Anwendbarkeit auf die bestimmte Ausführungsform, mit der sie beschrieben sind, nicht beschränkt sind, sondern stattdessen allein oder in verschiedenen Kombinationen auf eine oder mehrere der Ausführungsformen der Offenbarung angewendet werden können.
-
Es versteht sich daher, dass zahlreiche Modifikationen, die nicht beispielhaft dargestellt wurden, entwickelt werden können, ohne den Umfang der vorliegenden Offenbarung zu verlassen. Beispielsweise kann mindestens einer der Bestandteile modifiziert, hinzugefügt oder eliminiert werden. Mindestens einer der in mindestens einer der bevorzugten Ausführungsformen genannten Bestandteile kann ausgewählt und mit den in einer anderen bevorzugten Ausführungsform genannten Bestandteilen kombiniert werden.
-
BESCHREIBUNG DER BEZUGSZEICHEN
-
- 1
- erste Erkennungsvorrichtung
- 2
- zweite Erkennungsvorrichtung
- 3
- Fahrzeuginformationssensor
- 4
- Radarfehlererkennung-Bestimmungseinheit
- 5
- Radarfilterverarbeitungseinheit
- 6
- Kamerafilter-Verarbeitungseinheit
- 7, 7a
- Fusionsverarbeitungseinheit
- 8, 8a
- Radarfehlererkennung-Entfernungseinheit
- 9
- Objektauswahleinheit
- 10
- Fusionsfehlererkennung-Bestimmungseinheit
- 11
- Radar
- 12
- Kamera
- 100, 100a
- Objekterkennungsvorrichtung
- 101
- Fahrzeug
- 102
- Radarerkennungsbereich
- 103
- Kameraerkennungsbereich
- 104
- Fusionsbereich
- 105
- Rauschen
- 106
- Rauschen
- 201
- Prozessor
- 202
- Speicher
- 203
- Bus
- 204
- Speichermedium
- 205
- Programm
- 206
- Kommunikationsschnittstelle
- 207
- Verarbeitungsschaltung