-
Die vorliegende Offenbarung betrifft ein Verfahren zum Auswerten von Sensordaten, insbesondere im Gebiet der Fahrzeugsensorik für Fahrerassistenzsysteme, autonome Fahrzeuge oder halbautonome Fahrzeuge.
-
Autonome Fahrzeuge und Fahrassistenzsysteme gewinnen an Relevanz und Verbreitung. Für solche Systeme ist es insbesondere von Bedeutung, dass das Fahrzeug den Fahrweg umliegender Fahrzeuge, beispielsweise von Fahrzeugen anderer Verkehrsteilnehmer richtig einschätzen kann. Um den Fahrweg anderer Fahrzeuge im Straßenverkehr einzuschätzen, ist neben der Ortsinformation und der Bewegungsgeschwindigkeit auch die Gierrate (Drehung) des einzuschätzenden Fahrzeugs von Bedeutung.
-
Es sind bereits Lösungen aus dem Stand der Technik bekannt, die in der Lage sind die Gierrate eines Fahrzeugs basierend auf Sensordaten zu bestimmen. So bestimmt das in Patentoffenbarung
DE 10 2013 019 804 A1 offengelegte Gerät die Gierrate eines anderen Fahrzeugs mit Hilfe zweier Sensoren.
-
Die
EP 3 415 945 A1 offenbart ein Verfahren zur Bestimmung der Gierrate eines Zielfahrzeuges, wobei aus Radardaten eine erste Linie senkrecht zur Orientierung des Ziels und durch die Mitte des Ziels verlaufend bestimmt wird, eine zweite Linie durch die Drehmitte des Ziels verlaufend bestimmt wird, der Schnittpunkt der ersten und zweiten Linie bestimmt wird, daraus die Position des Drehpunktes bestimmt wird und doe Gierrate geschätzt wird.
-
Die
EP 3 285 230 A1 offenbart ein Fahrzeugumgebungserkennungssystem, das mindestens eine Erkennungseinrichtung und mindestens eine Verarbeitungseinheit umfasst, wobei das Fahrzeugumgebungserkennungssystem so angeordnet ist, dass es mindestens zwei Merkmalspunkte an Objekten außerhalb eines Fahrzeugs erfasst.
-
Die
EP 3 415 948 A1 offenbart eine Methode zur Bestimmung der Entfernung der Reichweite eines Ziels in einer horizontalen Ebene durch ein mit einem Radarsystem ausgestattetes Leitfahrzeug.
-
Die
EP 3 151 034 A1 offenbart ein Radarsystem umfassend einen Radarsensor, wobei eine Gierrate eines Zielfahrzeugs zum gegenwärtigen Zeitpunkt basierend auf einem derzeitigen Frequenzbereich eines gegenwärtigen Azimutwinkels bestimmt wird.
-
Die
DE 10 2008 025 773 A1 offenbart ein Verfahren zur Schätzung eines Orts- und Bewegungszustands eines beobachteten Objekts, bei dem eine Entfernung zum Objekt ermittelt, eine Verschiebung zumindest eines Teils des Objekts im Bild einer Kamera detektiert und mindestens ein Parameter des Orts- und Bewegungszustands unter Berücksichtigung eines Bewegungsmodells des beobachteten Objekts geschätzt wird, wobei einer der Parameter eine Gierrate oder eine Quergeschwindigkeit ist.
-
Es sind auch weitere Lösungen bekannt, welche die Gierrate über zeitliche Filterung (Tracking) der Sensordaten bestimmen.
-
Die bekannten Lösungen sind allerdings im zeitlichen Auflösungsvermögen beschränkt, da mehrere zeitlich versetzte Messungen ausgewertet werden müssen, oder es besteht die Notwendigkeit, mehrere Sensoren zu verwenden, was den Aufbau der Messapparatur platz- und ressourcenintensiv macht.
-
Hiervon ausgehend liegt der Erfindung die Aufgabe zu Grunde, ein Verfahren und eine Auswertungseinheit bereitzustellen, welches die Bestimmung der Gierrate verbessert. Diese Aufgabe wird durch das Verfahren nach Anspruch 1 und die Auswertungseinheit nach Anspruch 3 gelöst. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen und der folgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung.
-
Die Ausführungsbeispiele zeigen ein Verfahren zur Bestimmung der Gierrate eines Zielobjektes, umfassend ein Empfangen von Sensordaten, welche mehrere Detektionen umfassen, welche das Zielobjekt beschreibt, ein Abschätzen der Lage des Gierzentrums des Zielobjektes auf Grundlage der Detektionen, sowie ein Bestimmen der Gierrate auf Grundlage des abgeschätzten Ortes des Gierzentrums. Die Gierrate beschreibt hierbei die Rotationsgeschwindigkeit eines Objekts um die Hochachse an einem definierten Referenzpunkt, hier Gierzentrum genannt. Vorzugsweise liefern die mehreren Detektionen liefern eine Punktwolke, welche das Zielobjekt beschreibt.
-
Bei dem Fahrzeug kann es sich insbesondere um ein fahrerloses autonomes oder um ein teilautonom bewegtes Fahrzeug handeln. Es kann sich beispielsweise um ein Land-, Luft- oder Wasserfahrzeug handeln, beispielsweise um ein fahrerloses Transportsystem (FTS), einen autonomen PKW, ein Schienenfahrzeug, eine Drohne oder ein Boot.
-
Die Sensordaten stammen beispielsweise von ein oder mehreren Sensoren, welche dazu ausgelegt sind, das Umfeld eines Fahrzeugs zu erfassen. Bei den Sensoren kann es sich insbesondere um Kameras, Radar-Sensoren, Lidar-Sensoren, Ultraschall-Sensoren oder dergleichen handeln.
-
Das Verfahren umfasst erfindungsgemäß eine Kombination eines Least Squares-Schätzverfahrens von mehreren Detektionen mit einer Orientierungsschätzung auf Basis der Hauptkomponentenanalyse, zusammen mit einer Abschätzung des Gierzentrums.
-
Die Gierrate wird erfindungsgemäß bestimmt durch Lösung einer überbestimmten Modellgleichung, welche die Bewegung des Zielobjektes abschätzt. Hierbei wird eine Modellgleichung verwendet, die als Unbekannte den Betrag der Zielobjektsgeschwindigkeit und die Gierrate des Zielobjekts enthält.
-
Die Modellgleichung wird erfindungsgemäß gelöst, indem N Detektionen bzw. Messpunkte der Sensordaten in die Modellgleichung eingesetzt werden, um ein Gleichungssystem mit zwei Unbekannten und N Gleichungen zu erhalten.
-
Das Gleichungssystem wird mit Hilfe eines Least-Square-Schätzverfahrens gelöst.
-
Die Sensordaten liegen beispielsweise als Punktwolke vor, die Orts- und Geschwindigkeitsinformationen von Zielen des Zielobjektes umfasst.
-
Das Abschätzen der Lage des Gierzentrums kann beispielsweise durch Abschätzung der Koordinaten des Clusterzentrums der Punkwolke erfolgen. Beispielsweise kann das Clusterzentrum als der Schwerpunkt der Punkwolke ermittelt werden.
-
Die Lage des Gierzentrums wird auch auf Basis einer Hauptkomponentenanalyse abgeschätzt. Die Ermittlung der Orientierung des Zielobjekts erfolgt mit einer Hauptkomponentenanalyse der dem Zielobjekt zugehörigen Detektionen, indem der Winkel der Hauptkomponenten ausgewertet wird.
-
Erfindungsgemäß wird die Lage des Gierzentrums als Mitte einer Hinterachse des Zielobjektes abgeschätzt.
-
Die Ausführungsbeispiele zeigen auch eine Auswertungseinheit mit einem Prozessor, der dazu ausgelegt ist, das hier beschrieben Verfahren durchzuführen. Bei dem Prozessor kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = central processing unit) handeln, die Programminstruktionen ausführt.
-
Das Verfahren kann beispielsweise als ein computer-implementiertes Verfahren realisiert werden, das von einem Prozessor einer Auswertungseinheit ausgeführt wird. Gegenstand ist somit auch ein Computerprogramm, welches die hier beschriebenen Verfahren ausführt.
-
Die Erfassung, Überprüfung und Verarbeitung, beispielsweise die Bestimmung der Gierrate erfolgt vorzugsweise in Echtzeit. Das heißt, die Bestimmung der Gierrate eines Zielobjekts auf Grundlage der Sensordaten beispielsweise eines hochauflösenden Radars erfolgt vorzugsweise instantan. Instantan bedeutet hier, dass die Schätzung der Gierrate innerhalb eines Messzyklus, also ohne Historieninformation, erfolgt.
-
Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen:
- 1 ein Blockdiagramm zeigt, das schematisch die Konfiguration eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt;
- 2 ein Blockdiagramm ist, das eine beispielhafte Konfiguration eines Steuergeräts für autonomes Fahren zeigt;
- 3 die von einem Radarsensor gemessenen Daten eines Fahrzeugs schematisch darstellt;
- 4 und 5 schematisch die schrittweise Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke zeigen;
- 6 in einem Flussdiagram die Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke schematisch darstellt; und
- 7 die Bestimmung der Gierrate eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke bei bereits bestimmtem Drehzentrum zeigt.
- 8 eine mögliche Modellgleichung zur Berechnung der Gierrate verdeutlicht.
-
1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt. Das Fahrzeug umfasst mehrere Komponenten, welche via eines Fahrzeugkommunikationsnetzwerks 28 miteinander verbunden sind. Das Fahrzeugkommunikationsnetzwerk 28 kann beispielsweise ein im Fahrzeug eingebautes standardgemäßes Fahrzeugkommunikationsnetzwerk wie etwa ein CAN-Bus (controller area network), ein LIN-Bus (local interconnect network), ein LAN-Bus (local area network), ein MOST-Bus und/oder ein FlexRay-Bus (registered trademark) oder dergleichen sein.
-
In dem in 1 dargestellten Beispiel umfasst das autonome Fahrzeug 1 eine Steuereinheit 12 (ECU 1). Diese Steuereinheit 12 steuert ein Lenksystem. Das Lenksystem bezieht sich dabei auf die Komponenten, die eine Richtungssteuerung des Fahrzeugs ermöglichen. Das autonome Fahrzeug 1 umfasst ferner eine Steuereinheit 14 (ECU 2), die ein Bremssystem steuert. Das Bremssystem bezieht sich dabei auf die Komponenten, die ein Bremsen des Fahrzeugs ermöglichen. Das autonome Fahrzeug 1 umfasst ferner eine Steuereinheit 16 (ECU 3), die einen Antriebsstrang steuert. Der Antriebsstrang bezieht sich dabei auf die Antriebskomponenten des Fahrzeugs. Der Antriebsstrang kann einen Motor, ein Getriebe, eine Antriebs-/Propellerwelle, ein Differential und einen Achsantrieb umfassen.
-
Das autonome Fahrzeug 1 umfasst ferner eine Steuereinheit für autonomes Fahren 18 (ECU 4). Die Steuereinheit für autonomes Fahren 18 ist dazu ausgelegt, das autonome Fahrzeug 1 so zu steuern, dass dieses ganz oder teilweise ohne Einfluss eines menschlichen Fahrers im Straßenverkehr agieren kann. Die Steuereinheit für autonomes Fahren 18, die in 2 und der zugehörigen Beschreibung näher beschrieben ist, steuert ein oder mehrere Fahrzeugsubsysteme während das Fahrzeug im autonomen Modus betrieben wird, nämlich das Bremssystem 14, das Lenksystem 12 und das Antriebssystem 14. Hierfür kann die Steuereinheit für autonomes Fahren 18 beispielsweise über das Fahrzeugkommunikationsnetzwerk 28 mit den entsprechenden Steuereinheiten 12, 14 und 16 kommunizieren.
-
Das Fahrzeug umfasst ferner ein oder mehrere Sensoren 26, welche dazu ausgelegt sind, das Umfeld des Fahrzeugs zu erfassen, wobei die Sensoren am Fahrzeug montiert sind und Bilder des Umfelds des Fahrzeugs erfassen, oder Objekte oder Zustände im Umfeld des Fahrzeugs erkennen. Die Umfeldsensoren 26 umfassen insbesondere Kameras, Radar-Sensoren, Lidar-Sensoren, Ultraschall-Sensoren oder dergleichen. Die Umfeldsensoren 26 können innerhalb des Fahrzeugs oder außerhalb des Fahrzeugs (z. B. an der Außenseite des Fahrzeugs) angeordnet sein.
-
Beispielsweise kann eine Kamera in einem vorderen Bereich des Fahrzeugs zur Aufnahme von Bildern eines vor dem Fahrzeug befindlichen Bereichs vorgesehen sein.
-
Die Fahrzeugsensorik des Fahrzeugs umfasst ferner eine Satellitennavigationseinheit 24 (GPS/GNSS-Einheit). Es sei darauf hingewiesen, dass im Kontext der vorliegenden Erfindung GPS/GNSS stellvertretend für sämtliche Globale Navigationssatellitensysteme (GNSS) steht, wie z.B. GPS, A-GPS, Galileo, GLONASS (Russland), Compass (China), IRNSS (Indien) und dergleichen.
-
Das Fahrzeug umfasst ferner eine Benutzerschnittstelle 32 (HMI = Human-Machine-Interface), die einem Fahrzeuginsassen ermöglicht, mit einem oder mehreren Fahrzeugsystemen in Interaktion zu stehen. Diese Benutzerschnittstelle 32 (beispielsweise eine GUI = graphical user interface) kann eine elektronische Anzeige zum Ausgeben einer Graphik, von Symbolen und/oder Inhalt in Text-form, und eine Eingabeschnittstelle zum Empfangen einer Eingabe (beispielsweise manuelle Eingabe, Spracheingabe und Eingabe durch Gesten, Kopf- oder Augen-bewegungen) umfassen. Die Eingabeschnittstelle kann beispielsweise Tastaturen, Schalter, berührungsempfindliche Bildschirme (Touchscreen), Eye-Tracker und dergleichen umfassen.
-
Wenn steuerungsseitig oder fahrerseitig ein Betriebszustand für das autonome Fahren aktiviert ist, bestimmt die Steuereinheit für autonomes Fahren 18, auf Grundlage von zur Verfügung stehenden Daten über eine vorgegebene Fahrtstrecke, von Umweltsensoren aufgenommenen Umgebungsdaten, sowie von mittels den Fahrzeugsensoren erfassten Fahrzeugbetriebsparametern, die der Steuereinheit 18 von den Steuereinheiten 12, 14 und 16 zugeleitet werden, Parameter für den autonomen Betrieb des Fahrzeugs (beispielsweise Soll-Geschwindigkeit, Soll-Moment, Abstand zum Vorausfahrzeug, Abstand zum Fahrbahnrand, Lenkvorgang und dergleichen). Beispielsweise ist die Steuereinheit für autonomes Fahren 18 dazu ausgelegt den Fahrweg umliegender Fahrzeuge, beispielsweise von Fahrzeugen anderer Verkehrsteilnehmer zu analysieren und einzuschätzen.
-
2 zeigt ein Blockdiagramm, das eine beispielhafte Konfiguration einer Steuereinheit für autonomes Fahren 18 (ECU 4) darstellt. Bei der Steuereinheit für autonomes Fahren 18 kann es sich beispielsweise um ein Steuergerät (electronic control unit ECU oder electronic control module ECM) handeln. Die Steuereinheit für autonomes Fahren 18 (ECU 4) umfasst einen Prozessor 40. Bei dem Prozessor 40 kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = central processing unit) handeln, die Programminstruktionen ausführt. Der Prozessor der Steuereinheit für autonomes Fahren 18 ist dazu ausgelegt, beim Fahren hinter einem Vorausfahrzeug je nach geplantem Fahrmanöver, basierend auf den Informationen des sensorbasierten Umfeldmodells, eine optimale Fahrposition (Folgeabstand, Lateralversatz) unter Berücksichtigung des zulässigen Fahrspurbereichs zu berechnen. Die errechnete optimale Fahrposition wird zur Steuerung von Aktuatoren der Fahrzeugsubsysteme 12, 14 und 16, beispielsweise von Brems-, Antriebs- und/oder Lenkaktuatoren, verwendet. Die Steuereinheit für autonomes Fahren 18 umfasst ferner einen Speicher und eine Eingabe/ Ausgabe-Schnittstelle. Der Speicher kann aus einem oder mehreren nichtflüchtigen computerlesbaren Medien bestehen und umfasst mindestens einen Programmspeicherbereich und einen Datenspeicherbereich. Der Programmspeicherbereich und der Datenspeicherbereich können Kombinationen von verschiedenen Arten von Speicher umfassen, beispielsweise von einem Nur-Lese-Speicher 43 (ROM = Read-only memory) und einem Direktzugriffsspeicher 42 (RAM = Random Access Memory) (z. B. dynamischer RAM („DRAM“), synchron DRAM („SDRAM“) usw.). Ferner kann die Steuereinheit für autonomes Fahren 18 ein externes Speicherlaufwerk 44, wie beispielsweise ein externes Festplattenlaufwerk (hard disk drive: HDD), ein Flashspeicher-Laufwerk oder ein nicht flüchtiges Festkörperlaufwerk (solid state drive: SSD) umfassen. Die Steuereinheit für autonomes Fahren 18 umfasst ferner eine Kommunikationsschnittstelle 45, über welche die Steuereinheit mit dem Fahrzeugkommunikationsnetzwerk (28 in 2) kommunizieren kann.
-
3 zeigt schematisch die von einem Umgebungssensor 26 gemessenen Daten eines Fahrzeugs. Als Umgebungssensor 26 wird beispielsweise ein hochauflösender Radar verwendet, der für ein Zielobjekt mehrere Detektionen P1 bis PN („Ziele“) generiert, die mittel dem Fachmann bekannten Verfahren einem Zielobjekt zugeschrieben werden können. Im Folgenden werden die Prinzipien der Erfindung anhand eines Radarsensors beschrieben. Diese Prinzipien lassen sich allerdings genauso für Daten von anderen Sensortypen, wie beispielsweise ToF-, Lidar-, Ultraschall- oder Kamerasensoren anwenden. Bei dem Zielobjekt handelt es sich hier beispielsweise um ein Fahrzeug 50 mit Hinterachse 51. Das Radar ist in der Lage, die Position der Detektionen P1 bis PN beispielsweise in einem Polarkoordinatensystem (Abstand ri und Azimutwinkel θi) zu bestimmen, sowie die Radialgeschwindigkeit vr,i der Detektionen zu erfassen. Dadurch ist die radiale Geschwindigkeitsverteilung vr,i an verschiedenen Ortspunkten des Zielobjekts P1 bis PN für einen gegebenen Messzeitpunkt bekannt. Bei einer reinen Translationsbewegung stimmt der gemessene Geschwindigkeitsvektor vi an dem gegebenen Messpunkt Pi in Betrag und Phase mit der mittleren Zielobjektgeschwindigkeit v' = Mittelwert (vi) überein. Für diese Situationen sind Verfahren bekannt, um aus den gemessenen Radardetektionen den Objektgeschwindigkeitsvektor vi zu bestimmen, auf die an dieser Stelle nicht näher eingegangen wird.
-
Eine zusätzliche Rotation des Zielobjekts um das Rotationszentrum (im realen Umfeld oft gegeben, beispielsweise bei einer Kurvenfahrt) mit einer Gierrate ω führt zu einer Überlagerung der mittleren Zielobjektgeschwindigkeit v' mit dem Geschwindigkeitsanteil vθ,i der durch die Rotation des Zielobjekts verursacht wird. Die Superposition dieser Geschwindigkeitskomponenten beeinflusst die radiale Geschwindigkeitsverteilung vr,i, die vom Sensor erfasst wird. Durch die zusätzlichen unbekannten Grö-ßen (Gierrate ω, Rotationszentrum) ist eine allgemeine Bestimmung der Fahrzeugkinematik in einem einzigen Zyklus nicht mehr sinnvoll durchführbar. Aus diesem Grund nutzt das folgende Verfahren einige Annahmen über die Form und Funktionalität von Fahrzeugen, um das mathematische Problem der Bestimmung der Gierrate aus den gemessenen Sensordaten zu vereinfachen.
-
Setzt man zur Beschreibung der Kinematik des Zielobjekts ein Einspurmodell mit Vorderachslenkung voraus (klassisches Fahrzeug), lässt sich der Referenzpunkt, um den das Fahrzeug rotiert, durch das Zentrum der Hinterachse genau beschreiben. Dieser Referenzpunkt wird im Folgenden als Drehzentrum 64 bezeichnet.
-
4 und 5 zeigen schematisch die schrittweise Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke (auch „Detektionen“, oder „Ziele“ genannt). Da für ein Zielobjekt mehrere räumlich verteilte Detektionen vorhanden sind, kann die geometrische Ausdehnung und auch die Orientierung des Zielobjekts bestimmt werden. Die Ermittlung der Orientierung des Zielobjekts erfolgt beispielsweise mit einer Hauptkomponentenanalyse der dem Zielobjekt zugehörigen Detektionen, indem der Winkel der Hauptkomponenten ausgewertet wird.
-
In 4 detektiert ein Umgebungssensor 26, beispielsweise ein Radarsensor, in seinem Sichtfeld 260 ein Zielobjekt als Punktwolke. Die Punktwolke besteht aus einzelnen Detektionen, welche aus Abstandsmessungen und Richtungsmessungen im Sichtbereich des Sensors ermittelt werden. Die Punktwolke bzw. die einzelnen Detektionen enthalten neben Abstands- (Ort) auch (Relativ-)Geschwindigkeitsinformationen. Daher kann die geometrische Ausdehnung und somit auch die Orientierung des Zielobjekts, in diesem Fall das Fahrzeug 50, bestimmt werden. Zu diesem Zweck werden erfindungsgemäß die zueinander orthogonal stehenden Hauptkomponenten 61 und 62 aus der Punktewolke mittels Hauptkomponentenanalyse bestimmt. Algorithmen zu diesem Zweck sind aus dem Stand der Technik hinlänglich bekannt. Ferner kann aus der Punktewolke auch auf die geometrische Ausdehnung des Zielobjekts rückgeschlossen werden. 4 zeigt diesbezüglich, wie erfindungsgemäß mittels Least Square oder einem anderen Fehlerfunktions-Minimalisierungsverfahren ein Rechteck 60 in die Punktwolke gefittet wird. Dieses Rechteck 60 wird an dieser Stelle als vereinfachte Form des Zielobjektes benutzt und nutzt das Wissen aus, dass es sich bei dem Zielobjekt um ein Fahrzeug 50 handelt, dessen Form als Rechteck angenähert werden kann.
-
Das Rechteck wird unter der Hilfsbedingung an die Punktwolke gefittet, dass die jeweiligen Rechteckseiten a und b orthogonal auf den Hauptkomponenten 61 und 62 stehen. Anschließend wird eine Fehlerfunktion f bestimmt, wobei f die jeweils kürzesten Abstände zwischen einem Punkt Pi und dem Rechteck 60 aufsummiert und diese Funktion mittels Least-Square-Verfahrens minimiert.
-
5. zeigt das berechnete Rechteck 60 mit Seitenlängen a und b inklusive Hauptkompnenten 61 und 62 ohne die vom Radarsensor bestimmte Punktwolke. Sobald das Rechteck 60 bestimmt ist, kann die Lage der Hinterachse 63 näherungsweise geschätzt werden. Erfindungsgemäß wird der Ort der Hinterachse 63 dadurch abgeschätzt, dass die Hinterachse 63 als parallel zum Heck des Fahrzeugs im Abstand L angenommen wird. Der Abstand L wird im Vorfeld eingestellt als L = 0,2 - max {a,b}. Das Heck des Fahrzeugs wird aus den Seitenlängen a und b des Rechtecks 60 und dem mittleren Geschwindigkeitsvektor v' des Fahrzeugs bestimmt. Da Fahrzeuge länger als breit sind, kommt als Heck nur eine der beiden kürzeren Seiten in Betracht. Zunächst wird also bestimmt, ob a oder b kürzer ist. Nun wird angenommen, dass das Fahrzeug vorwärts fährt. In diesem Fall kann angenommen werden, dass das Heck die Seite ist, die sich in der entgegengesetzten Richtung zur mittleren Geschwindigkeit v' der Punktwolke befindet. Ist das Heck auf diese Weise bestimmt, wird Ort und Orientierung der Hinterachse 63 abgeschätzt. Nun wird als weitere Annahme verwendet, dass das Drehzentrum 64 des Zielobjekts sich in der Mitte der Hinterachse 63 befindet. Auf diese Art wird der Ort der Drehachse 64 ausreichend eingeschätzt um mit der weiteren Gierratenbestimmung fortzufahren.
-
Simulationen haben bestätigt, dass die Position des Rotationszentrums nicht exakt bekannt sein muss, um eine robuste Gierratenschätzung zu erhalten. Für die Bestimmung des Rotationszentrums 64 kann deshalb alternativ auch eine Abschätzung über die Koordinaten des Clusterzentrums der Punkwolke herangezogen werden, was für die hier Beschriebene Bestimmung der Gierrate bereits ausreichend ist. Das Verwenden des Clusterzentrums als Gierzentrum ist im Vergleich zur Berechnung der Hinterachse weniger Rechenzeit-aufwändig.
-
6 zeigt in einem Flussdiagram die Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke. Das Verfahren wird beispielsweise von einer Sensorauswertungseinheit ausgeführt, wie beispielsweise einer Steuereinheit für autonomes Fahren (18 in
1) oder dergleichen ausgeführt. In einem ersten Schritt S60 werden die zueinander orthogonalen Hauptkomponenten 61 und 62 aus der Punktwolke des Radar-Sensors mittels Hauptkomponentenanalyse bestimmt. In einem Zwischenschritt S61 wird aus den Hauptkomponenten 61 und 62 ein Winkel φ bestimmt (siehe
8), der die relative Orientierung des Fahrzeugs zum Sensor 26 angibt. In einem nächsten Schritt S62 werden die Rechteckslängen a und b anhand der Punktwolke und der Hauptkomponenten bestimmt. Hierzu wird das wissen ausgenutzt, dass sich a und b orthogonal zu ihrer jeweiligen Hauptkomponente befinden und anschließend die Fehlerfunktion f mittels Least-Square-Verfahren oder einem anderen Fehlerfunktons-Minimierungsverfahrens minimiert, sodass die beiden a und b bestimmt werden, für die die Fehlerfunktion f minimal wird. Hierbei kann die Fehlerfunktion f erfindungsgemäß wie folgt ausgedrückt
als die Summe über alle minimalen Abstände zwischen einem Messpunkt P
i und dem Rechteck 60 repräsentiert durch die Funktion R(a,b). Anschließend wir in einem Schritt S63 aus den Punktgeschwindigkeiten vi der Punktwolke die mittlere Fahrzeuggeschwindigkeit v` bestimmt. Hierbei gilt:
wobei N die Anzahl der Punkte der Punktwolke ist. In einem nächsten Schritt S64 wird das Heck des Fahrzeugs aus der Richtung der mittleren Geschwindigkeit v' und den Rechtecksseitenlängen a und b bestimmt, wobei das Wissen ausgenutzt wird, dass nur die kürze Rechtecksseitenlänge min(a,b) als Heck in Frage kommt und angenommen wird, dass das Fahrzeug vorwärts fährt, das Heck folglich die Rechtecksseitenlänge ist, die sich in der entgegengesetzten Richtung der mittleren Geschwindigkeit v' befindet. In einem nächsten Schritt S65 werden Lage und Orientierung der Hinterachse 63 als parallel zum Heck und im Abstand L = 0,2 - max {a, b} abgeschätzt. In einem letzten Schritt S66 wird nun das Drehzentrum 64 als in der Mitte der Hinterachse 63 befindlich abgeschätzt. Auf diese Art ist nun der Ort des Drehzentrums 64 ausreichend bekannt, um zu einer robusten Abschätzung der Gierrate zu gelangen.
-
7 zeigt die Bestimmung der Gierrate eines girierenden Fahrzeugs aus einer von einem Radarsensor bereitgestellten Punktwolke bei bereits bestimmtem Drehzentrum. Das Verfahren wird beispielsweise von einer Sensorauswertungseinheit ausgeführt, wie beispielsweise einer Steuereinheit für autonomes Fahren (18 in 1) oder dergleichen. In einem ersten Schritt S71 wird zunächst die Punktwolke empfangen, die von einem Sensor geliefert wird und die Messdaten dieses Sensors repräsentiert.
-
Der Sensor kann ein Radar, ein Lidar oder auch ein Kamerasensor sein. Die Punktwolke besteht aus Abstandsmessungen eines detektierten Objekts im Sichtbereich des Sensors. Die Punktwolke enthält neben Abstands- (Ort) auch (Relativ-)Geschwindigkeitsinformationen. In einem zweiten Schritt S72 wird das Drehzentrum des Objekts aus der Punktwolke bestimmt. Dazu wird erfindungsgemäß das in 6 beschriebene Verfahren angewandt. Gemäß dem Verfahren der 6 wird die Zielobjektorientierung durch Hauptkomponentenanalyse ermittelt. In einer anderen Variante kann die Zielobjektorientierung an Stelle der Hauptkomponentanalyse aus einer anderen Quelle bezogen werden. Dies kann mit Hilfe eines anderen Sensors in einem Fusionssytem bestimmt werden (z.B. Lidar oder Kamera). Oder aber durch Verwendung von a priori Wissen (z.B. Querverkehr an der Kreuzung). In einem dritten Schritt S73 werden die Punkte P1 bis PN der Punktwolke in eine Modellgleichung eingesetzt, die die zwei Unbekannten Betrag der Zielobjektgeschwindigkeit v und Gierrate ω enthält. Die Modellgleichung beschreibt hierbei typischerweise das Bewegungsverhaltens eines Fahrzeugs, das wiederum als Rechteck mit den Seitenlängen a und b genähert wird. Die Modellgleichung ist mit zwei Unbekannten und N > 2 Messpunkten überbestimmt. Daher wird die Modellgleichung für mehrere Detektionen aus einem Messzyklus ausgewertet, was ein überbestimmtes Gleichungssystem mit zwei Unbekannten und N Gleichungen zur Folge hat, wobei N für die Anzahl der betrachteten Detektionen (Punkte der Punktwolke) steht. Dieses Gleichungssystem wird mit einem Least-Squares-Schätzverfahren gelöst und man erhält eine Schätzung der Gierrate ω und des Betrags des Geschwindigkeitsvektors v. In einem vierten Schritt S74 wird nun die berechnete Gierrate ω ausgeben, sodass andere Systeme des Fahrzeugs, zum Beispiel ein Einpark-, Brems- oder Fahrassistent diese für ihre Funktion verwenden können.
-
Da für ein Zielobjekt mehrere räumlich verteilte Detektionen vorhanden sind, kann die geometrische Ausdehnung und somit auch die Orientierung des Zielobjekts bestimmt werden. Die Ermittlung der Orientierung des Zielobjekts erfolgt beispielsweise mit einer Hauptkomponentenanalyse der dem Zielobjekt zugehörigen Detektionen, indem der Winkel der Hauptkomponenten ausgewertet wird. Für die Bestimmung des Rotationszentrums wird die Annahme getroffen, dass eine Abschätzung über die Koordinaten des Clusterzentrums ausreichend ist. Simulationen haben bestätigt, dass die Position des Rotationszentrums nicht exakt bekannt sein muss, um eine robuste Gierratenschätzung zu erhalten. Es verbleiben zwei Unbekannte (Betrag der Zielobjektgeschwindigkeit und Gierrate) für eine Modellgleichung, somit ist die Gleichung unterbestimmt. Daher wird die Modellgleichung für mehrere Detektionen aus einem Messzyklus ausgewertet, was ein überbestimmtes Gleichungssystem mit zwei Unbekannten und N Gleichungen zur Folge hat, wobei N für die Anzahl der betrachteten Detektionen steht. Dieses Gleichungssystem wird mit einem Least-Squares-Schätzverfahren gelöst und man erhält eine Schätzung der Gierrate und des Betrags des Geschwindigkeitsvektors.
-
Die Ausführungsbeispiele zeigen somit eine Kombination eines Least Squares-Schätzverfahrens von mehreren Detektionen mit einer Orientierungsschätzung auf Basis der Hauptkomponentenanalyse, zusammen mit einer Abschätzung des Rotationszentrums. Dadurch kann der Geschwindigkeitsbetrag und die Gierrate des Objekts innerhalb eines Messzyklus mit nur einem Radarsensor ausgewertet werden. Bisher beschriebene Verfahren sind zur Gierratenschätzung eines Zielobjekts in einem Messzyklus auf mindestens zwei Radarsensoren angewiesen, oder benötigen bei Verwendung von einem Radarsensor mehrere Messzyklen um die Gierrate zu bestimmen.
-
8 veranschaulicht eine Modellgleichung, wie sie in 7 verwendet wurde, um die Gierrate ω abzuschätzen.
-
Eine Modellgleichung zur Beschreibung der Bewegung, insbesondere der Drehung eines Fahrzeugs 10, die verwendet werden kann, um die Gierrate zu schätzen, wie in Schritt S73 der
7 beschrieben, lautet beispielsweise:
-
Hierbei bezeichnen die einzelnen Variablen folgende physikalische Größen, wie in 8 dargestellt: θ, r und vD bezeichnen den vom Sensor 26 gemessenen Winkel, Abstand und Radialgeschwindigkeit einer Detektion (vgl. 3). φ bezeichnet den mittels Hauptachsentransformation ermittelten Orientierungswinkel des Fahrzeugs 10 relativ zum Sensor 26 (vgl. Schritt S61 in 6). xR und yR bezeichnen die Koordinaten des Gierzentrums 64 (wie beispielsweise gemäß dem Verfahren der 6 ermittelt), ω bezeichnet die gesuchte Gierrate des Fahrzeugs und v die Lineargeschwindigkeit des Fahrzeugs 10, die vom Sensor 26 gemessene Radialgeschwindigkeit des Fahrzeugs 10.
-
Die Punktwolke ℘ die der Sensor liefert besteht aus N Detektionen mit mindestens den Einträgen r
i, v
D,i und θ
i:
-
Die Werte xR und yR (Koordinaten des Gierzentrums 6) und der Orientierungswinkel φ wurden aus der Hauptkomponentenanalyse (siehe 4 bis 6) bestimmt. Somit verbleiben nur die Lineargeschwindigkeit v und die Gierrate ω als unbekannte Grö-ßen der Modellgleichung.
-
Gleichung (1) kann als Skalarprodukt zweier Vektoren dargestellt werden, wobei der zweite Vektor die Unbekannten v und ω enthält:
-
Gleichung (2) kann nun auf jedes Element der Punktwolke P
i ∈ ℘ angewendet werden, sodass ein Gleichungssystem mit N Gleichungen entsteht. Dieses kann als Vektorgleichung mit den Vektoren
und
sowie der Matrix X dargestellt werden:
-
Durch Invertieren der Matrix X kann Gleichung (3) nach
umgestellt werden. Für die Least-Square-Verfahrensschätzung empfiehlt sich eine weitere Transposition von X, (3) sodass eine weitere Gleichung erhalten wird:
-
Da das Gleichungssystem überbestimmt ist, kann, wie bereits weiter oben erwähnt,
und damit v und ω mittels Least-Square-Schätzverfahren aus Gleichung (4) bestimmt/geschätzt werden.