[go: up one dir, main page]

DE102008026397A1 - Radar-, Lidar- und Kamera-unterstützte Verfahren zur Schätzung der Fahrzeugdynamik - Google Patents

Radar-, Lidar- und Kamera-unterstützte Verfahren zur Schätzung der Fahrzeugdynamik Download PDF

Info

Publication number
DE102008026397A1
DE102008026397A1 DE102008026397A DE102008026397A DE102008026397A1 DE 102008026397 A1 DE102008026397 A1 DE 102008026397A1 DE 102008026397 A DE102008026397 A DE 102008026397A DE 102008026397 A DE102008026397 A DE 102008026397A DE 102008026397 A1 DE102008026397 A1 DE 102008026397A1
Authority
DE
Germany
Prior art keywords
vehicle
signals
longitudinal
sensors
lateral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102008026397A
Other languages
English (en)
Other versions
DE102008026397B4 (de
Inventor
Shuqing Sterling Heights Zeng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102008026397A1 publication Critical patent/DE102008026397A1/de
Application granted granted Critical
Publication of DE102008026397B4 publication Critical patent/DE102008026397B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/107Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/60Velocity or trajectory determination systems; Sense-of-movement determination systems wherein the transmitter and receiver are mounted on the moving object, e.g. for determining ground speed, drift angle, ground track
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • B60W2050/0031Mathematical model of the vehicle
    • B60W2050/0033Single-track, 2D vehicle model, i.e. two-wheel bicycle model
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Ein System zur Schätzung der Fahrzeugdynamik, die die Fahrzeugposition und die Fahrzeuggeschwindigkeit umfasst, anhand eines stationären Objekts. Das System umfasst einen Objektsensor, der Objektsignale des stationären Objekts liefert. Das System umfasst außerdem fahrzeugseitige Sensoren, die Signale liefern, die die Fahrzeugbewegung repräsentieren. Das System umfasst außerdem einen Zuordnungsprozessor, der Objektsignale empfängt und die Objektverfolgung durch mehrere Datenrahmen versieht. Das System umfasst außerdem einen Längszustandsschätzprozessor, der die Objektsignale und die Sensorsignale empfängt und eine Korrektur der Fahrzeuggeschwindigkeit in Vorwärtsrichtung liefert. Das System umfasst außerdem einen Querzustandsschätzprozessor, der die Objektsignale und die Sensorsignale empfängt und einer Korrektur der Fahrzeuggeschwindigkeit in Querrichtung liefert.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Diese Erfindung bezieht sich allgemein auf ein System und ein Verfahren zum Bestimmen der Fahrzeugdynamik und insbesondere auf ein System und ein Verfahren zum Bestimmen der Fahrzeuggeschwindigkeit und der Fahrzeugposition, die Radar-, Lidar- und/oder Kamerasignale verwenden.
  • 2. Diskussion des Standes der Technik
  • Verschiedene Fahrerunterstützungssysteme und autonome Fahr- bzw. Steuervorgänge bei Fahrzeugen, wie beispielsweise elektronische Stabilitätssteuerung (electronic stability control, ECS), adaptive automatische Geschwindigkeitsregelung (adaptive cruise control, ACC), Spurhaltung (lane keeping, LK), Spurwechsel (lane changing, LC) usw., erfordern die Entwicklung äußerst robuster und genauer Module zum Schätzen verschiedener fahrzeugdynamischer Größen. Solche Module sind notwendig, um zum Steuern des Fahrzeugs einhergehend mit einem gewünschten Zustand die Kenntnis der Fahrzeugposition und der Fahrzeuggeschwindigkeit zu verschaffen.
  • Gegenwärtig werden auf einem mikroelektromechanischen System (MEMS) basierende Trägheitsmesseinheiten (inertial measurement units, IMUs) und Radgeschwindigkeits- bzw. Raddrehzahlsensoren verwendet, um die Fahrzeuggeschwindigkeit zu liefern. Jedoch ist die Leistung von Radgeschwindigkeitssensoren während Radschlupfzuständen wie etwa dann, wenn der Fahrer um die Kurve fährt oder Ausweichmanöver unternimmt, reduziert. Daher wird zu diesen Zeiten eine Koppelnavigationsstrategie für eine IMU angewandt, um die Geschwindigkeit und die Position des Fahrzeugs zu erzeugen. Da MEMS-IMUs gewöhnlich größere Fehler als teure Gyroskopsysteme besitzen, können Fehler hinsichtlich der Position und der Geschwindigkeit schnell anwachsen. Demgemäß sind gegenwärtige MEMS-IMUs der Kraftfahrzeug-Güteklasse (automotive-grade) allein im Allgemeinen nicht für längere Zeitperioden zur Koppelnavigation geeignet.
  • Auf dem Fachgebiet ist vorgeschlagen worden, GPS und ein kostengünstiges MEMS-IMU zu integrieren, um sich dem Problem einer systematischen Messabweichung und Drift ungleich null zuzuwenden. Jedoch wenden sich wenige dieser Systeme dem Problem zu, dass die GPS-Signale wie etwa dann, wenn sich das Fahrzeug in "städtischen Schluchten" befindet, in denen eine zum Bestimmen der Position und der Geschwindigkeit des Fahrzeugs unzureichende Anzahl von Satelliten verfolgt wird, nicht immer verfügbar sind.
  • Künftige weiterentwickelte Fahrerunterstützungssysteme (advanced driver assist systems, ADS) für Fahrzeuge werden verschiedene Objekterfassungssensoren wie etwa Radar- und Lidarsensoren für den Fernbereich oder Ultraschall-Parkhilfesensoren umfassen. Ferner werden gegenwärtig Kamera-basierte Systeme für Spurabweichungswarnung entwickelt. Demgemäß ist das Interesse daran, zum Schätzen der Fahrzeugeigenbewegung Daten von diesen Vorrichtungen zu verwenden, gestiegen. Beispielsweise schlägt ein System vor, eine im Fahrzeug angebrachte Kalibrierkamera zu verwenden, um die Eigenbewegung zu schätzen und sich bewegende Ob jekte auf Straßen zu erfassen. Ein weiteres vorgeschlagenes System verwendet eine einzelne Kamera zum Berechnen der Eigenbewegung des Fahrzeugs auf Grundlage des Lichtflusses. Eine weitere Arbeit beinhaltet die Anwendung von Stereosehen auf das Problem der Schätzung der Eigenlage in städtischen Umgebungen. Jedoch ist bei vollgestopften Szenen (cluttered scenes) keiner dieser Lösungswege zuverlässig genug. Ferner machen wenige dieser Systeme den wesentlichen Bedarf an einer Systemintegration, die bei der künftigen technischen Entwicklung dieser Technologie notwendig ist, deutlich.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In Übereinstimmung mit den Lehren der vorliegenden Erfindung werden ein System und ein Verfahren offenbart, die die Fahrzeugdynamik, die die Fahrzeugposition und die Fahrzeuggeschwindigkeit umfasst, anhand eines stationären Objekts schätzen. Das System umfasst einen Objektsensor wie etwa ein Radar, ein Lidar oder eine Kamera, die Objektsignale des stationären Objekts liefern. Das System umfasst außerdem fahrzeugseitige Sensoren, die Signale, die die Fahrzeugbewegung repräsentieren, wie etwa den Lenkradwinkel, die Giergeschwindigkeit, die Längsgeschwindigkeit, die Längsbeschleunigung und die Querbeschleunigung liefern. Das System umfasst außerdem einen Zuordnungsprozessor, der die Objektsignale empfängt und die Objektverfolgung durch mehrere Datenrahmen versieht. Das System umfasst außerdem einen Längszustandsschätzprozessor, der die Objektsignale und die Sensorsignale empfängt und eine Korrektur der Fahrzeuggeschwindigkeit in Vorwärtsrichtung liefert. Das System umfasst außerdem einen Querzustandsschätzprozessor, der die Objektsignale und die Sensorsignale empfängt und eine Korrektur der Fahrzeuggeschwindigkeit in Querrichtung liefert.
  • Weitere Merkmale der vorliegenden Erfindung werden deutlich aus der folgenden Beschreibung und den angehängten Ansprüchen, wenn diese in Verbindung mit den begleitenden Zeichnungen aufgenommen werden.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockschaltplan eines Systems zum Bestimmen von Fahrzeugzustandsschätzwerten unter Verwendung von Objektsensoren gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 ist eine Draufsicht, die die Fahrzeug-Eigenbewegung anhand von Spuren von einem stationären Radar zeigt;
  • 3 ist eine Darstellung eines Fahrradmodells, das Parameter für das Fahrverhalten des Fahrzeugs identifiziert; und
  • 4 ist eine Draufsicht eines Fahrzeug-Koordinatensystems.
  • GENAUE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die folgende Besprechung der Ausführungsformen der Erfindung, die auf ein System und ein Verfahren zum Schätzen der Fahrzeugdynamik anhand von Radar-, Lidar- und/oder Kamerasignalen gerichtet ist, ist dem Wesen nach rein beispielhaft, wobei keineswegs beabsichtigt ist, die Erfindung oder deren Anwendungen oder Verwendungen zu beschränken.
  • Wie nachstehend ausführlich besprochen wird, schlägt die vorliegende Erfindung ein integriertes System vor, das kostengünstige MEMS-IMUs und andere fahrzeugseitige dynamische Sensoren verwendet, um mittels unterstützender Sensoren wie etwa Radar-, Lidar- und Sichtsystemen oder Kombinationen davon die Fahrzeugdynamikschätzwerte in Echtzeit zu korrigieren. Dies ermöglicht entweder eine verbesserte Leistung von vorhandenen Sensoren oder dieselbe Leistung von kleineren und preiswerteren Sensoren.
  • 1 ist ein Blockschaltplan eines Systems 10, das Fahrzeugzustandsschätzwerte wie etwa die Fahrzeugposition und die Fahrzeuggeschwindigkeit liefert, gemäß einer Ausführungsform der vorliegenden Erfindung. Das System 10 umfasst einen oder mehrere Objektsensoren 12 wie etwa Radar-, Lidar- und Sichtsysteme, Kameras usw., die an dem Fahrzeug verfügbar sein können, um Signale zu liefern, die Objekte außerhalb des Fahrzeugs verfolgen. Die Signale von den Sensoren 12 werden zu einem Zuordnungsprozessor 14 geschickt, der zum Verfolgen der Objekte die Abbildungen oder Bilder von den Signalen von aufeinander folgenden Ansichten abstimmt. Die Spuren von dem Zuordnungsprozessor 14 werden zu einem Längszustandsschätzprozessor 16, der die Fahrzeuggeschwindigkeit in Vorwärtsrichtung schätzt, und einem Querzustandsschätzprozessor 18, der die Fahrzeuggeschwindigkeit in Querrichtung als ein Ergebnis der Giergeschwindigkeit und des Schwimmwinkels bzw. Seitenschlupfwinkels schätzt, geschickt. Die Prozessoren 16 und 18 empfangen außerdem Signale von fahrzeugseitigen Sensoren 20 wie etwa einem Lenkradwinkelsensor, einem Giergeschwindigkeitssensor, einem Längsgeschwindigkeitssensor, einem Längsbeschleunigungssensor, einem Querbeschleunigungssensor usw., die alle Fachleuten auf dem Gebiet als Teil der verschiedenen Fahrzeugstabilitätssteuerungs- und Fahrerunterstützungssysteme, auf die oben hingewiesen wurde, bekannt sind.
  • Die Objektsensoren 12 bestimmen die Eigenbewegung des Fahrzeugs aus der Messung stationärer Objekte. 2 ist eine Draufsicht eines Fahrzeugs 26, das einen Radarsensor 28 umfasst, der ein stationäres Objekt 30 wie etwa einen Baum verfolgt. Der Radarsensor 28 ist am Schwerpunkt (center of gravity, CG) des Fahrzeugrahmens angebracht und in die Richtung der Fahrzeugfahrt gerichtet. Aus den Radarsignalen können wie folgt Fahrzeuggeschwindigkeiten berechnet werden: υx = –(x' – x)/ΔT (1) υy = –(y' – y)/ΔT (2) r = –(ϑ' – ϑ)/ΔT, (3)wobei die Größen (x, y) und (x', y') die Positionen des stationären Objekts 30 zur Zeit t bzw. t + Δt sind und υx, υy und r die Längsgeschwindigkeit, die Quergeschwindigkeit bzw. die Giergeschwindigkeit des Fahrzeugs 26 sind.
  • Die Entfernungsberechnungen, auf die oben hingewiesen wurde, können anhand eines in 3 gezeigten Fahrradmodells eines Fahrzeugs 32 erweitert werden, um eine Positionsverfolgung in dem Zuordnungsprozessor 14 bereitzustellen. Ein Entfernungssensor 34 ist an der Position (x0, y0, θ0) an dem Fahrzeug angebracht und weist in Vorwärtsrichtung. Die Bezeichnungen bei dem Fahrradmodell lauten:
  • a:
    Abstand von der Vorderradachse zum Fahrzeug-Schwerpunkt (CG);
    b:
    Abstand von der Hinterradachse zum Fahrzeug-CG;
    m:
    Fahrzeugmasse;
    Iz:
    träge Masse des Fahrzeugs längs der z-Achse;
    δ:
    Frontlaufradwinkel;
    l:
    Fahrzeug-Giergeschwindigkeit;
    u:
    Fahrzeug-Längsgeschwindigkeit; und
    υ:
    Fahrzeug-Quergeschwindigkeit.
  • Die Radarausgabe ist eine Liste von Objekten {oi| i = 1, ..., K} zur Zeit t. Die Messung des i-ten Objekts oi enthält die Entfernung ρ, die Entfernungsgeschwindigkeit ρ . und den Azimutwinkel ϑ. Gewöhnlich ist das Gesichtsfeld eines Fernbereichsradars schmal, beispielsweise 15°, weshalb jedes erfasste Objekt vor dem Fahrzeug auf der x-Achse liegt. Die folgende Gleichung (4) kann dazu verwendet werden, zu bestimmen, ob das Objekt stationär ist. |ṙcosϑ – υx| < T (4)
  • Die Fahrzeugdynamik kann durch einen Zustandsvektor z dargestellt werden, dessen Komponenten umfassen:
  • δax:
    Korrektur des Längsbeschleunigungsmesswerts;
    υx:
    Fahrzeug-Längsgeschwindigkeit;
    δr:
    Korrektur des Giergeschwindigkeitsmesswerts
    υy:
    Fahrzeug-Quergeschwindigkeit; und
    {(xi, yi)|i = 1, ..., K}:
    Liste von Positionen stationärer Objekte.
  • Der Längszustandsschätzprozessor 16 empfängt Längspositions-, Längsgeschwindigkeits-, Längsbeschleunigungs- und Fahrzeuggeschwindigkeitssignale von den Sensoren und verwendet die Kalman-Filterung sowie ein Autoregressions-Rauschmodell, um eine korrigierte Längsbeschleunigung axo, eine korrigierte Längsgeschwindigkeit υxo und einen Radschlupf des Fahrzeugs zu verschaffen. Die Sensoren 20 wie etwa die Beschleunigungsmesser und die Radsensoren liefern Messwerte der Längsbeschleunigung axo und der Geschwindigkeit υxo des Fahrzeugs. Der Schätzprozes sor 16 kann die Längsposition und die Längsgeschwindigkeit des Fahrzeugs von der Radareingabe und die Längsbeschleunigung und die Fahrzeuggeschwindigkeit von den fahrzeugseitigen Sensoren 20 empfangen.
  • Der Prozessor 16 betrachtet die Beschleunigungskorrektur als Zufallspfadprozess. Das Längssystem des Fahrzeugs lässt sich wie folgt schreiben:
    Figure 00080001
    υx(t + 1) = υx(t) + ΔT(axo(t) + δax(t)) + ΔT∈ (6) δax(t + 1) = δax(t) + ∈, (7)wobei ∈ ein weißer Zufallsprozess mit Null-Mittelwert und Gaußscher Verteilung ist.
  • Unter der Annahme eines Messwerts oi = (pi, ṗi, ϑi) von dem i-ten Objekt, lässt sich die Beobachtungsgleichung wie folgt schreiben: picosϑi = xi + ν1 (8) icosϑi = –υx + ν2 (9) υxo = υx + ν3, (10)wobei die Größen ν1, ν3, und ν3 Beobachtungsrauschen sind, die als Gaußsche weiße Zufallsprozesse modelliert sind.
  • Der Kalman-Filterungsprozess in dem Prozessor 16 wird dazu verwendet, die korrigierte Längsbeschleunigung ax + δax, die korrigierte Längsgeschwindigkeit υx und den Radschlupf zu bestimmen, wenn die folgende Bedingung erfüllt ist. x – υxo| > T (11)wobei T ein Schwellenwert ist.
  • Der Querzustandsschätzprozessor 18 empfängt Objekt-Azimutwinkel-, Objekt-Querversatz-, Lenkradwinkel-, Giergeschwindigkeits- und Querbeschleunigungssignale von den Sensoren und verwendet die Kalman-Filterung sowie ein Autoregressions-Rauschmodell, um eine Giergeschwindigkeitskorrektur, eine Querbeschleunigungskorrektur und ein Quergeschwindigkeitssignal des Fahrzeugs zu liefern. Die fahrzeugseitigen Sensoren 20 wie etwa die Beschleunigungsmesser- und Giergeschwindigkeitssensoren liefern Messwerte der Querbeschleunigung ay0 und der Giergeschwindigkeit ro des Fahrzeugs. Der Lenkradwinkelsensor liefert den Lenkradwinkel δf. Die Korrektur der Giergeschwindigkeit ist als Zufallspfad modelliert. Es sei angenommen, dass L = a + b die Radbasis ist und cf und cr die Quersteifigkeitskoeffizienten des vorderen und des hinteren Reifens sind, dann kann das laterale Anlagenmodell wie folgt geschrieben werden: yi(t + 1) = yi(t) – ΔT((ro + δr(t))xi + υy(t)) – ΔTxi1 –ΔT∈2 (12)
    Figure 00090001
    wobei ∈1 und ∈2 zwei weiße Gaußsche Zufallsprozesse sind.
  • Unter Annahme eines Messwerts oi –(pi, ṗi, ϑi) von dem i-ten Objekt, lässt sich die Beobachtungsgleichung wie folgt schreiben: pisinϑi = yi + ν1 (15) ayo = υx(ro + δr) + ν2, (16)wobei die Größen ν1 und ν2 Beobachtungsrauschen sind, die als Gaußsche weiße Zufallsprozesse modelliert sind. Hierbei ist ν1 der durch den Messwert eingeführte Fehler und ν2 der durch die überhöhte Straße oder Sensormesswerte eingeführte Fehler.
  • Das Kalman-Filter in dem lateralen bzw. Quer-Schätzprozessor 18 wird dazu verwendet, die korrigierte Giergeschwindigkeit (ro + δr), die korrigierte Querbeschleunigung (ay + δay) und die Quergeschwindigkeit υy zu bestimmen.
  • Die meisten Entfernungssensoren, die auf dem Fachgebiet verwendet werden, berichten ein Objekt mit einer Identifizierung, die über verschiedene Zeitrahmen gleich bleibt. Diese Informationen werden dazu verwendet, Objektabbildungen von aufeinander folgenden Rahmen abzustimmen. Mathematisch kann angenommen werden, dass der Sensor das Objektabbild {oi(t), li(t)|i = 1, ..., Kt} zu einer Zeit t und das Abbild {oj(t'), lj(t')|j = 1, ..., Kt'} zu einer Zeit t' liefert, wobei l die Objektidentifizierung bezeichnet. Daher lassen sich die Abstimmungen bzw. Entsprechungen aufeinander folgender Abbildungen wie folgt definieren: {(oi(t), o'j (t')|li(t) = lj(t'), 1 ≤ i ≤ Kt, 1 ≤ j ≤ kt'} (17)
  • In einer Ausführungsform kann eine monokulare Kamera als Objektsensor verwendet werden. Die Kamera deckt die Bewegung des Fahrzeugs, das auf der Geländeoberfläche navigiert, ab, indem sie bestimmte Szenenelemente auf dem Gelände verfolgt. Bei einer monokularen Abfolge kommt eine homographische Transformation zwischen zwei Ansichten für die Elemente auf derselben Ebene vor. Das heißt, dass es für einen Satz von Punktentsprechungen xi, x'i zwischen zwei Bildern unter der Annahme, dass die Punkte koplanar sind, eine homographische Matrix F gibt, die wie folgt definiert ist: x'i = Fxi, (18)wobei x eine homogene Bildkoordinate (u, υ, m)T bezeichnet, die das Bildpixel bei
    Figure 00110001
    repräsentiert.
  • Eine Weltkoordinate zur Zeit t ist so definiert, dass die Ebene x-o-y mit der Geländeebene zusammenfällt, wie in 4 gezeigt ist. Das Kamera-Koordinatensystem o'x'y'z' ist fest mit der Kamera, deren Bildebene und deren Symmetrieachse mit der Ebene o'x'y' bzw. der z'-Achse zusammenfallen. Wenn angenommen wird, dass P = K[I|0] und P' = K[Rc] die Projektionsmatrizen der Kamera von zwei Ansichten sind, lässt sich die Homographiematrix F wie folgt angeben: F = K(R – cnT/d)K–1, (19)wobei K die intrinsische Matrix ist, R die Kamera-Drehmatrix ist, c die Kamera-Mittelpunktskoordinaten sind und π = (nT, d)T die Ebenengleichung (nTX + d = 0) ist, und zwar alle im Weltkoordinatensystem.
  • In 4 soll P die Projektionsmatrix P = KR[I|–c] zur Zeit t bezeichnen, wobei c = (x, y, –d)t und R die extrinsische Matrix der Kamera ist. Die Geländeebene sei mit π0 = (nTo , 0)T bezeichnet, wobei n0 = (0, 0, 1)T Bis zu Ansicht des nächsten Rahmens t' verschiebt sich das Fahrzeug um Δc = (Δx, Δy, 0)T und dreht sich um Δθ in der Geländeebene. Die Drehmatrix lässt sich wie folgt schreiben:
    Figure 00120001
  • Dann lässt sich die Projektionsmatrix P' zur Zeit t' als P' = KR'[I|–c'] schreiben, wobei R' = RΔR und c' = c + Δc.
  • Zur Anwendung von Gleichung (19) wird das Weltkoordinatensystem zur Zeit t in den Kameramittelpunkt verschoben. Die neuen Projektionsmatrizen werden zu: P = K[I|0] (21) P' = K[R'R–1|–R'Δc] (22)
  • Die Geländeebene wird zu (Rn0, d). Demgemäß: F = K(R'R–1 + R'ΔcnT0 RRT/d)K–1 (23)
  • Das Anwenden von RT = R–1 und R' = RΔR ergibt: F = KRΔR(I + ΔcnT0 /d)(KR)–1 (24)
  • Wenn die kalibrierte Kamera betrachtet wird, d. h., dass Kund R im Voraus bekannt sind, kann die Hauptmatrix E wie folgt berechnet werden: E = (KR)–1FKR = ΔR(I + ΔcnT0 /d) (25)
  • Mit n = (0, 0, 1)T, Δc = (Δx, Δy, 0)T und Gleichung (20) kann die Hauptmatrix E wie folgt geschrieben werden:
    Figure 00130001
  • Gewöhnlich ist der Drehwinkel θ bei zwei aufeinander folgenden Ansichten klein (d. h., sinθ << 1). Folglich kann Gleichung (26) approximiert werden durch:
    Figure 00130002
  • Die Hauptmatrix E in Gleichung (27) ist eigentlich eine zweidimensionale Transformation mit einer Verschiebung Δx/d, Δy/d und einer Drehung θ.
  • Gegeben sei ein Satz von Punktpaaren {(xi, x'i |i = 1, ..., N)} mit übereinstimmendem Merkmal; dann kann die Eigenbewegungsschätzung als Schätzung nach der Methode der kleinsten Quadrate formuliert werden:
    Figure 00130003
    was transformiert werden kann in:
    Figure 00130004
    wobei x ^ = KRx und x ^' = KRx', wenn die Kamera-Kalibiermatrizen Kund R bekannt sind.
  • Wenn Gleichung (27) untersucht wird, sind die normierten Punkte zwischen den zwei Ansichten mit einer starren Drehung (Δθ) und einer Verschiebung (Δx/d, Δy/d) aufeinander bezogen. Um die Parameter wiederzugewinnen, kann das folgende Verfahren angewandt werden.
  • Der Eingang sind N Paare der Punkte {(xi, x'i )|i = 1, ..., N} mit übereinstimmendem Gelände- bzw. Grundmerkmal sowie die intrinsische parametrische Matrix K und die extrinsische parametrische Matrix R der Kamera.
  • Der Ausgang sind die geschätzten Eigenbewegungsparameter
    Figure 00140001
    • 1. Berechne x ^i = KRxi und x ^'i = KRx'i für alle xi und x'i .
    • 2. Berechne
      Figure 00140002
    • 3. Berechne:
      Figure 00140003
    • 4. Die Singularwertzusammensetzung der Matrix C soll als C = UWVT
    • geschrieben sein.
  • Dann können die Drehung R2 und die Verschiebung t2 wie folgt aufgelöst werden:
    Figure 00150001
    t2 = x' – R2 x (32)
  • Zum Erfassen der Merkmalspunkte in den zwei aufeinander folgenden Bildern kann ein Harris-Ecken-Detektor verwendet werden. Um die Übereinstimmung zwischen den gefundenen Merkmalspunkten zu finden, kann dann eine Korrelationsoperation an den Bildern ausgeführt werden. Der Bildpunkt bei (u, υ) im Bild I und der Bildpunkt (u', υ') im Bild I' stimmen überein, wenn und nur dann wenn die folgende Bedingungen erfüllt sind: (u – u')² + (υ – υ')² < T1 (33)
    Figure 00150002
  • Die geschätzten Bewegungsparameter in den vorhergehenden Zyklen werden dazu verwendet, den Abstimmungsprozess zu führen. Zum Zurückweisen von Szenenelementen oberhalb des Geländes oder aus den sich dynamisch bewegenden Objekten wie etwa Fahrzeugen auf der Straße wird das folgende Verfahren zum Löschen von Ausreißern angewandt.
  • Der Eingang sind zwei Sätze der Szenenelemente (normiert mit der intrinsischen und der extrinsischen Matrix) in Pixelkoordinaten, die mit {(ûi, υ ^i)|i = 1, ..., N} und {(ûj, υ ^j)|j = 1, ..., M} bezeichnet sind.
  • Der Ausgang sind Paare übereinstimmender Punkte und geschätzte Bewegungsparameter.
    • 1. Sage den Ort der Elemente in dem vorhergehenden Rahmen vorher durch Verwenden vorhergehender Bewegungsparameter:
      Figure 00160001
    • 2. Wende das Korrelationsverfahren an, um die Sätze der vorhergesagten Punkte {(ûi, υ ^i)} und {(û'j , υ ^'j )} abzustimmen.
    • 3. Wähle in zufälliger Weise nicht weniger als vier abgestimmte Paare aus, die nicht kolinear sind, und leite dann unter Anwendung des oben besprochenen Verfahrens die Eigenbewegungsparameter ab.
    • 4. Validiere die abgeleiteten Bewegungsparameter durch Verwenden der abgestimmten Paare aus dem Schritt 3.
    • 5. Wenn die Abweichung der Mehrheit der abgestimmten Punkte hinreichend klein ist, beende den Prozess, gehe andernfalls zum Schritt 3.
  • Ähnlich wie mit dem oben beschriebenen Entfernungssensor kann die Eigenbewegung über mehrere Rahmen durch Verfolgen geschätzt werden. Die Anlagen- und Beobachtungsmodelle lassen sich wie folgt schreiben.
  • Der Bewegungszustand ist bezeichnet durch:
  • υx:
    Fahrzeug-Längsgeschwindigkeit;
    υy:
    Fahrzeug-Quergeschwindigkeit;
    δr:
    Giergeschwindigkeitsmesswertkorrektur; und
    δax:
    Längsbeschleunigungskorrektur.
  • υxo, axo, ro, und ayo sollen gemessene Längsgeschwindigkeit, gemessene Längsbeschleunigung, gemessene Giergeschwindigkeit bzw. gemessene Querbeschleunigung sein. Dann kann das Anlagenmodell wie folgt geschrieben werden: δax(t + 1) = δax(t) + ∈1 (35) υx(t + 1) = υx(t) + ΔT(δax(t) + axo) + ΔT∈1 (36)
    Figure 00170001
    wobei ∈1, ∈2 und ∈3 Gaußsches weißes Rauschen mit Null-Mittelwert sind.
  • Die aus zwei aufeinander folgenden Ansichten wiedergewonnenen Bewegungsparameter sollen mit (Δθo(t), Δxo(t), Δyo(t)) bezeichnet sein, wobei Δθo der Drehwinkel ist und (Δxo, Δyo) die Verschiebung ist. Die Beobachtungsgleichungen können wie folgt geschrieben werden: Δxo = υxΔT + ν1 (39) Δyo = υyΔT + ν2 (40) Δθo = (ro + δr)ΔT + ν3 (41) ayo = υx(ro + δr)+ ν4, (42)wobei ν1, ν2, ν3 und ν4 durch die Messwerte eingeführtes Rauschen sind.
  • Demgemäß kann das Kalman-Filter dazu verwendet werden, die Zustandsvariablen zu bestimmen.
  • Die obige Abhandlung offenbart und beschreibt lediglich beispielhafte Ausführungsformen der vorliegenden Erfindung. Ein Fachmann auf dem Gebiet erkennt aus dieser Abhandlung und aus den begleitenden Zeichnungen und Ansprüchen, dass verschiedene Änderungen, Abwandlungen und Abweichungen vorgenommen werden können, ohne vom Leitgedanken und Umfang der Erfindung, die in den folgenden Ansprüchen definiert ist, abzuweichen.

Claims (20)

  1. System zum Schätzen der Fahrzeugdynamik in einem Fahrzeug, wobei das System umfasst: einen Objekterfassungssensor zum Erfassen stationärer Objekte relativ zur Fahrzeugbewegung, wobei der Objektsensor Objekterfassungssignale zum Verfolgen des Objekts liefert; mehrere fahrzeugseitige Sensoren, die Sensorsignale liefern, die die Fahrzeugbewegung repräsentieren; einen Zuordnungsprozessor, der auf die Objektsignale anspricht, wobei der Zuordnungsprozessor zum Verfolgen des Objekts die Objektsignale folgender Ansichten aufeinander abstimmt und Objektverfolgungssignale liefert; einen Längszustandsschätzprozessor, der auf die Objektverfolgungssignale und die Sensorsignale anspricht und einen Schätzwert der Fahrzeuggeschwindigkeit in Vorwärtsrichtung relativ zur Fahrzeugbewegung liefert; und einen Querzustandsschätzprozessor, der auf die Objektverfolgungssignale und die Sensorsignale anspricht, wobei der Querzustandsschätzprozessor die Fahrzeuggeschwindigkeit in Querrichtung relativ zur Fahrzeugbewegung schätzt.
  2. System nach Anspruch 1, wobei der Objekterfassungssensor aus der Gruppe gewählt ist, die aus Radarvorrichtungen, Lidarvorrichtungen, Kameras und Sichtsystemen besteht.
  3. System nach Anspruch 1, wobei der Objekterfassungssensor ein Fernbereichsradarsensor ist.
  4. System nach Anspruch 3, wobei der Fernbereichssensor am Schwerpunkt des Fahrzeugs angebracht ist.
  5. System nach Anspruch 1, wobei der Objekterfassungssensor die Position des Objekts durch Verwenden eines Fahrradmodells erfasst.
  6. System nach Anspruch 1, wobei die fahrzeugseitigen Sensoren aus der Gruppe gewählt sind, die aus Lenkradwinkelsensoren, Giergeschwindigkeitssensoren, Längsgeschwindigkeitssensoren, Längsbeschleunigungssensoren und Querbeschleunigungssensoren besteht.
  7. System nach Anspruch 1, wobei der Längszustandsschätzprozessor und der Querzustandsschätzprozessor zum Bestimmen der Längs- und der Quergeschwindigkeit des Fahrzeugs Kalman-Filter verwenden.
  8. System nach Anspruch 7, wobei der Längszustandsschätzprozessor Objekt- und Sensorsignale der Fahrzeug-Längsposition, der Fahrzeug-Längsgeschwindigkeit, der Fahrzeug-Längsbeschleunigung und der Fahrzeuggeschwindigkeit empfängt und das Kalman-Filter und ein Autoregressions-Rauschmodell verwendet, um eine korrigierte Längsbeschleunigung, eine korrigierte Fahrzeuggeschwindigkeit und ein Radschlupfsignal zu liefern.
  9. System nach Anspruch 7, wobei der Querzustandsschätzprozessor Objekt- und Sensorsignale des Azimutwinkels und des seitlichen Versatzes eines Objekts sowie des Lenkradwinkels, der Giergeschwindigkeit und der Querbeschleunigung des Fahrzeugs empfängt und das Kalman-Filter und ein Autoregressions-Rauschmodell ver wendet, um eine Giergeschwindigkeitskorrektur, eine Querbeschleunigungskorrektur und eine Quergeschwindigkeit des Fahrzeugs zu liefern.
  10. System nach Anspruch 1, wobei der Objekterfassungssensor eine monokulare Kamera ist.
  11. System nach Anspruch 1, wobei das System Teil einer auf einem mikroelektromechanischen System basierenden Trägheitsmesseinheit ist.
  12. System zum Bestimmen der Geschwindigkeit eines Fahrzeugs, wobei das System umfasst: einen Objekterfassungssensor zum Erfassen stationärer Objekte relativ zur Fahrzeugbewegung; und einen Prozessor, der auf die Objekterfassungssignale anspricht, wobei der Prozessor die Objekte verfolgt und ein Modell zum Bestimmen der Längs- und der Quergeschwindigkeit des Fahrzeugs relativ zum stationären Objekt verwendet, wobei der Prozessor die Kalman-Filterung anwendet.
  13. System nach Anspruch 12, wobei der Objekterfassungssensor aus der Gruppe gewählt ist, die aus Radarvorrichtungen, Lidarvorrichtungen, Kameras und Sichtsystemen besteht.
  14. System nach Anspruch 12, wobei der Objekterfassungssensor die Position des Objekts durch Verwenden eines Fahrradmodells erfasst.
  15. System nach Anspruch 12, das ferner fahrzeugseitige Sensoren zum Liefern von Signalen, die die Fahrzeugbewegung bezeichnen, umfasst, wobei der Prozessor auf die Signale von den fahrzeugseitigen Sensoren anspricht, um die Längs- und die Quergeschwindigkeit des Fahrzeugs zu bestimmen.
  16. Verfahren zum Schätzen der Fahrzeugdynamik eines Fahrzeugs, wobei das Verfahren umfasst: Erfassen stationärer Objekte relativ zur Bewegung des Fahrzeugs und Liefern von Objekterfassungssignalen; Messen verschiedener Fahrzeugzustände mittels fahrzeugseitiger Sensoren und Liefern von Sensorsignalen; Verwenden der Objektsignale und der Sensorsignale, um eine korrigierte Längsbeschleunigung und eine korrigierte Fahrzeuggeschwindigkeit des Fahrzeugs zu liefern; und Verwenden der Objekterfassungssignale und der Sensorsignale, um eine korrigierte Querbeschleunigung und eine korrigierte Giergeschwindigkeit des Fahrzeugs zu liefern.
  17. Verfahren nach Anspruch 16, wobei das Erfassen stationärer Objekte das Verwenden einer Radarvorrichtung, einer Lidarvorrichtung und/oder einer Kameravorrichtung umfasst.
  18. Verfahren nach Anspruch 16, wobei das Messen der verschiedenen Fahrzeugzustände mittels fahrzeugseitiger Sensoren das Verwenden von Lenkradwinkelsensoren, Giergeschwindigkeitssensoren, Längsgeschwindigkeitssensoren, Längsbeschleunigungssensoren und Querbeschleunigungssensoren umfasst.
  19. Verfahren nach Anspruch 16, wobei das Liefern einer korrigierten Längsbeschleunigung und einer korrigierten Fahrzeuggeschwindigkeit das Empfangen der Objektsignale und der Sensorsignale, die die Fahrzeug-Längsposition, die Fahrzeug-Längsgeschwindigkeit, die Fahrzeug-Längsbeschleunigung und die Fahrzeuggeschwindigkeit bezeichnen, und das Verwenden eines Kalman-Filters und eines Autoregressions-Rauschmodells, um die korrigierte Längsbeschleunigung, die korrigierte Fahrzeuggeschwindigkeit und den korrigierten Radschlupf zu liefern, umfasst.
  20. Verfahren nach Anspruch 16, wobei das Liefern einer korrigierten Querbeschleunigung und einer korrigierten Giergeschwindigkeit das Verwenden der Objektsignale, die den Objekt-Azimutwinkel und den Objekt-Querversatz bezeichnen, sowie der Sensorsignale, die den Lenkradwinkel, die Giergeschwindigkeit und die Querbeschleunigung bezeichnen, und das Verwenden eines Kalman-Filters und eines Autoregressions-Rauschmodells, um die Querbeschleunigungskorrektur, die Quergeschwindigkeitskorrektur und die Giergeschwindigkeit zu liefern, umfasst.
DE102008026397.4A 2007-06-05 2008-06-02 Radar-, Lidar- und Kamera-unterstützte Verfahren zur Schätzung der Fahrzeugdynamik Active DE102008026397B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/758,180 2007-06-05
US11/758,180 US8855848B2 (en) 2007-06-05 2007-06-05 Radar, lidar and camera enhanced methods for vehicle dynamics estimation

Publications (2)

Publication Number Publication Date
DE102008026397A1 true DE102008026397A1 (de) 2009-01-29
DE102008026397B4 DE102008026397B4 (de) 2017-03-23

Family

ID=40157523

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008026397.4A Active DE102008026397B4 (de) 2007-06-05 2008-06-02 Radar-, Lidar- und Kamera-unterstützte Verfahren zur Schätzung der Fahrzeugdynamik

Country Status (3)

Country Link
US (1) US8855848B2 (de)
CN (1) CN101320089B (de)
DE (1) DE102008026397B4 (de)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010003850A1 (de) 2010-04-12 2011-10-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Nachführung einer Position einer Objektmarkierung
DE102013205245A1 (de) * 2013-03-25 2014-09-25 Continental Teves Ag & Co. Ohg Fahrzeugreferenzgeschwindigkeitsbestimmungsverfahren und Fahrzeugsteuergerät mit einem solchen Verfahren
CN105416290A (zh) * 2015-11-30 2016-03-23 奇瑞汽车股份有限公司 检测车距的方法和装置
US20160299234A1 (en) * 2015-04-07 2016-10-13 GM Global Technology Operations LLC Fail operational vehicle speed estimation through data fusion of 6-dof imu, gps, and radar
WO2017134058A1 (de) * 2016-02-02 2017-08-10 Audi Ag Verfahren zur erkennung und identifikation eines fahrmanövers eines verkehrsteilnehmers und kraftfahrzeug
EP3301474A1 (de) * 2016-09-30 2018-04-04 Panasonic Intellectual Property Management Co., Ltd. Zustandsberechnungsvorrichtung, zustandsberechnungsverfahren und aufzeichnungsmedium mit gespeichertem programm für sich bewegendes objekt
DE102016223107A1 (de) 2016-11-23 2018-05-24 Volkswagen Aktiengesellschaft System und Verfahren zur Schätzung der Eigenbewegung eines Fahrzeuges
CN108139475A (zh) * 2015-09-30 2018-06-08 索尼公司 信号处理设备、信号处理方法和程序
DE102017211402A1 (de) * 2017-07-04 2019-01-10 Zf Friedrichshafen Ag Vorrichtung und Verfahren zum Bestimmen der Fahrdynamik eines Straßenfahrzeugs
DE102017214022A1 (de) * 2017-08-11 2019-02-14 Audi Ag Verfahren zur Ermittlung von die Eigenbewegung eines Kraftfahrzeugs beschreibenden Egodaten und Kraftfahrzeug
DE102015200395B4 (de) 2015-01-14 2019-10-10 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Darstellung einer Fahrzeuginformation
DE102019127022A1 (de) * 2019-10-08 2021-04-08 Valeo Schalter Und Sensoren Gmbh Bestimmen einer Gierrate eines Kraftfahrzeugs
DE102020119498A1 (de) 2020-07-23 2022-01-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Schätzen einer Eigenbewegung eines Fahrzeugs anhand von Messungen eines Lidar-Sensors sowie Recheneinrichtung
DE102021202603A1 (de) 2021-03-17 2022-09-22 Psa Automobiles Sa Computerimplementiertes Verfahren zur Bestimmung einer Querbeschleunigung eines Kraftfahrzeugs, Computerprogrammprodukt, Fahrassistenzsystem sowie Kraftfahrzeug
DE102016102002B4 (de) 2015-02-04 2023-05-11 Gm Global Technology Operations, Llc Verbesserung einer Fahrzeugbewegungsabschätzung mit Radardaten
DE102024108346A1 (de) 2024-03-22 2025-09-25 Aumovio Autonomous Mobility Germany Gmbh Verfahren und Vorrichtung zum Bestimmen der Geschwindigkeit eines Kraftfahrzeugs

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8095309B2 (en) * 2007-06-05 2012-01-10 GM Global Technology Operations LLC GPS assisted vehicular longitudinal velocity determination
US8422741B2 (en) * 2007-08-22 2013-04-16 Honda Research Institute Europe Gmbh Estimating objects proper motion using optical flow, kinematics and depth information
US8180513B2 (en) * 2008-05-05 2012-05-15 Southwest Research Institute Autonomous ground vehicle control system for high-speed and safe operation
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8537337B2 (en) * 2009-12-22 2013-09-17 Weyerhaeuser Nr Company Method and apparatus for analyzing tree canopies with LiDAR data
JP5350297B2 (ja) * 2010-03-17 2013-11-27 クラリオン株式会社 車両姿勢角算出装置及びそれを用いた車線逸脱警報システム
US8718897B2 (en) 2010-03-29 2014-05-06 Wrightspeed, Inc. Vehicle dynamics control in electric drive vehicles
JP5610847B2 (ja) * 2010-05-26 2014-10-22 三菱電機株式会社 角速度推定装置及びコンピュータプログラム及び角速度推定方法
JP5618744B2 (ja) * 2010-05-26 2014-11-05 三菱電機株式会社 道路形状推定装置及びコンピュータプログラム及び道路形状推定方法
US8447519B2 (en) * 2010-11-10 2013-05-21 GM Global Technology Operations LLC Method of augmenting GPS or GPS/sensor vehicle positioning using additional in-vehicle vision sensors
US9147260B2 (en) * 2010-12-20 2015-09-29 International Business Machines Corporation Detection and tracking of moving objects
US20130332112A1 (en) * 2011-03-01 2013-12-12 Toyota Jidosha Kabushiki Kaisha State estimation device
CN102184408B (zh) * 2011-04-11 2012-12-26 西安电子科技大学 基于自回归模型的雷达高分辨距离像目标识别方法
KR101074638B1 (ko) * 2011-05-04 2011-10-18 한국항공우주연구원 조향 모델을 이용한 주행차선 판단방법
US9139203B2 (en) * 2011-11-04 2015-09-22 GM Global Technology Operations LLC Lane tracking system
US8957807B2 (en) * 2011-12-14 2015-02-17 Ford Global Technologies, Llc Internal multi-axis G sensing used to align an automotive forward radar to the vehicle's thrust axis
DE102012200139A1 (de) * 2012-01-05 2013-07-11 Robert Bosch Gmbh Verfahren und Vorrichtung zur radunabhängigen Geschwindigkeitsmessung bei einem Fahrzeug
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
DE102012203037A1 (de) 2012-02-28 2013-08-29 Continental Automotive Gmbh Verfahren zur Ermittlung der Geschwindigkeit und/oder Position eines Fahrzeuges
KR101962890B1 (ko) * 2012-03-02 2019-08-01 현대모비스 주식회사 차량 센서 오프셋 보정 시스템 및 그 방법
DE102012215322A1 (de) * 2012-08-29 2014-03-06 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen einer Position eines Fahrzeugs auf einer Fahrspur
US9423498B1 (en) * 2012-09-25 2016-08-23 Google Inc. Use of motion data in the processing of automotive radar image processing
KR101405583B1 (ko) * 2012-10-30 2014-06-10 현대자동차주식회사 차량 속도 추정 장치 및 방법
US9251587B2 (en) * 2013-04-05 2016-02-02 Caterpillar Inc. Motion estimation utilizing range detection-enhanced visual odometry
DE102014205127B4 (de) 2013-04-17 2024-08-01 Ford Global Technologies, Llc Steuerung der Fahrdynamik eines Fahrzeugs mit Spurrillenausgleich
WO2015037173A1 (ja) * 2013-09-12 2015-03-19 パナソニック株式会社 レーダ装置、車両及び移動体速度検出方法
GB2523095B (en) * 2014-02-12 2018-01-31 Jaguar Land Rover Ltd Apparatus and method for use in a vehicle
WO2015125022A2 (en) * 2014-02-20 2015-08-27 Mobileye Vision Technologies Ltd. Navigation based on radar-cued visual imaging
US10024955B2 (en) 2014-03-28 2018-07-17 GM Global Technology Operations LLC System and method for determining of and compensating for misalignment of a sensor
DE102014111126A1 (de) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen einer Umgebungskarte eines Umgebungsbereichs eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
US10339389B2 (en) * 2014-09-03 2019-07-02 Sharp Laboratories Of America, Inc. Methods and systems for vision-based motion estimation
US9199643B1 (en) 2014-09-25 2015-12-01 GM Global Technology Operations LLC Sensor odometry and application in crash avoidance vehicle
US9449397B2 (en) * 2014-10-15 2016-09-20 Caterpillar Inc. Real-time visual odometry system for determining motion of a machine with a range detection unit
CN104407337B (zh) * 2014-11-14 2017-03-29 中国船舶重工集团公司第七0九研究所 面向转弯机动目标的数据滤波方法及系统
CN104477169B (zh) * 2014-11-20 2018-04-13 郑州宇通客车股份有限公司 一种车辆转向角速度检测方法
JP6425130B2 (ja) * 2014-12-18 2018-11-21 パナソニックIpマネジメント株式会社 レーダ装置及びレーダ状態推定方法
US9886801B2 (en) * 2015-02-04 2018-02-06 GM Global Technology Operations LLC Vehicle sensor compensation
JP6421935B2 (ja) * 2015-03-31 2018-11-14 パナソニックIpマネジメント株式会社 車両移動推定装置および車両移動推定方法
US10247816B1 (en) * 2015-07-06 2019-04-02 Apple Inc. Apparatus and method to measure slip and velocity
WO2017053415A1 (en) 2015-09-24 2017-03-30 Quovard Management Llc Systems and methods for surface monitoring
WO2017053407A1 (en) 2015-09-24 2017-03-30 Quovard Management Llc Systems and methods for localization using surface imaging
US9889859B2 (en) * 2015-12-21 2018-02-13 Intel Corporation Dynamic sensor range in advanced driver assistance systems
CN105678689B (zh) * 2015-12-31 2020-01-31 百度在线网络技术(北京)有限公司 高精地图数据配准关系确定方法及装置
US12399278B1 (en) 2016-02-15 2025-08-26 Red Creamery Llc Hybrid LIDAR with optically enhanced scanned laser
US12399279B1 (en) 2016-02-15 2025-08-26 Red Creamery Llc Enhanced hybrid LIDAR with high-speed scanning
US12123950B2 (en) 2016-02-15 2024-10-22 Red Creamery, LLC Hybrid LADAR with co-planar scanning and imaging field-of-view
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
US10088553B2 (en) * 2016-03-14 2018-10-02 GM Global Technology Operations LLC Method of automatic sensor pose estimation
WO2017168588A1 (ja) * 2016-03-29 2017-10-05 パイオニア株式会社 測定装置、測定方法、及び、プログラム
WO2017168654A1 (ja) * 2016-03-30 2017-10-05 パイオニア株式会社 測定装置、測定方法、及び、プログラム
JP6563849B2 (ja) * 2016-05-06 2019-08-21 株式会社Soken 推定装置
US10557942B2 (en) * 2016-06-07 2020-02-11 DSCG Solutions, Inc. Estimation of motion using LIDAR
WO2018020680A1 (ja) * 2016-07-29 2018-02-01 パイオニア株式会社 測定装置、測定方法、及び、プログラム
US10408937B2 (en) * 2016-09-20 2019-09-10 Ford Global Technologies, Llc Metal bridge detection systems and methods
US11092690B1 (en) * 2016-09-22 2021-08-17 Apple Inc. Predicting lidar data using machine learning
JP7157054B2 (ja) * 2017-01-26 2022-10-19 モービルアイ ビジョン テクノロジーズ リミテッド 整合画像及びlidar情報に基づいた車両ナビゲーション
US10509120B2 (en) * 2017-02-16 2019-12-17 GM Global Technology Operations LLC Lidar-radar relative pose calibration
US10583832B2 (en) 2017-05-02 2020-03-10 Cnh Industrial America Llc Obstacle detection system for a work vehicle
JP6509279B2 (ja) * 2017-05-31 2019-05-08 本田技研工業株式会社 物標認識システム、物標認識方法、およびプログラム
JP7132703B2 (ja) * 2017-09-12 2022-09-07 日立Astemo株式会社 車両運動状態推定装置、車両運動状態推定システム、車両運動制御装置および車両運動状態推定方法
SG11202002385QA (en) * 2017-09-22 2020-04-29 Waymo Llc Detecting motion of an autonomous vehicle using radar technology
US10890919B2 (en) 2017-09-22 2021-01-12 Waymo Llc Calculating velocity of an autonomous vehicle using radar technology
US10514456B2 (en) 2017-11-29 2019-12-24 Qualcomm Incorporated Radar aided visual inertial odometry outlier removal
WO2019150483A1 (ja) * 2018-01-31 2019-08-08 パイオニア株式会社 速度算出装置、速度算出方法、及び、プログラム
CN111757822B (zh) * 2018-02-26 2024-04-02 联邦快递服务公司 用于使用多传感器检测融合来在物流地面支持设备上进行增强的碰撞避免的系统和方法
US12444187B2 (en) 2018-04-12 2025-10-14 Raymarine Uk Limited Radar and colocated camera systems and methods
CN108828621A (zh) * 2018-04-20 2018-11-16 武汉理工大学 基于三维激光雷达的障碍检测和路面分割算法
EP3575829B1 (de) * 2018-05-30 2020-11-18 Axis AB Verfahren zur bestimmung einer transformationsmatrix
US10634777B2 (en) 2018-05-30 2020-04-28 Ford Global Technologies, Llc Radar odometry for vehicle
FR3087884B1 (fr) * 2018-10-31 2021-04-02 Renault Sas Procede de determination d’un vecteur de deplacement d’un vehicule automobile, procede de determination d’une vitesse du vehicule et vehicule associe
US11613041B1 (en) 2018-11-08 2023-03-28 Scepaniak IP Holdings, LLC Coping nailer
US11214967B1 (en) 2018-11-08 2022-01-04 Scepaniak IP Holdings, LLC Roof rock spreader
TWI680898B (zh) * 2018-11-23 2020-01-01 財團法人車輛研究測試中心 近距離障礙物之光達偵測裝置及其方法
US10940851B2 (en) 2018-12-12 2021-03-09 Waymo Llc Determining wheel slippage on self driving vehicle
US10852746B2 (en) * 2018-12-12 2020-12-01 Waymo Llc Detecting general road weather conditions
FR3094798B1 (fr) 2019-04-02 2021-03-05 Renault procédé de détermination d’une vitesse d’un véhicule automobile
CN112050830B (zh) * 2019-06-06 2023-06-02 华为技术有限公司 一种运动状态估计方法及装置
CN110412563A (zh) * 2019-07-29 2019-11-05 哈尔滨工业大学 一种基于多传感器融合的辅助列车车皮挂接的便携式测距仪及其工作方法
CN110780670B (zh) * 2019-09-19 2023-03-21 上海机器人产业技术研究院有限公司 基于模糊控制算法的机器人避障控制方法
US20210139028A1 (en) * 2019-11-13 2021-05-13 Sf Motors, Inc. Fuzzy logic based and machine learning enhanced vehicle dynamics determination
US12291875B1 (en) 2019-12-11 2025-05-06 Scepaniak IP Holdings, LLC Commercial roofing screw machine
KR102675802B1 (ko) 2019-12-20 2024-06-17 주식회사 에이치엘클레무브 운전자 보조 시스템 및 그 제어방법
US11325594B2 (en) * 2020-02-10 2022-05-10 GM Global Technology Operations LLC Sensor fusion based on intersection scene to determine vehicle collision potential
US11531115B2 (en) 2020-02-12 2022-12-20 Caterpillar Global Mining Llc System and method for detecting tracking problems
US11429114B2 (en) * 2020-02-14 2022-08-30 Deere & Company Implement control of vehicle and implement combination
CN113359147B (zh) * 2020-03-06 2023-08-18 宇通客车股份有限公司 一种车辆及目标物运动状态的判断方法和装置
CN113470342B (zh) * 2020-03-30 2023-04-07 华为技术有限公司 一种自运动估计的方法及装置
CN111400931B (zh) * 2020-04-09 2022-09-27 北京理工大学 一种车辆横摆角速度的确定方法及系统
US11332152B2 (en) * 2020-05-29 2022-05-17 GM Global Technology Operations LLC Method and apparatus for determining a velocity of a vehicle
KR102885237B1 (ko) * 2020-06-12 2025-11-12 삼성전자주식회사 복소수 기반 어텐션 네트워크 연산 방법 및 장치
CN121091266A (zh) * 2020-08-18 2025-12-09 深圳引望智能技术有限公司 一种运动估计方法及装置
US11702085B2 (en) 2020-11-09 2023-07-18 Fca Us Llc Vehicle center of gravity height detection and vehicle mass detection using light detection and ranging point cloud data
CN113147738A (zh) * 2021-02-26 2021-07-23 重庆智行者信息科技有限公司 一种自动泊车定位方法和装置
DE102021202641A1 (de) 2021-03-18 2022-09-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Bestimmung eines Bewegungszustands eines starren Körpers
CN113223326B (zh) * 2021-04-28 2022-11-11 上海电科智能系统股份有限公司 基于路侧的多车多控多源低速辅助停车系统
EP4202790A1 (de) * 2021-12-21 2023-06-28 dSPACE GmbH Verfahren und system zur klassifikation von verkehrssituationen sowie trainingsverfahren
US12108696B2 (en) 2021-12-23 2024-10-08 Cnh Industrial America Llc Agricultural system and method for determining an as-driven path of an agricultural work vehicle
US20230219561A1 (en) * 2022-01-05 2023-07-13 Motional Ad Llc Vehicle state estimation augmenting sensor data for vehicle control and autonomous driving
CN115993606A (zh) * 2022-12-01 2023-04-21 中电科微波通信(上海)股份有限公司 自动校准测高雷达系统及其测量方法
CN116184430B (zh) * 2023-02-21 2023-09-29 合肥泰瑞数创科技有限公司 一种激光雷达、可见光相机、惯性测量单元融合的位姿估计算法
CN115950441B (zh) * 2023-03-08 2023-07-07 智道网联科技(北京)有限公司 自动驾驶车辆的融合定位方法、装置及电子设备
US12233569B1 (en) 2023-03-27 2025-02-25 Scepaniak IP Holdings, LLC Coping nailer
US12125225B1 (en) * 2023-04-04 2024-10-22 GM Global Technology Operations LLC Monocular camera system performing depth estimation of objects surrounding a vehicle
CN117036505B (zh) * 2023-08-23 2024-03-29 长和有盈电子科技(深圳)有限公司 车载摄像头在线标定方法及系统
FR3157322B1 (fr) * 2023-12-22 2025-12-19 Renault Sas MÉthode De correction de mesure de vitesse d’un véhicule

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10251949A1 (de) * 2002-11-08 2004-05-19 Robert Bosch Gmbh Fahrdynamikregelung mit Bildsensorsystem
DE102004060402A1 (de) * 2004-12-14 2006-07-13 Adc Automotive Distance Control Systems Gmbh Verfahren und Vorrichtung zur Ermittlung einer Fahrzeuggeschwindigkeit
WO2007017693A1 (en) * 2005-08-10 2007-02-15 Trw Limited Method and apparatus for determining motion of a vehicle
DE102006036921A1 (de) * 2005-08-05 2007-04-12 Continental Teves Ag & Co. Ohg Verfahren zum Stabilisieren eines Kraftfahrzeugs und Fahrdynamikregelsystem

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4109522C2 (de) * 1990-03-22 1996-06-05 Nissan Motor Bremskraft-Steuervorrichtung
JPH05185801A (ja) * 1992-01-10 1993-07-27 Nissan Motor Co Ltd 車両の挙動制御装置
US5648905A (en) * 1993-12-07 1997-07-15 Mazda Motor Corporation Traveling control system for motor vehicle
US5979581A (en) * 1996-11-07 1999-11-09 The Regents Of The University Of California Lateral vehicle control apparatus and method for automated highway systems and intelligent cruise control
JPH10267685A (ja) * 1997-03-21 1998-10-09 Unisia Jecs Corp 車両の横滑り角推定方法
JP3266827B2 (ja) * 1997-06-25 2002-03-18 本田技研工業株式会社 車両の物体検知装置
DE19928915A1 (de) * 1999-06-24 2001-01-11 Bosch Gmbh Robert Verfahren zur Sichtweitenbestimmung
DE10131198A1 (de) * 2001-06-28 2003-01-16 Bosch Gmbh Robert Verfahren und Vorrichtung zur Beeinflussung wenigstens eines Parameters eines Fahrzeugs
JP2003146199A (ja) * 2001-11-15 2003-05-21 Honda Motor Co Ltd 車両状態量の推定方法
US6671595B2 (en) * 2002-01-08 2003-12-30 Ford Global Technologies, Llc Vehicle side slip angle estimation using dynamic blending and considering vehicle attitude information
DE10345802A1 (de) * 2003-09-30 2005-04-14 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrspurerkennung für ein Fahrzeug
DE10235414A1 (de) * 2002-08-02 2004-02-12 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ermittlung des Bevorstehens einer unausweichbaren Kollision
JP4433887B2 (ja) * 2003-07-01 2010-03-17 日産自動車株式会社 車両用外界認識装置
US7197388B2 (en) * 2003-11-06 2007-03-27 Ford Global Technologies, Llc Roll stability control system for an automotive vehicle using an external environmental sensing system
WO2005080120A1 (en) * 2004-02-20 2005-09-01 Sharp Kabushiki Kaisha Condition detection and display system, condition detection and display method, control program for condition detection and display system, and storage medium storing the control program
ES2635268T3 (es) * 2004-05-28 2017-10-03 Saab Ab Seguimiento de un objeto en movimiento para un sistema de autodefensa
DE102005003274A1 (de) * 2005-01-25 2006-07-27 Robert Bosch Gmbh Verfahren und Vorrichtung zur Vermeidung und/oder Minderung der Folgen von Kollisionen beim Ausweichen vor Hindernissen
US7620477B2 (en) * 2006-07-05 2009-11-17 Battelle Energy Alliance, Llc Robotic intelligence kernel
US7885748B2 (en) * 2006-09-13 2011-02-08 Gm Global Technology Operations, Inc. Virtual accelerometer
US8447472B2 (en) * 2007-01-16 2013-05-21 Ford Global Technologies, Llc Method and system for impact time and velocity prediction
US7979207B2 (en) * 2007-03-19 2011-07-12 Sirf Technology, Inc. Systems and methods for detecting a vehicle static condition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10251949A1 (de) * 2002-11-08 2004-05-19 Robert Bosch Gmbh Fahrdynamikregelung mit Bildsensorsystem
DE102004060402A1 (de) * 2004-12-14 2006-07-13 Adc Automotive Distance Control Systems Gmbh Verfahren und Vorrichtung zur Ermittlung einer Fahrzeuggeschwindigkeit
DE102006036921A1 (de) * 2005-08-05 2007-04-12 Continental Teves Ag & Co. Ohg Verfahren zum Stabilisieren eines Kraftfahrzeugs und Fahrdynamikregelsystem
WO2007017693A1 (en) * 2005-08-10 2007-02-15 Trw Limited Method and apparatus for determining motion of a vehicle

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010003850A1 (de) 2010-04-12 2011-10-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Nachführung einer Position einer Objektmarkierung
DE102013205245A1 (de) * 2013-03-25 2014-09-25 Continental Teves Ag & Co. Ohg Fahrzeugreferenzgeschwindigkeitsbestimmungsverfahren und Fahrzeugsteuergerät mit einem solchen Verfahren
US9701289B2 (en) 2013-03-25 2017-07-11 Continental Teves Ag & Co. Ohg Method for determining a vehicle reference speed and vehicle controller having such a method
DE102015200395B4 (de) 2015-01-14 2019-10-10 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Darstellung einer Fahrzeuginformation
DE102016102002B4 (de) 2015-02-04 2023-05-11 Gm Global Technology Operations, Llc Verbesserung einer Fahrzeugbewegungsabschätzung mit Radardaten
US20160299234A1 (en) * 2015-04-07 2016-10-13 GM Global Technology Operations LLC Fail operational vehicle speed estimation through data fusion of 6-dof imu, gps, and radar
US9645250B2 (en) * 2015-04-07 2017-05-09 GM Global Technology Operations LLC Fail operational vehicle speed estimation through data fusion of 6-DOF IMU, GPS, and radar
CN108139475A (zh) * 2015-09-30 2018-06-08 索尼公司 信号处理设备、信号处理方法和程序
US11719788B2 (en) 2015-09-30 2023-08-08 Sony Corporation Signal processing apparatus, signal processing method, and program
CN105416290A (zh) * 2015-11-30 2016-03-23 奇瑞汽车股份有限公司 检测车距的方法和装置
WO2017134058A1 (de) * 2016-02-02 2017-08-10 Audi Ag Verfahren zur erkennung und identifikation eines fahrmanövers eines verkehrsteilnehmers und kraftfahrzeug
EP3301474A1 (de) * 2016-09-30 2018-04-04 Panasonic Intellectual Property Management Co., Ltd. Zustandsberechnungsvorrichtung, zustandsberechnungsverfahren und aufzeichnungsmedium mit gespeichertem programm für sich bewegendes objekt
DE102016223107A1 (de) 2016-11-23 2018-05-24 Volkswagen Aktiengesellschaft System und Verfahren zur Schätzung der Eigenbewegung eines Fahrzeuges
DE102017211402A1 (de) * 2017-07-04 2019-01-10 Zf Friedrichshafen Ag Vorrichtung und Verfahren zum Bestimmen der Fahrdynamik eines Straßenfahrzeugs
DE102017214022A1 (de) * 2017-08-11 2019-02-14 Audi Ag Verfahren zur Ermittlung von die Eigenbewegung eines Kraftfahrzeugs beschreibenden Egodaten und Kraftfahrzeug
DE102019127022A1 (de) * 2019-10-08 2021-04-08 Valeo Schalter Und Sensoren Gmbh Bestimmen einer Gierrate eines Kraftfahrzeugs
DE102020119498A1 (de) 2020-07-23 2022-01-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Schätzen einer Eigenbewegung eines Fahrzeugs anhand von Messungen eines Lidar-Sensors sowie Recheneinrichtung
WO2022018007A1 (de) 2020-07-23 2022-01-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum schätzen einer eigenbewegung eines fahrzeugs anhand von messungen eines lidar-sensors sowie recheneinrichtung
US12462403B2 (en) 2020-07-23 2025-11-04 Bayerische Motoren Werke Aktiengesellschaft Method for estimating an ego motion of a vehicle on the basis of measurements of a lidar sensor and computing device
DE102021202603A1 (de) 2021-03-17 2022-09-22 Psa Automobiles Sa Computerimplementiertes Verfahren zur Bestimmung einer Querbeschleunigung eines Kraftfahrzeugs, Computerprogrammprodukt, Fahrassistenzsystem sowie Kraftfahrzeug
DE102024108346A1 (de) 2024-03-22 2025-09-25 Aumovio Autonomous Mobility Germany Gmbh Verfahren und Vorrichtung zum Bestimmen der Geschwindigkeit eines Kraftfahrzeugs

Also Published As

Publication number Publication date
US20100017128A1 (en) 2010-01-21
CN101320089A (zh) 2008-12-10
CN101320089B (zh) 2011-09-21
US8855848B2 (en) 2014-10-07
DE102008026397B4 (de) 2017-03-23

Similar Documents

Publication Publication Date Title
DE102008026397B4 (de) Radar-, Lidar- und Kamera-unterstützte Verfahren zur Schätzung der Fahrzeugdynamik
DE102017128619B4 (de) Fahrzeugsteuersystem, damit ausgerüstetes Fahrzeug sowie Verfahren zum Steuern mindestens einer Funktion eines Fahrzeugs
EP3692337B1 (de) Karteninformationbereitstellungssystem
CN114419098B (zh) 基于视觉变换的运动目标轨迹预测方法及装置
DE102013209575B4 (de) Verfahren zum steuern eines fahrzeugs
DE102016115339B4 (de) Fahrzeugfahrtsteuerungsvorrichtung
DE602004012962T2 (de) Echtzeit-hinderniserkennung mit einer kalibrierten kamera und bekannter ego-bewegung
DE112021003371T5 (de) Fahrzeugpositionsschätzvorrichtung und Fahrpositionsschätzverfahren
DE102020105649A1 (de) Verfahren und vorrichtung zur parallelen verfolgung und lokalisierung mittels eines multimodalen schmelzverfahrens
DE102019114511A1 (de) Radar-odometrie für ein fahrzeug
DE102021100101A1 (de) Fahrzeugsensorkalibrierung
DE102018114808A1 (de) Verfahren zur automatischen Querführung eines Folgefahrzeugs in einem Fahrzeug-Platoon
DE102019100034A1 (de) Autonome lenksteuerung
DE102018103473A1 (de) Wirksamer rollradius
DE112019001078T5 (de) Verfahren und vorrichtung zur fahrzeugsteuerung
DE102022102567B4 (de) Verfahren und Prozessorschaltung zum Lokalisieren eines Kraftfahrzeugs in einer Umgebung während einer Fahrt sowie entsprechend ausgestattetes Kraftfahrzeug
DE102020105657A1 (de) Verfahren und Systeme für die Kartierung und Lokalisierung eines Fahrzeuges
DE102015202230B4 (de) Fusionierte Eigenbewegungsberechnung für ein Fahrzeug
DE112020007433B4 (de) Informationsverarbeitungssystem, Informationsverarbeitungsvorrichtung, Programm und Informationsverarbeitungsverfahren
DE102008025773A1 (de) Verfahren zur Schätzung eines Orts- und Bewegungszustands eines beobachteten Objekts
DE102017205973A1 (de) Verfahren zum Ermitteln eines in einem Gierratensignal eines Gierratensensors eines Kraftfahrzeugs enthaltenen Versatzes sowie Steuervorrichtung und Kraftfahrzeug
DE102021129800A1 (de) Identifizierung des zielfahrzeugzustands für die anpassung des automatisierten fahrens bei der fahrzeugkontrolle
DE102022122648A1 (de) Adaptiver Rationalisierer für Fahrzeugwahrnehmungssysteme zu robuster automatisierter Fahrsteuerung
DE102024126665A1 (de) Kamerastellungsverfeinerung mit boden-satelliten-bildregistrierung
DE102018000599A1 (de) Verfahren und Steuereinheit zum Schätzen der Abweichung eines Gierratensensors

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8180 Miscellaneous part 1

Free format text: PFANDRECHT

8180 Miscellaneous part 1

Free format text: PFANDRECHT AUFGEHOBEN

8180 Miscellaneous part 1

Free format text: PFANDRECHT

8127 New person/name/address of the applicant

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC , ( N. D. , US

R081 Change of applicant/patentee

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GES, US

Free format text: FORMER OWNER: GM GLOBAL TECHNOLOGY OPERATIONS, INC., DETROIT, MICH., US

Effective date: 20110323

R018 Grant decision by examination section/examining division
R020 Patent grant now final