[go: up one dir, main page]

DE102007041121B4 - Method and device for processing sensor data for a driver assistance system of a vehicle - Google Patents

Method and device for processing sensor data for a driver assistance system of a vehicle Download PDF

Info

Publication number
DE102007041121B4
DE102007041121B4 DE102007041121.0A DE102007041121A DE102007041121B4 DE 102007041121 B4 DE102007041121 B4 DE 102007041121B4 DE 102007041121 A DE102007041121 A DE 102007041121A DE 102007041121 B4 DE102007041121 B4 DE 102007041121B4
Authority
DE
Germany
Prior art keywords
sensor
vehicle
measured value
value
error value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102007041121.0A
Other languages
German (de)
Other versions
DE102007041121A1 (en
Inventor
Dr. Stüker Dirk
Holger Philipps
Dr. Bartels Arne
Jan Troelsen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102007041121.0A priority Critical patent/DE102007041121B4/en
Publication of DE102007041121A1 publication Critical patent/DE102007041121A1/en
Application granted granted Critical
Publication of DE102007041121B4 publication Critical patent/DE102007041121B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/023Avoiding failures by using redundant parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D3/00Indicating or recording apparatus with provision for the special purposes referred to in the subgroups
    • G01D3/028Indicating or recording apparatus with provision for the special purposes referred to in the subgroups mitigating undesired influences, e.g. temperature, pressure
    • G01D3/036Indicating or recording apparatus with provision for the special purposes referred to in the subgroups mitigating undesired influences, e.g. temperature, pressure on measuring arrangements themselves
    • G01D3/0365Indicating or recording apparatus with provision for the special purposes referred to in the subgroups mitigating undesired influences, e.g. temperature, pressure on measuring arrangements themselves the undesired influence being measured using a separate sensor, which produces an influence related signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zum Verarbeiten von Sensordaten für ein Fahrerassistenzsystem eines Fahrzeugs, bei dem
- ein erster Sensor (1) einen Messwert (M1) aufnimmt und an eine Verarbeitungseinheit (4) überträgt, wobei dem Messwert (M1) ein Fehlerwert (ΔM1) zugeordnet wird, dadurch gekennzeichnet, dass
- ein zweiter Sensor (2) einen Messwert (M2) zu einer Größe aufnimmt, die mit dem ersten Sensor (1) nicht messbar ist,
- der zu dem Messwert (M1) des ersten Sensors (1) gehörige Fehlerwert (ΔM1) mittels des Messwerts (M2) des zweiten Sensors (2) angepasst wird,
und dass die Aufnahme des Messwerts (M1) des ersten Sensors (1) durch einen dritten Sensor (3) auf andere Weise als mit dem ersten Sensor (1) erfolgt, wenn der angepasste Fehlerwert (ΔM1) des ersten Sensors (1) einen Grenzwert überschreitet.

Figure DE102007041121B4_0000
Method for processing sensor data for a driver assistance system of a vehicle, in which
- a first sensor (1) records a measured value (M1) and transmits it to a processing unit (4), an error value (ΔM1) being assigned to the measured value (M1), characterized in that
- a second sensor (2) records a measured value (M2) for a variable that cannot be measured with the first sensor (1),
- the error value (ΔM1) associated with the measured value (M1) of the first sensor (1) is adjusted using the measured value (M2) of the second sensor (2),
and that the measurement value (M1) of the first sensor (1) is recorded by a third sensor (3) in a different way than with the first sensor (1) if the adjusted error value (ΔM1) of the first sensor (1) exceeds a limit value exceeds.
Figure DE102007041121B4_0000

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Verarbeiten von Sensordaten für ein Fahrerassistenzsystem eines Fahrzeugs, bei dem ein erster Sensor einen Messwert aufnimmt und an eine Verarbeitungseinheit überträgt, wobei dem Messwert ein Fehlerwert zugeordnet wird. Ferner betrifft die Erfindung eine Vorrichtung zum Verarbeiten solcher Sensordaten mit einem ersten Sensor zur Aufnahme eines Messwerts und einer mit dem ersten Sensor gekoppelten Verarbeitungseinheit zum Empfang des Messwerts, wobei dem Messwert ein Fehlerwert zugeordnet ist.The present invention relates to a method for processing sensor data for a driver assistance system of a vehicle, in which a first sensor records a measured value and transmits it to a processing unit, with an error value being assigned to the measured value. Furthermore, the invention relates to a device for processing such sensor data with a first sensor for recording a measured value and a processing unit coupled to the first sensor for receiving the measured value, an error value being assigned to the measured value.

Moderne Kraftfahrzeuge verfügen über eine Vielzahl von Sensoren für verschiedene Fahrerassistenzsysteme. Beispielsweise wird für ein Navigationssystem die Position des Fahrzeugs mittels verschiedener Sensoren erfasst. Für die Bestimmung der Relativbewegung des Fahrzeugs werden dabei Sensoren für Raddrehzahlen, die Gierrate und die Querbeschleunigung verwendet. Zur Bestimmung der Absolutposition des Fahrzeugs werden Satellitennavigationssysteme wie das Global Positioning System (GPS) und insbesondere das differenzielle GPS (DGPS) verwendet. Zur Detektion anderer Verkehrsteilnehmer und Hindernisse in der Umgebung des Fahrzeugs werden Radar-, Laser- und/oder Ultraschallsensoren verwendet.Modern motor vehicles have a large number of sensors for various driver assistance systems. For example, the position of the vehicle is recorded using various sensors for a navigation system. Sensors for wheel speeds, yaw rate and lateral acceleration are used to determine the relative movement of the vehicle. Satellite navigation systems such as the Global Positioning System (GPS) and in particular the differential GPS (DGPS) are used to determine the absolute position of the vehicle. Radar, laser and/or ultrasonic sensors are used to detect other road users and obstacles in the area surrounding the vehicle.

Bei der Verarbeitung der Daten in einem Fahrerassistenzsystem, ist es bekannt, ein heterogenes Sensornetzwerk zu verwenden, in dem unterschiedliche Sensoren für die Bestimmung einer bestimmten Größe zum Einsatz kommen, um etwaige Schwächen eines Sensors durch die Stärken eines andersartigen Sensors ausgleichen zu können. Um den zu einer Größe gehörigen Fehler zu reduzieren, wird bei der Sensordatenfusion z. B. ein Kalman-Filter eingesetzt. Auf diese Weise kann beispielsweise mittels mehrerer Sensoren sowohl die Eigenbewegung des Fahrzeugs als auch die Bewegung anderer Verkehrsteilnehmer geschätzt werden. Die Gewichtung der Informationen von verschiedenen Sensoren erfolgt dabei an Hand statistischer Unsicherheiten, welche z. B. von den Sensoren selbst geliefert werden. Die Sensordatenfusion ist beispielsweise in folgender Veröffentlichung beschrieben:

  • Dirk Stüker: „Heterogene Sensordatenfusion zur robusten Objektverfolgung im automobilen Straßenverkehr“, Dissertation an der Fakultät II - Informatik, Wirtschafts- und Rechtswissenschaften der Carl von Ossietzky Universität (vgl. auch http://docserver.bis.uni-oldenburg.de/publikationen/dissertation/2004/stuhet04/stuhet04.html; Zugriff 12.07.2006).
When processing the data in a driver assistance system, it is known to use a heterogeneous sensor network in which different sensors are used to determine a specific variable in order to be able to compensate for any weaknesses in a sensor with the strengths of a different type of sensor. In order to reduce the error associated with a variable, e.g. B. used a Kalman filter. In this way, both the movement of the vehicle itself and the movement of other road users can be estimated using a number of sensors, for example. The weighting of the information from different sensors is based on statistical uncertainties, which z. B. are supplied by the sensors themselves. Sensor data fusion is described, for example, in the following publication:
  • Dirk Stüker: "Heterogeneous sensor data fusion for robust object tracking in automotive traffic", dissertation at Faculty II - Computer Science, Economics and Law at the Carl von Ossietzky University (see also http://docserver.bis.uni-oldenburg.de/publikationen /dissertation/2004/stuhet04/stuhet04.html; accessed 07/12/2006).

Aus der DE 10 2005 002 719 A1 ist ein Verfahren zur Kursprädikation in Fahrerassistenzsystemen für Kraftfahrzeuge bekannt, bei dem an Hand von Informationen aus unterschiedlichen Informationsquellen eine Kurshypothese erstellt wird, indem je ein Satz von Rohdaten für die Kurshypothese aus jeder Informationsquelle extrahiert wird, eine Repräsentation der verschiedenen Sätze von Rohdaten in einem einheitlichen Beschreibungssystem erstellt wird und die Rohdaten zur Bildung der Kurshypothese fusioniert werden. Dabei wird durch die verbreiterte Informationsbasis, auf Grund der verschiedenen Quellen für die Rohdaten eine größere Robustheit der Kursprädikation in außergewöhnlichen Situationen erreicht.From the DE 10 2005 002 719 A1 a method for course prediction in driver assistance systems for motor vehicles is known, in which a course hypothesis is created using information from different information sources by extracting a set of raw data for the course hypothesis from each information source, a representation of the various sets of raw data in a uniform Description system is created and the raw data are merged to form the course hypothesis. Due to the broadened information base, due to the different sources for the raw data, a greater robustness of the course prediction in extraordinary situations is achieved.

Aus der DE 199 45 124 A1 ist ein Verfahren zum Navigieren eines Fahrzeugs bekannt, bei dem eine Ist-Position des Fahrzeugs mit Hilfe von Länge und Richtung zurückgelegter Strecken ermittelt wird, in zeitlichen Abständen eine Kontrollposition mit Hilfe von externen Hilfsmitteln ermittelt wird und die Ist-Position auf die Kontrollposition zurückgesetzt wird, wenn der Abstand zwischen Ist-Position und Kontrollposition einen Fehlerwert überschreitet. Dabei wird der Fehlerwert in Abhängigkeit von einer Zuverlässigkeitsprüfung verändert. Die externen Hilfsmittel werden beispielsweise von einem Satellitennavigationssystem gebildet, welches die Ist-Position des Fahrzeugs auf andere Weise bestimmt als die Positionsbestimmung mittels zurückgelegter Strecken.From the DE 199 45 124 A1 a method for navigating a vehicle is known in which an actual position of the vehicle is determined using the length and direction of distances covered, a control position is determined at time intervals using external aids and the actual position is reset to the control position , if the distance between the actual position and the control position exceeds an error value. The error value is changed depending on a reliability check. The external aids are formed, for example, by a satellite navigation system, which determines the actual position of the vehicle in a different way than determining the position using the routes covered.

Die DE 198 12 426 A1 beschreibt ein Verfahren zur Berechnung der Systemgrößen Ort, Kurswinkel und Geschwindigkeit eines Fahrzeugs mittels eines unabhängigen und eines bordeigenen Navigationssystems, wobei letzteres einen Geschwindigkeitssensor und einen Beschleunigungssensor aufweist. Die von beiden Navigationssystemen ermittelten Systemgrößen werden einem Filtermodul zugeführt, welches Korrekturwerte für die Systemgrößen und Korrekturwerte für die Parameter der Fehlermodelle des bordeigenen Navigationssystems ermittelt.the DE 198 12 426 A1 describes a method for calculating the system variables location, course angle and speed of a vehicle using an independent and an on-board navigation system, the latter having a speed sensor and an acceleration sensor. The system variables determined by the two navigation systems are fed to a filter module, which determines correction values for the system variables and correction values for the parameters of the error models of the on-board navigation system.

Die DE 101 53 212 A1 betrifft ein Navigationssystem zur Kursbestimmung eines Fahrzeugs. Dieses Navigationssystem umfasst eine Hauptsensorik zur Messung der den Fahrzeugzustand beschreibenden Zustandsgrößen, eine Hilfssensorik, die mindestens einen Sensor zur Messung einer weiteren Zustandsgröße umfasst, und einen Navigationskern, der fehlerminimierte Statusvariablen auf Basis der gemessenen Statusvariablen schätzt. Der Navigationskern umfasst ein Fahrzeugmodell, um eine höhere Allgemeingültigkeit und Robustheit gegenüber Sensorfehlern des Systems zu erreichen. Das Fahrzeugmodell sagt auf Basis der Messdaten des Hauptsensorsystems die Statusvariablen des Fahrzeugs vorher. Der Navigationskern enthält ferner einen Fehlerschätzer zum Vorhersagen der Schätzfehler des Fahrzeugmodells und ein Korrekturelement, das die vorhergesagten Zustandsvariablen mittels der vorhergesagten Schätzfehler korrigiert.the DE 101 53 212 A1 relates to a navigation system for determining the course of a vehicle. This navigation system includes a main sensor system for measuring the state variables that describe the vehicle state, an auxiliary sensor system that includes at least one sensor for measuring another state variable, and a navigation core that estimates error-minimized state variables based on the measured state variables. The navigation core includes a vehicle model in order to achieve a higher level of generality and robustness against sensor errors in the system. The vehicle model predicts the status variables of the vehicle based on the measurement data from the main sensor system. The navigation core further includes an error estimator for predicting the estimation errors of the vehicle model and a correction element that uses the predicted state variables len corrected using the predicted estimation errors.

Die DE 196 36 425 C1 zeigt ein Verfahren, welches das Erfassen von Sensorsignalen unter Verwendung von zwei komplementären Verfahren umfasst, die die verfügbaren Messdaten bzw. die Genauigkeit ausnutzen. Die Messsignale der Bewegungen eines Objekts eines ersten Sensors werden in einer Simulation verwendet und entsprechende Daten erfasst. Die Bewegungsdaten werden in eine Simulation des zweiten Messverfahrens zur Erzeugung simulierter Messsignale der zweiten Sensoranordnung eingespeist. Die simulierten Signale werden mit den tatsächlichen Messsignalen der zweiten Sensoranordnung verglichen. Die Bewegungssimulation wird entsprechend den Vergleichsergebnissen korrigiert und ihre Ausgangssignale werden als Ausgangsdaten des Navigationsverfahrens verwendet.the DE 196 36 425 C1 FIG. 1 shows a method which includes the acquisition of sensor signals using two complementary methods which exploit the available measurement data and the accuracy, respectively. The measurement signals of the movements of an object from a first sensor are used in a simulation and corresponding data is recorded. The movement data are fed into a simulation of the second measurement method for generating simulated measurement signals of the second sensor arrangement. The simulated signals are compared with the actual measurement signals from the second sensor arrangement. The motion simulation is corrected according to the comparison results and its output signals are used as the output data of the navigation process.

In der DE 103 44 120 A1 wird die Zuverlässigkeit von Positionsdaten für ein satellitengestütztes Navigationssystem bestimmt.In the DE 103 44 120 A1 the reliability of position data for a satellite-based navigation system is determined.

Die EP 1 705 458 A1 bezieht sich auf robuste Navigationslösungen für Flugzeuge und Fahrzeuge. Dabei werden aus geschätzten Navigationsdaten und mindestens einem adaptiven Modell basierend auf einem Modellvektor, der die Fahrzeugdynamik beschreibt, ein erstes und ein zweites Navigationsfehlersignal erzeugt, wobei das erste Fehlersignal die geschätzten Navigationsdaten anpasst und das zweite Fehlersignal das mindestens eine adaptive Modell aktualisiert.the EP 1 705 458 A1 refers to robust navigation solutions for aircraft and vehicles. A first and a second navigation error signal are generated from estimated navigation data and at least one adaptive model based on a model vector that describes the vehicle dynamics, with the first error signal adapting the estimated navigation data and the second error signal updating the at least one adaptive model.

Die EP 0 602 013 A2 zeigt ein eigenständiges Navigationssystem, bei dem der Ort und die Fahrtrichtung eines Fahrzeugs erfasst werden. Es wird eine Kalibrierungsvorrichtung eines Winkelgeschwindigkeitssensors offenbart, der in dem eigenständigen Navigationssystem verwendet wird. Mittels der Kalibrierungsvorrichtung kann ein ermittelter Kurswert korrigiert werden.the EP 0 602 013 A2 shows a stand-alone navigation system in which the location and direction of travel of a vehicle are recorded. A calibration device of an angular rate sensor used in the stand alone navigation system is disclosed. A course value determined can be corrected by means of the calibration device.

Die Sensordatenfusion in Fahrerassistenzsystemen bietet zwar den Vorteil, dass der zu einem Messwert gehörige Fehlerwert verringert werden kann. Bestimmte Störungen, die vom Sensor selbst oder von anderen Sensoren, die für die Sensordatenfusion verwendet werden, können jedoch nicht detektiert werden. Diese Störungen können zu einem Fehlerwert führen, der sehr viel größer ist als der von dem Sensor gelieferte Fehlerwert, der voreingestellte Fehlerwert oder der zu der Sensordatenfusion gehörige Fehlerwert.The sensor data fusion in driver assistance systems offers the advantage that the error value associated with a measured value can be reduced. However, certain interferences that can not be detected by the sensor itself or by other sensors used for sensor data fusion. These disturbances can result in an error value that is much larger than the error value provided by the sensor, the preset error value, or the error value associated with the sensor data fusion.

Es ist daher die Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung der eingangs genannten Art bereitzustellen, mit denen der zu einem Messwert gehörige Fehlerwert besser bestimmt werden kann.It is therefore the object of the present invention to provide a method and a device of the type mentioned at the outset with which the error value associated with a measured value can be better determined.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 1 und eine Vorrichtung mit den Merkmalen des Anspruchs 12 gelöst. Vorteilhafte Aus- und Weiterbildungen ergeben sich aus den Unteransprüchen.According to the invention, this object is achieved by a method having the features of claim 1 and a device having the features of claim 12 . Advantageous training and further developments result from the dependent claims.

Bei dem erfindungsgemäßen Verfahren nimmt ein zweiter Sensor einen Messwert zu einer Größe auf, die mit dem ersten Sensor nicht messbar ist, und der zu dem Messwert des ersten Sensors gehörige Fehlerwert wird mittels des Messwerts des zweiten Sensors angepasst.In the method according to the invention, a second sensor records a measured value for a variable that cannot be measured with the first sensor, and the error value associated with the measured value of the first sensor is adjusted using the measured value of the second sensor.

Mit dem zweiten Sensor wird eine Größe gemessen, die einen Einfluss auf den Fehlerwert des Messwerts des ersten Sensors hat. Da die von dem zweiten Sensor aufgenommene Größe mit dem ersten Sensor nicht messbar ist, kann der erste Sensor oder die Verarbeitungseinheit diese Größe auch nicht bei der Bestimmung des Fehlerwerts für den Messwerts des ersten Sensors berücksichtigen. Bei dem erfindungsgemäßen Verfahren handelt es sich somit nicht um eine Verringerung des Fehlerwerts eines Messwerts durch die Verwendung mehrerer Sensoren oder einer größeren Datenbasis. Vielmehr wird durch Informationen aus einer anderen Quelle ein Hintergrundwissen erlangt, um den Fehlerwert eines Messwerts eines anderen Sensors zu ermitteln. Der zweite Sensor liefert dabei zum ersten Sensor komplementäre Informationen, d. h. Informationen, die vom ersten Sensor selbst nicht bestimmt werden können.A variable is measured with the second sensor, which has an influence on the error value of the measured value of the first sensor. Since the variable recorded by the second sensor cannot be measured with the first sensor, the first sensor or the processing unit cannot take this variable into account when determining the error value for the measured value of the first sensor. The method according to the invention is therefore not a matter of reducing the error value of a measured value by using a number of sensors or a larger database. Rather, background knowledge is obtained through information from another source in order to determine the error value of a measured value from another sensor. The second sensor supplies information that is complementary to the first sensor, i. H. Information that cannot be determined by the first sensor itself.

Unter einem Sensor wird im Sinne der vorliegenden Erfindung jede Datenquelle verstanden, welche für das Fahrerassistenzsystem relevante Daten liefert. Der Sensor kann somit einerseits physikalische Größen im oder in der Umgebung des Fahrzeugs messen. Andererseits kann der Sensor auch Daten aus Datenträgern auslesen oder von anderen Datenquellen empfangen.In the context of the present invention, a sensor is understood to be any data source that supplies data relevant to the driver assistance system. The sensor can thus, on the one hand, measure physical variables in or around the vehicle. On the other hand, the sensor can also read data from data carriers or receive it from other data sources.

Das erfindungsgemäße Verfahrens ist dadurch gekennzeichnet, dass die Aufnahme des Messwerts des ersten Sensors durch einen dritten Sensor erfolgt, der den Messwert auf andere Weise als der erste Sensor misst, wenn der angepasste Fehlerwert des ersten Sensors einen Grenzwert überschreitet. Wenn sich somit durch die Anpassung des Fehlerwerts auf Grund des Messwerts des zweiten Sensors ergibt, dass der zu dem Messwert des ersten Sensors gehörige Fehlerwert zu groß wird, greift das erfindungsgemäße Verfahren auf einen andersartigen Sensor zurück, um den Messwert für das Fahrerassistenzsystem aufzunehmen.The method according to the invention is characterized in that the measured value of the first sensor is recorded by a third sensor, which measures the measured value in a different way than the first sensor when the adjusted error value of the first sensor exceeds a limit value. If the adjustment of the error value based on the measured value of the second sensor shows that the error value associated with the measured value of the first sensor is too large, the method according to the invention uses a different type of sensor to record the measured value for the driver assistance system.

Der Fehlerwert des Messwerts des ersten Sensors kann die statistische Unsicherheit bei der Messung mit dem ersten Sensor und/oder die Detektionsgüte des ersten Sensors berücksichtigen. Unter der Detektionsgüte des ersten Sensors wird die Wahrscheinlichkeit verstanden, dass eine Größe, z. B. ein Objekt, detektiert wird.The error value of the measured value of the first sensor can take into account the statistical uncertainty in the measurement with the first sensor and/or the detection quality of the first sensor. The detection quality of the first sensor means the probability that a variable, e.g. B. an object is detected.

Gemäß einem Ausführungsbeispiel des Verfahrens bestimmt der erste Sensor die Position des Fahrzeugs mittels Satellitennavigation und der zweite Sensor erfasst Objekte, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale für die Satellitennavigation führen. Beispielsweise können die Signale der Satelliten durch eine Brücke oder einen Tunnel vollständig abgeschattet werden. Dies kann zwar von dem ersten Sensor für die Satellitennavigation selbst erkannt werden. Jedoch ergeben sich bei der Bestimmung der Position des Fahrzeugs mittels Satellitennavigation nach dem Durchfahren eines Tunnels oder dem Unterfahren einer Brücke Messungenauigkeiten, die von dem Sensor für die Satellitennavigation nicht erkannt werden können. Des Weiteren können Schallschutzwände, Lkws in direkter Nachbarschaft zu dem Fahrzeug oder ähnliche Objekte zu Abschattungen von Satellitensignalen oder zu Reflektionen führen, welche die Messungenauigkeit des Sensors für die Satellitennavigation erhöhen, ohne dass dies von diesem Sensor selbst festgestellt werden könnte.According to one exemplary embodiment of the method, the first sensor determines the position of the vehicle using satellite navigation, and the second sensor detects objects that impair the reception of the satellite signals for satellite navigation. For example, the signals from the satellites can be completely blocked by a bridge or a tunnel. This can be recognized by the first sensor for the satellite navigation itself. However, when determining the position of the vehicle using satellite navigation after driving through a tunnel or driving under a bridge, there are measurement inaccuracies that cannot be detected by the sensor for the satellite navigation. Furthermore, noise barriers, trucks in the immediate vicinity of the vehicle or similar objects can lead to shadowing of satellite signals or to reflections, which increase the measurement inaccuracy of the sensor for satellite navigation without this being able to be determined by this sensor itself.

Bei diesem Ausführungsbeispiel kann beispielsweise der zweite Sensor eine elektronische geografische Karte auslesen, in der Objekte verzeichnet sind, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale für die Satellitennavigation führen. Die Information, dass sich solche Objekte in der Nähe des Fahrzeugs befinden, kann dafür verwendet werden, den Fehlerwert der Positionsbestimmung mittels Satellitennavigation zu vergrößern.In this exemplary embodiment, the second sensor can, for example, read out an electronic geographic map on which objects are recorded which impair the reception of the satellite signals for satellite navigation. The information that such objects are in the vicinity of the vehicle can be used to increase the error value of position determination using satellite navigation.

Ferner kann der zweite Sensor ein Umfeldsensor wie z. B. eine Kamera, ein Laser- und/oder ein Radarsensor sein. Solche Umfeldsensoren können z. B. Schallschutzwände, Brücken und Lkws in der Umgebung des Fahrzeugs detektieren.Furthermore, the second sensor can be an environment sensor such as B. be a camera, a laser and / or a radar sensor. Such environmental sensors can, for. B. detect noise barriers, bridges and trucks in the vicinity of the vehicle.

Gemäß einem anderen Ausführungsbeispiel des Verfahrens erfasst der erste Sensor das Umfeld des Fahrzeugs und der zweite Sensor liest eine elektronische geografische Karte aus. Die Daten des Umfeldsensors können beispielsweise Fahrspurinformationen für ein Fahrerassistenzsystem liefern. Bei der Einfahrt in einen Tunnel und bei der Ausfahrt aus einem Tunnel treten jedoch sehr starke Hell-Dunkel-Unterschiede auf, welche die Bildverarbeitung eines optischen Umfeldsensors wie z. B. einer Kamera erschweren. Wenn sich aus der elektronischen geografischen Karte ergibt, dass das Fahrzeug unmittelbar vor einer Tunneleinfahrt oder Tunnelausfahrt steht, kann diese Information dazu verwendet werden, den Fehlerwert des Umfeldsensors zu erhöhen. Dies kann beispielsweise dazu führen, dass in diesen Bereichen die Fahrspurinformation unberücksichtigt bleibt oder andere Sensoren für die Fahrspurinformation verwendet werden.According to another exemplary embodiment of the method, the first sensor detects the surroundings of the vehicle and the second sensor reads an electronic geographic map. The data from the environment sensor can, for example, provide lane information for a driver assistance system. When entering a tunnel and when exiting a tunnel, however, there are very strong light-dark differences, which impair the image processing of an optical environment sensor such as e.g. B. complicate a camera. If the electronic geographic map shows that the vehicle is directly in front of a tunnel entrance or exit, this information can be used to increase the error value of the surroundings sensor. This can mean, for example, that the lane information is not taken into account in these areas or that other sensors are used for the lane information.

Gemäß einem weiteren Ausführungsbeispiel erfasst der erste Sensor die Raddrehzahl des Fahrzeugs und der zweite Sensor ist ein Nässesensor. Der Nässesensor kann beispielsweise ein Regensensor sein. Ferner kann mittels einer Kamera eine nasse oder schneebedeckte Fahrbahn detektiert werden. Derartige Straßenverhältnisse führen zu einem Schlupf der Räder, so dass sich der Messwert des Raddrehzahlsensors für die Bestimmung der Geschwindigkeit oder der zurückgelegten Strecke erhöht.According to a further exemplary embodiment, the first sensor detects the wheel speed of the vehicle and the second sensor is a wet sensor. The moisture sensor can be a rain sensor, for example. Furthermore, a wet or snow-covered roadway can be detected by means of a camera. Such road conditions cause the wheels to slip, increasing the reading of the wheel speed sensor used to determine speed or distance traveled.

Gemäß einem weiteren Ausführungsbeispiel ist der erste Sensor eine Kamera zur Fahrspur- und Objekterkennung. Der zweite Sensor ist bei diesem Ausführungsbeispiel ein Sensor, der die Sichtverhältnisse in Fahrtrichtung erfasst. Die Sichtverhältnisse können beispielsweise mittels einer optischen Sichtweitenmessung mittels Sensor ermittelt werden. Ferner kann ein Regensensor verwendet werden, um Rückschlüsse auf die Sichtverhältnisse in Fahrtrichtung zu ziehen. Ergeben sich aus den Messwerten des zweiten Sensors schlechte Sichtverhältnisse, kann der Messfehler, der sich aus der Bildverarbeitung des Bildes der Kamera ergibt, erhöht werden.According to a further exemplary embodiment, the first sensor is a camera for lane and object detection. In this exemplary embodiment, the second sensor is a sensor that detects the visibility conditions in the direction of travel. The visibility conditions can be determined, for example, by means of an optical visibility measurement using a sensor. Furthermore, a rain sensor can be used to draw conclusions about the visibility conditions in the direction of travel. If poor visibility conditions result from the measured values of the second sensor, the measurement error resulting from the image processing of the image from the camera can be increased.

Des Weiteren kann auf Grund des Messwerts des zweiten Sensors eine Neuinitialisierung des ersten Sensors durchgeführt werden. Diese Neuinitialisierung kann dazu führen, dass sich der Fehlerwert der Messwerte des ersten Sensors in bestimmten Fällen verringert.Furthermore, based on the measured value of the second sensor, the first sensor can be reinitialized. This re-initialization can result in the error value of the readings of the first sensor decreasing in certain cases.

Gemäß einem weiteren Ausführungsbeispiel kann der erste Sensor eine Kamera sein, welche Bilder der Umgebung des Fahrzeugs aufnimmt. Diese Kamera kann z. B. auch zur Fahrspur und Objekterkennung verwendet werden. Der zweite Sensor ist auch in diesem Ausführungsbeispiel ein Sensor, der die Sichtverhältnisse erfasst und zwar in den Bereichen, in denen die Kamera Bilder aufnimmt. Bei dem zweiten Sensor zum Erfassen der Sichtverhältnisse handelt es sich in diesem Fall jedoch um einen Sensor zum Erfassen der Position des Fahrzeugs mittels Satellitennavigation, z. B. um einen GPS-Sender. Ein solcher Sensor liefert die Information, wo sich das Fahrzeug befindet. Ferner liefert ein solcher Sensor die aktuelle Tageszeit. Aus diesen Informationen wird abgeleitet, wie hoch die Wahrscheinlichkeit für Schattenbildung in den Bereichen ist, in denen die Kamera Bilder aufnimmt. Ist eine Schattenbildung z. B. bei sehr tief stehender Sonne sehr wahrscheinlich, kann der Messfehler, der sich aus der Bildverarbeitung des Bildes der Kamera ergibt, erhöht werden.According to a further exemplary embodiment, the first sensor can be a camera which takes pictures of the surroundings of the vehicle. This camera can B. can also be used for lane and object detection. In this exemplary embodiment, too, the second sensor is a sensor that detects the visibility conditions, specifically in the areas in which the camera takes pictures. In this case, however, the second sensor for detecting the visibility conditions is a sensor for detecting the position of the vehicle using satellite navigation, e.g. B. a GPS transmitter. Such a sensor provides information about where the vehicle is located. Furthermore, such a sensor provides the current time of day. This information is used to derive the likelihood of shadows forming in the areas where the camera is capturing images. is a joke tensing e.g. B. very likely when the sun is very low in the sky, the measurement error resulting from the image processing of the image of the camera can be increased.

Die erfindungsgemäße Vorrichtung weist einen zweiten Sensor zur Aufnahme eines Messwerts zu einer Größe auf, die mit dem ersten Sensor nicht messbar ist. Die Verarbeitungseinheit ist dabei so ausgebildet, dass der zu dem Messwert des ersten Sensors gehörige Fehlerwert mittels des Messwerts des zweiten Sensors anpassbar ist.The device according to the invention has a second sensor for recording a measured value for a variable that cannot be measured with the first sensor. The processing unit is designed in such a way that the error value associated with the measured value of the first sensor can be adjusted using the measured value of the second sensor.

Die Vorrichtung zeichnet sich dadurch aus, dass die Verarbeitungseinheit mit zumindest einem dritten Sensor gekoppelt ist, mit dem die Aufnahme des Messwerts des ersten Sensors auf andere Weise durchführbar ist, wenn der angepasste Fehlerwert des ersten Sensors einen Grenzwert überschreitet.The device is characterized in that the processing unit is coupled to at least one third sensor, with which the measurement value of the first sensor can be recorded in a different way if the adjusted error value of the first sensor exceeds a limit value.

Der Fehlerwert kann insbesondere die statistische Unsicherheit bei der Messung mit dem ersten Sensor und/oder die Detektionsgüte des ersten Sensors berücksichtigen.In particular, the error value can take into account the statistical uncertainty in the measurement with the first sensor and/or the detection quality of the first sensor.

Der erste Sensor kann bei der Vorrichtung ausgewählt sein unter einem Satellitennavigationssystem zum Bestimmen der Position, einem Sensor zum Erfassen des Umfelds des Fahrzeugs, einer Kamera zur Fahrspur- und Objekterkennung und einem Raddrehzahlsensor oder Kombinationen eines oder mehrerer dieser Sensoren.In the device, the first sensor can be selected from a satellite navigation system for determining the position, a sensor for detecting the surroundings of the vehicle, a camera for lane and object recognition and a wheel speed sensor or combinations of one or more of these sensors.

Der zweite Sensor kann bei der Vorrichtung ausgewählt sein unter einem Umfeldsensor, einer Kamera, einem Lasersensor, einem Radarsensor, einem Ultraschallsensor, einem Sensor für die Sichtverhältnisse in Fahrtrichtung, einem Nässesensor und einem Sensor zum Auslesen einer elektronischen geografischen Karte oder Kombinationen eines oder mehrerer dieser Sensoren. Dabei erfasst der Umfeldsensor insbesondere Objekte, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale für die Satellitennavigation führen, wenn der erste Sensor die Position mittels eines Satellitennavigationssystems bestimmt. Ferner können in diesem Fall in einer geografischen Karte Objekte verzeichnet sein, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale für die Satellitennavigation führen.In the device, the second sensor can be selected from an environment sensor, a camera, a laser sensor, a radar sensor, an ultrasonic sensor, a sensor for the visibility conditions in the direction of travel, a moisture sensor and a sensor for reading an electronic geographic map or combinations of one or more of these sensors. In this case, the surroundings sensor detects in particular objects which lead to an impairment of the reception of the satellite signals for the satellite navigation when the first sensor determines the position using a satellite navigation system. Furthermore, in this case, objects can be recorded on a geographic map, which lead to an impairment of the reception of the satellite signals for the satellite navigation.

Die Erfindung wird nun an Hand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.

  • 1 zeigt den prinzipiellen Aufbau der erfindungsgemäßen Vorrichtung und die Koppelung dieser Vorrichtung mit anderen Einrichtungen des Fahrzeugs gemäß einem Ausführungsbeispiel der Erfindung und
  • 2 veranschaulicht eine Situation, bei welcher ein Ausführungsbeispiel des Verfahrens zum Einsatz kommt.
The invention will now be explained using exemplary embodiments with reference to the drawings.
  • 1 shows the basic structure of the device according to the invention and the coupling of this device to other devices of the vehicle according to an embodiment of the invention and
  • 2 illustrates a situation in which an embodiment of the method is used.

Die erfindungsgemäße Vorrichtung umfasst insgesamt drei Sensoren 1, 2 und 3. Der erste Sensor 1 nimmt einen Messwert M1 auf und überträgt diesen an eine Verarbeitungseinheit 4. Ferner überträgt der erste Sensor 1 eine Fehlerwert ΔM1 an die Verarbeitungseinrichtung 4. Dieser Fehlerwert ΔM1 umfasst die statistische Unsicherheit der Messung und die Detektionsgüte des ersten Sensors 1.The device according to the invention comprises a total of three sensors 1, 2 and 3. The first sensor 1 records a measured value M1 and transmits it to a processing unit 4. The first sensor 1 also transmits an error value ΔM1 to the processing device 4. This error value ΔM1 includes the statistical Uncertainty of the measurement and the detection quality of the first sensor 1.

Der zweite Sensor 2 nimmt einen Messwert M2 zu einer Größe auf, die mit dem ersten Sensor 1 nicht messbar ist. Der zweite Sensor 2 liefert zu dem ersten Sensor 1 komplementäre Informationen, d. h. Informationen, die von dem ersten Sensor 1 selbst nicht bestimmt werden können. Es wird somit nicht dasselbe Messmerkmal von mehreren, möglicherweise heterogenen Sensoren vermessen, um den Fehler eines einzelnen Sensors zu bestimmen. Vielmehr wird von dem zweiten Sensor 2 eine Größe bestimmt, welche Einfluss auf den Fehlerwert ΔM1 des Messwerts M1 des ersten Sensors 1 hat.
Der Messwert M2 des zweiten Sensors 2 wird auch an die Verarbeitungseinrichtung 4 übertragen. Die Verarbeitungseinrichtung 4 passt mittels des Messwerts M2 des zweiten Sensors 2 den zu dem Messwert M1 des ersten Sensors 1 gehörigen Fehlerwert ΔM1 an. Überschreitet der angepasste Fehlerwert ΔM1 einen bestimmten, in der Verarbeitungseinrichtung 4 gespeicherten Grenzwert, verwendet die Verarbeitungseinrichtung 4 nicht mehr den ersten Sensor 1 zur Aufnahme des Messwerts M1, sondern einen dritten Sensor 3, welcher den Messwert M1 auf andere Weise bestimmt, als der erste Sensor 1.
The second sensor 2 records a measured value M2 for a variable that cannot be measured with the first sensor 1 . The second sensor 2 supplies information that is complementary to the first sensor 1, ie information that cannot be determined by the first sensor 1 itself. The same measurement feature is therefore not measured by a number of possibly heterogeneous sensors in order to determine the error in an individual sensor. Instead, the second sensor 2 determines a variable that influences the error value ΔM1 of the measured value M1 of the first sensor 1 .
The measured value M2 of the second sensor 2 is also transmitted to the processing device 4 . The processing device 4 uses the measured value M2 of the second sensor 2 to adapt the error value ΔM1 associated with the measured value M1 of the first sensor 1 . If the adjusted error value ΔM1 exceeds a specific limit value stored in the processing device 4, the processing device 4 no longer uses the first sensor 1 to record the measured value M1, but instead uses a third sensor 3, which determines the measured value M1 in a different way than the first sensor 1.

Die Verarbeitungseinrichtung 4 überträgt den Messwert M1 mit dem ermittelten Fehlerwert ΔM1 an das Fahrerassistenzsystem zur weiteren Verarbeitung. Das Fahrerassistenzsystem 5 zeigt dem Fahrer die Assistenzdaten visuell mittels der Anzeigevorrichtung 6 an.The processing device 4 transmits the measured value M1 with the ascertained error value ΔM1 to the driver assistance system for further processing. The driver assistance system 5 visually displays the assistance data to the driver by means of the display device 6 .

Im Folgenden werden mehrere Beispiele für den ersten und zweiten Sensor 1 und 2 beschrieben:Several examples for the first and second sensors 1 and 2 are described below:

1. Anpassung des Fehlerwerts eines DGPS-Sensors1. Adjusting the error value of a DGPS sensor

Bei dem ersten Sensor 1 handelt es sich in diesem Fall um ein Satellitennavigationssystem, mit dem die Position des Fahrzeugs bestimmt wird. Es wird insbesondere ein differenzieller GPS-Sensor eingesetzt. Mit diesem kann hochpräzise die Position des Fahrzeugs in globalen Koordinaten bestimmt werden. Dies ermöglicht die Positionierung des Fahrzeugs auf einer hochgenauen Karte, mit deren Hilfe die laterale und longitudinale Position des Fahrzeugs innerhalb einer Fahrspur bestimmt werden kann. Während der Durchfahrt unter einer Brücke wird der Empfang der GPS-Satelliten unterbrochen. Eine hochpräzise Ortung ist hier nicht möglich. Dies beeinträchtigt somit die Verfügbarkeit des Sensors. Der GPS-Sensor kann jedoch von sich aus eindeutig feststellen, dass auf Grund ausbleibender Satellitensignale keine Positionsbestimmung möglich ist. Die Zuverlässigkeit der Sensordaten ist somit gegeben, da der GPS-Sensor der Verarbeitungseinheit 4 einen korrekten Fehlerwert überträgt. In diesem Bereich kann die Verarbeitungseinrichtung somit auf den dritten Sensor 3 zurückgreifen, um die Position des Fahrzeugs zu bestimmen. Der dritte Sensor 3 kann in diesem Fall auf die Raddrehzahlen, die Gierrate und die Querbeschleunigung des Fahrzeugs zur Bestimmung einer Relativbewegung zurückgreifen.In this case, the first sensor 1 is a satellite navigation system, with which the position of the vehicle is determined. In particular, a differential GPS sensor is used. With this, the position of the vehicle can be determined with high precision in global coordinates. This enables the vehicle to be positioned on a highly accurate map, which can be used to determine the vehicle's lateral and longitudinal position within a lane. GPS satellite reception is interrupted while driving under a bridge. High-precision localization is not possible here. This therefore affects the availability of the sensor. However, the GPS sensor can clearly determine on its own that no position determination is possible due to a lack of satellite signals. The sensor data is therefore reliable because the GPS sensor transmits a correct error value to the processing unit 4 . In this area, the processing device can thus fall back on the third sensor 3 in order to determine the position of the vehicle. In this case, the third sensor 3 can use the wheel speeds, the yaw rate and the lateral acceleration of the vehicle to determine a relative movement.

Nach der Brückendurchfahrt beginnt der DGPS-Sensor die Position des Fahrzeugs neu zu berechnen. Hierbei besteht die Gefahr, dass er sich auf eine falsche Phasenlösung einschwingt und somit fehlerhafte Positionsdaten liefert. Es besteht also die Gefahr, dass der DGPS-Sensor nach dem Unterfahren einer Brücke Unsicherheiten ausgibt, die nicht zu der tatsächlichen Positionsabweichung passen.
Als zweiter Sensor 2 ist ein Sensor zum Auslesen einer digitalen Karte vorgesehen. In der digitalen Karte sind alle Brücken verzeichnet, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale des Satellitennavigationssystems führen. Die Bereiche nach dem Unterfahren der Brücke sind in der digitalen Karte so vermerkt, dass in diesen Bereichen die Messwerte des DGPS-Sensors weniger vertrauenswürdig sind. Diese Situation ist in 2 dargestellt. Das Fahrzeug 7 fährt auf der rechten Fahrspur 8 unter einer Brücke 9 hindurch. In der digitalen Karte ist der Bereich 10 auf der rechten Fahrspur 8 unmittelbar hinter der Brücke 9 so gekennzeichnet, dass der Sensor zum Auslesen der digitalen Karte erfassen kann, dass dieser Bereich 10 zu einem höheren Fehlerwert des Messwerts des DGPS-Sensors führt. Für Messwerte des DGPS-Sensors, welche in diesem Bereich 10 aufgenommen wurden, kann die Verarbeitungseinheit 4 somit den zugehörigen Fehlerwert entsprechend erhöhen. Des Weiteren kann die Verarbeitungseinheit 4 gegebenenfalls auf den dritten Sensor 3 zur Positionsbestimmung zurückgreifen, mit welchem die Positionsbestimmung des Fahrzeugs auf der digitalen Kamera beispielsweise mittels Landmarken oder Fahrzeugdaten durchgeführt wird.
After crossing the bridge, the DGPS sensor starts recalculating the position of the vehicle. There is a risk here that it settles into an incorrect phase solution and thus supplies erroneous position data. There is therefore a risk that the DGPS sensor, after driving under a bridge, will output uncertainties that do not match the actual position deviation.
A sensor for reading a digital map is provided as the second sensor 2 . All bridges that impair the reception of satellite signals from the satellite navigation system are listed on the digital map. The areas after driving under the bridge are noted on the digital map in such a way that the readings from the DGPS sensor are less reliable in these areas. This situation is in 2 shown. The vehicle 7 drives under a bridge 9 in the right-hand lane 8 . In the digital map, the area 10 on the right-hand lane 8 immediately behind the bridge 9 is marked in such a way that the sensor for reading the digital map can detect that this area 10 leads to a higher error value in the measured value of the DGPS sensor. For measured values of the DGPS sensor that were recorded in this area 10, the processing unit 4 can thus increase the associated error value accordingly. Furthermore, the processing unit 4 can optionally use the third sensor 3 for determining the position, with which the position of the vehicle is determined on the digital camera, for example using landmarks or vehicle data.

Des Weiteren werden die Messwerte eines DGPS-Empfängers durch höhere Objekte in der Nähe des Fahrzeugs beeinträchtigt. Es kann sich hierbei beispielsweise um Schallschutzwände oder einen Lkw, der sich in unmittelbarer Nähe des Fahrzeugs befindet, handeln. Die DGPS-Korrektursignale werden üblicherweise mittels GSM-Modulen empfangen. In der Nähe von Schallschutzwänden wird der Empfang des Korrektursignals dadurch gestört, dass die Sicht auf einzelne Satelliten in Folge von Abschattungen durch die Wände unterbunden ist und/oder durch Reflektionen an den Schallschutzwänden das Signal verfälscht wird. Kommt es sogar zu einer Unterbrechung des Empfangs der Signale der Satelliten, so beginnt der DGPS-Sensor wiederum die Neuberechnung der Fahrzeugposition nachdem die Satellitensignale wieder empfangen werden. Wie vorstehend erläutert, besteht in diesem Falle die Gefahr, dass der DGPS-Sensor sich auf eine falsche Phasenlösung einschwingt, und daher sich der Fehlerwert für die Fahrzeugposition erhöht, ohne dass dies der DGPS-Sensor von sich aus feststellen könnte.Furthermore, the readings of a DGPS receiver are affected by higher objects in the vicinity of the vehicle. This can be, for example, noise barriers or a truck that is in the immediate vicinity of the vehicle. The DGPS correction signals are usually received using GSM modules. In the vicinity of noise barriers, reception of the correction signal is disrupted by the fact that the view of individual satellites is blocked as a result of shadowing by the walls and/or the signal is falsified by reflections on the noise barriers. If there is even an interruption in the reception of the satellite signals, the DGPS sensor starts recalculating the vehicle position after the satellite signals are received again. In this case, as explained above, there is a risk that the DGPS sensor will settle on an incorrect phase solution and therefore the error value for the vehicle position will increase without the DGPS sensor being able to detect this on its own.

Auch in diesem Fall kann der zweite Sensor 2 ein Sensor zum Auslesen einer digitalen Karte sein, in der die Positionen der Schallschutzwände vermerkt sind. In Abhängigkeit von den Informationen aus der digitalen Karte kann der Fehlerwert der Messwerte des DGPS-Sensors entsprechend angepasst werden, und ferner kann sich die Verarbeitungseinheit 4 gegebenenfalls stärker auf andere Verfahren zur Positionsbestimmung auf der digitalen Karte stützen.In this case, too, the second sensor 2 can be a sensor for reading a digital map on which the positions of the noise protection walls are noted. Depending on the information from the digital map, the error value of the readings of the DGPS sensor can be adjusted accordingly, and furthermore the processing unit 4 can, if necessary, rely more heavily on other methods for determining the position on the digital map.

Um Lkws, die sich in unmittelbarer Nähe des eigenen Fahrzeugs befinden, und die wie Schallschutzwände den Empfang des DGPS-Korrektursignals stören oder unterbrechen können, zu detektieren, kann alternativ oder zusätzlich als zweiter Sensor 2 ein Umfeldsensor vorgesehen sein, welcher einen Lkw unmittelbar links oder rechts neben dem eigenen Fahrzeug detektieren kann. Detektiert dieser Umfeldsensor einen Lkw neben dem Fahrzeug, kann die Verarbeitungseinheit 4 den Fehlerwert der Messwerte des DGPS-Sensors anpassen, d. h. in diesem Fall vergrößern.In order to detect trucks that are in the immediate vicinity of your own vehicle and that, like noise barriers, can interfere with or interrupt the reception of the DGPS correction signal, an environment sensor can be provided as an alternative or in addition as a second sensor 2, which detects a truck immediately to the left or to the right of one's own vehicle. If this environment sensor detects a truck next to the vehicle, the processing unit 4 can adapt the error value of the measured values of the DGPS sensor, i. H. in this case increase.

2. Korrektur des Messfehlers der Daten, die sich aus der Verarbeitung eines Kamerabildes ergeben2. Correction of the measurement error of the data resulting from the processing of a camera image

In diesem Fall wird als erster Sensor 1 eine Kamera mit zugeordneter Bildverarbeitungseinheit verwendet, um die Fahrspur und die Objekte in der Umgebung des Fahrzeugs für ein Fahrerassistenzsystem zu erfassen. Bei der Ein- und Ausfahrt in und aus einem Tunnel muss die Kamera sehr große Helligkeitsunterschiede ausregeln. Bei der Einfahrt in den Tunnel muss sie sich an die Dunkelheit im Tunnel adaptieren, bei der Ausfahrt aus dem Tunnel wird sie zunächst geblendet. Für einen kurzen Zeitraum bei der Einfahrt in und der Ausfahrt aus dem Tunnel, ist der Fehler, welcher bei der Verarbeitung der Bilder der Kamera, z. B. für die Erkennung der Fahrspur und von Objekten wie anderen Verkehrsteilnehmern auftritt, sehr viel größer. Gegebenenfalls können die Kamerabilder überhaupt nicht zum Erkennen der Fahrspur und anderer Objekte verwendet werden.In this case, a camera with an associated image processing unit is used as the first sensor 1 in order to record the lane and the objects in the surroundings of the vehicle for a driver assistance system. When entering and exiting a tunnel, the camera has to compensate for very large differences in brightness. When entering the tunnel, she has to adapt to the darkness in the tunnel, and when she exits the tunnel, she is initially blinded. For a short period of time when entering and exiting the tunnel, the error that occurs when processing the images from the camera, e.g. B. for the detection of the lane and objects such as other road users occurs, much larger. If necessary, they can Camera images are not used at all to detect the lane and other objects.

In diesem Fall wird erneut als zweiter Sensor 2 ein Sensor zum Auslesen einer digitalen Karte verwendet. In dieser digitalen Karte sind die Tunnelein- und -ausfahrten vermerkt. Für diese Bereiche kann die Verarbeitungseinrichtung 4 den Fehlerwert für die Messwerte, welche sich aus den Kamerabildern ergeben, vergrößern oder sich für die Fahrspurerkennung oder die Erkennung von anderen Objekten auf andere Datenquellen wie den dritten Sensor 3 stützen.In this case, a sensor for reading a digital map is used again as the second sensor 2 . The tunnel entrances and exits are noted on this digital map. For these areas, the processing device 4 can increase the error value for the measured values that result from the camera images or rely on other data sources such as the third sensor 3 for the lane detection or the detection of other objects.

Des Weiteren kann die Bildverarbeitung der Bilder der Kamera durch schlechte Witterungsverhältnisse wie Nebel, Starkregen oder starken Schneefall beeinträchtigt werden. Solche Witterungsverhältnisse erhöhen den Fehlerwert der Messwerte, welche sich aus der Verarbeitung der Bilddaten der Kamera ergeben. Aus diesem Grund kann, alternativ oder zusätzlich, als zweiter Sensor 2 ein Sensor, der die Sichtverhältnisse in Fahrtrichtung erfasst, vorgesehen sein. Eine Sichtweitenmessung kann beispielsweise durch einen Laser durchgeführt werden. Ferner kann ein Regensensor verwendet werden, welcher Starkregen detektieren kann, woraus Rückschlüsse auf die Sichtverhältnisse gezogen werden können. Werden schlechte Sichtverhältnisse in Fahrtrichtung detektiert, kann die Verarbeitungseinheit 4 den Fehlerwert für die Messwerte, welche sich aus der Verarbeitung der Bilddaten der Kamera ergeben, erhöhen. Gegebenenfalls kann bei der Ermittlung von Fahrspurdaten und Objektdaten nicht mehr auf die Kamera zurückgegriffen werden sondern auf andere Sensoren.Furthermore, the image processing of the camera images can be impaired by bad weather conditions such as fog, heavy rain or heavy snowfall. Such weather conditions increase the error value of the measured values, which result from the processing of the image data of the camera. For this reason, as an alternative or in addition, a sensor that detects the visibility conditions in the direction of travel can be provided as the second sensor 2 . A visibility measurement can be carried out, for example, by a laser. Furthermore, a rain sensor can be used, which can detect heavy rain, from which conclusions can be drawn about the visibility conditions. If poor visibility conditions are detected in the direction of travel, the processing unit 4 can increase the error value for the measured values that result from the processing of the image data from the camera. If necessary, the camera can no longer be used to determine lane data and object data, but other sensors.

Schließlich kann die Bildverarbeitung der Bilder der Kamera durch Schattenbildung beeinträchtigt werden. Auch die Schattenbildung erhöht somit den Fehlerwert der Messwerte, welche sich aus der Verarbeitung der Bilddaten der Kamera ergeben. Aus diesem Grund kann alternativ oder zusätzlich als zweiter Sensor 2 ein Sensor vorgesehen sein, der als Information die geographische Position sowie die Tageszeit liefert. Hierfür kann als zweiter Sensor beispielsweise ein Satellitennavigationssystem, insbesondere ein GPS-Sensor, bevorzugt ein differentieller GPS-Sensor, verwendet werden. Dieser liefert nämlich neben der geographischen Position auch die Tageszeit. Aus diesen Informationen kann eine Wahrscheinlichkeit dafür berechnet werden, dass im Bereich der Bilder der Kamera Schatten auftreten, welche die weitere Bildverarbeitung beeinträchtigen. Ist die Wahrscheinlichkeit für das Auftreten von Schatten in den Bildern der Kamera hoch, kann die Verarbeitungseinheit 4 den Fehlerwert für die Messwerte, welche sich aus der Verarbeitung der Bilddaten der Kamera ergeben, erhöhen.Finally, the image processing of the camera's images can be affected by the formation of shadows. The formation of shadows also increases the error value of the measured values, which result from the processing of the image data of the camera. For this reason, a sensor can be provided as an alternative or in addition as the second sensor 2, which supplies the geographical position and the time of day as information. For this purpose, a satellite navigation system, in particular a GPS sensor, preferably a differential GPS sensor, can be used as the second sensor. In addition to the geographical position, this also provides the time of day. From this information, a probability can be calculated that shadows appear in the area of the camera images, which impair further image processing. If the probability of shadows occurring in the images from the camera is high, the processing unit 4 can increase the error value for the measured values that result from the processing of the image data from the camera.

3. Anpassung des Fehlerwerts eines Raddrehzahlmessers3. Adjustment of the error value of a wheel speed meter

Die Position des eigenen Fahrzeugs auf einer digitalen Karte kann auch über Daten erfolgen, die sich im Fahrzeug selbst ergeben. Beispielsweise kann die Relativbewegung des Fahrzeugs an Hand der Raddrehzahlen, der Gierrate und der Querbeschleunigung bestimmt werden. Bei dem Raddrehzahlsensor ergibt sich das Problem, dass bei einem Schlupf der Räder die Positionsbestimmung mit einem Fehler behaftet ist. Je stärker der Schlupf ist, desto größer ist der Fehler in der Positionsbestimmung. Insbesondere, wenn sich stehendes Wasser, Schnee oder gar Eis auf der Fahrbahn befindet, ist mit einem hohen Schlupf der Räder zu rechnen. Aus diesem Grund ist als zweiter Sensor 2 ein Nässesensor vorgesehen, welcher Messwerte liefert, mit denen Rückschlüsse auf solche Straßenverhältnisse gezogen werden können. Beispielsweise kann ein Regensensor starken Regen messen, oder eine Kamera Schnee oder Eis auf der Fahrbahn erfassen. Werden entsprechende Straßenverhältnisse von dem Nässesensor erfasst, wird der Fehlerwert der Messwerte des Raddrehzahlsensors vergrößert.The position of one's own vehicle on a digital map can also be determined using data that arise in the vehicle itself. For example, the relative movement of the vehicle can be determined using the wheel speeds, the yaw rate and the lateral acceleration. The problem with the wheel speed sensor is that if the wheels slip, the determination of the position is subject to an error. The greater the slip, the greater the error in position determination. In particular, if there is standing water, snow or even ice on the road, a high level of wheel slip is to be expected. For this reason, a wetness sensor is provided as the second sensor 2, which delivers measured values with which conclusions can be drawn about such road conditions. For example, a rain sensor can measure heavy rain, or a camera can record snow or ice on the road. If corresponding road conditions are detected by the wetness sensor, the error value of the measured values of the wheel speed sensor is increased.

BezugszeichenlisteReference List

11
Erster SensorFirst sensor
22
Zweiter SensorSecond sensor
33
Dritter SensorThird sensor
44
Verarbeitungseinheitprocessing unit
55
Fahrerassistenzsystemdriver assistance system
66
Anzeigevorrichtungdisplay device
77
Fahrzeugvehicle
88th
Fahrspurlane
99
BrückeBridge
1010
Bereich hinter der Brückearea behind the bridge

Claims (18)

Verfahren zum Verarbeiten von Sensordaten für ein Fahrerassistenzsystem eines Fahrzeugs, bei dem - ein erster Sensor (1) einen Messwert (M1) aufnimmt und an eine Verarbeitungseinheit (4) überträgt, wobei dem Messwert (M1) ein Fehlerwert (ΔM1) zugeordnet wird, dadurch gekennzeichnet, dass - ein zweiter Sensor (2) einen Messwert (M2) zu einer Größe aufnimmt, die mit dem ersten Sensor (1) nicht messbar ist, - der zu dem Messwert (M1) des ersten Sensors (1) gehörige Fehlerwert (ΔM1) mittels des Messwerts (M2) des zweiten Sensors (2) angepasst wird, und dass die Aufnahme des Messwerts (M1) des ersten Sensors (1) durch einen dritten Sensor (3) auf andere Weise als mit dem ersten Sensor (1) erfolgt, wenn der angepasste Fehlerwert (ΔM1) des ersten Sensors (1) einen Grenzwert überschreitet.Method for processing sensor data for a driver assistance system of a vehicle, in which - a first sensor (1) records a measured value (M1) and transmits it to a processing unit (4), with the measured value (M1) being assigned an error value (ΔM1), thereby characterized in that - a second sensor (2) records a measured value (M2) for a variable that cannot be measured with the first sensor (1), - the error value (ΔM1) associated with the measured value (M1) of the first sensor (1). ) is adjusted by means of the measured value (M2) of the second sensor (2), and that the recording of the measured value (M1) of the first sensor (1) by a third sensor (3) in a different way than with the first sensor (1) if the adjusted error value (ΔM1) of the first sensor (1) exceeds a limit value. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Fehlerwert (ΔM1) die statistische Unsicherheit bei der Messung mit dem ersten Sensor (1) berücksichtigt.procedure after claim 1 , characterized in that the error value (ΔM1) takes into account the statistical uncertainty in the measurement with the first sensor (1). Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass der Fehlerwert (ΔM1) die Detektionsgüte des ersten Sensors (1) berücksichtigt.Method according to one of the preceding claims, characterized in that the error value (ΔM1) takes into account the detection quality of the first sensor (1). Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass der erste Sensor (1) die Position des Fahrzeugs (7) mittels Satellitennavigation bestimmt und der zweite Sensor (2) Objekte (9) erfasst, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale für die Satellitennavigation führen.Method according to one of the preceding claims, characterized in that the first sensor (1) determines the position of the vehicle (7) by means of satellite navigation and the second sensor (2) detects objects (9) which impair the reception of the satellite signals for the guide satellite navigation. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der zweite Sensor eine elektronische geografische Karte ausliest, in der Objekte verzeichnet sind, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale für die Satellitennavigation führen.procedure after claim 4 , characterized in that the second sensor reads an electronic geographic map in which objects are recorded which lead to an impairment of the reception of the satellite signals for satellite navigation. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der zweite Sensor (2) ein Umfeldsensor ist.procedure after claim 4 , characterized in that the second sensor (2) is an environment sensor. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der zweite Sensor (2) eine Kamera ist.procedure after claim 4 , characterized in that the second sensor (2) is a camera. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der zweite Sensor (2) ein Laser- und/oder Radarsensor ist.procedure after claim 4 , characterized in that the second sensor (2) is a laser and / or radar sensor. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der erste Sensor (1) das Umfeld des Fahrzeugs (7) erfasst und der zweite Sensor (2) eine elektronische geografische Karte ausliest.Procedure according to one of Claims 1 until 3 , characterized in that the first sensor (1) detects the environment of the vehicle (7) and the second sensor (2) reads an electronic geographic map. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der erste Sensor (1) die Raddrehzahl des Fahrzeugs (7) erfasst und der zweite Sensor (2) ein Nässesensor ist.Procedure according to one of Claims 1 until 3 , characterized in that the first sensor (1) detects the wheel speed of the vehicle (7) and the second sensor (2) is a wet sensor. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der erste Sensor (1) eine Kamera zur Fahrspur- und Objekterkennung ist und der zweite Sensor (2) die Sichtverhältnisse in Fahrtrichtung erfasst.Procedure according to one of Claims 1 until 3 , characterized in that the first sensor (1) is a camera for lane and object detection and the second sensor (2) detects the visibility in the direction of travel. Vorrichtung zum Verarbeiten von Sensordaten für ein Fahrerassistenzsystem eines Fahrzeugs (7) mit - einem ersten Sensor (1) zur Aufnahme eines Messwerts (M1) und - einer mit dem ersten Sensor (1) gekoppelten Verarbeitungseinheit (4) zum Empfang des Messwerts (M1), wobei dem Messwert (M1) ein Fehlerwert (ΔM1) zugeordnet ist, dadurch gekennzeichnet, - dass die Vorrichtung einen zweiten Sensor (2) zur Aufnahme eines Messwerts (M2) zu einer Größe aufweist, die mit dem ersten Sensor (1) nicht messbar ist, und - dass die Verarbeitungseinheit (4) so ausgebildet ist, dass der zu dem Messwert (M1) des ersten Sensors (1) gehörige Fehlerwert (ΔM1) mittels des Messwerts (M2) des zweiten Sensors (2) anpassbar ist, und dass zumindest ein dritter Sensor (3) mit der Verarbeitungseinheit (4) gekoppelt ist, mit dem die Aufnahme des Messwerts (M1) des ersten Sensors (1) auf andere Weise durchführbar ist, wenn der angepasste Fehlerwert (ΔM1) des ersten Sensors (1) einen Grenzwert überschreitet.Device for processing sensor data for a driver assistance system of a vehicle (7), having - a first sensor (1) for recording a measured value (M1) and - a processing unit (4) coupled to the first sensor (1) for receiving the measured value (M1) , wherein an error value (ΔM1) is assigned to the measured value (M1), characterized in that the device has a second sensor (2) for recording a measured value (M2) for a variable that cannot be measured with the first sensor (1). and - that the processing unit (4) is designed in such a way that the error value (ΔM1) associated with the measured value (M1) of the first sensor (1) can be adapted by means of the measured value (M2) of the second sensor (2), and that at least one third sensor (3) is coupled to the processing unit (4), with which the measurement value (M1) of the first sensor (1) can be recorded in a different way if the adjusted error value (ΔM1) of the first sensor (1) exceeds a limit. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass der Fehlerwert (ΔM1) die statistische Unsicherheit bei der Messung mit dem ersten Sensor (1) berücksichtigt.device after claim 12 , characterized in that the error value (ΔM1) takes into account the statistical uncertainty in the measurement with the first sensor (1). Vorrichtung nach einem der Ansprüche 12 bis 13, dadurch gekennzeichnet, dass der Fehlerwert (ΔM1) die Detektionsgüte des ersten Sensors (1) berücksichtigt.Device according to one of Claims 12 until 13 , characterized in that the error value (ΔM1) takes into account the detection quality of the first sensor (1). Vorrichtung nach einem der Ansprüche 12 bis 14, dadurch gekennzeichnet, dass der erste Sensor (1) ausgewählt ist unter einem Satellitennavigationssystem zum Bestimmen der Position des Fahrzeugs (7), einem Sensor zum Erfassen des Umfelds des Fahrzeugs (7), einer Kamera zur Fahrspur- und Objekterkennung und einem Raddrehzahlsensor oder Kombinationen eines oder mehrerer dieser Sensoren.Device according to one of Claims 12 until 14 , characterized in that the first sensor (1) is selected from a satellite navigation system for determining the position of the vehicle (7), a sensor for detecting the surroundings of the vehicle (7), a camera for lane and object detection and a wheel speed sensor or combinations one or more of these sensors. Vorrichtung nach einem der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass der zweite Sensor (2) ausgewählt ist unter einem Umfeldsensor, einer Kamera, einem Lasersensor, einem Radarsensor, einem Ultraschallsensor, einem Sensor für die Sichtverhältnisse in Fahrtrichtung, einem Nässesensor und einem Sensor zum Auslesen einer elektronischen geografischen Karte oder Kombinationen eines oder mehrerer dieser Sensoren.Device according to one of Claims 12 until 15 , characterized in that the second sensor (2) is selected from an environment sensor, a camera, a laser sensor, a radar sensor, an ultrasonic sensor, a sensor for the visibility conditions in the direction of travel, a moisture sensor and a sensor for reading an electronic geographic map or combinations one or more of these sensors. Vorrichtung nach Anspruch 16, dadurch gekennzeichnet, dass der Umfeldsensor Objekte erfasst, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale für die Satellitennavigation führen.device after Claim 16 , characterized in that the environment sensor detects objects which lead to an impairment of the reception of the satellite signals for satellite navigation. Vorrichtung nach Anspruch 16, dadurch gekennzeichnet, dass in der geografischen Karte Objekte verzeichnet sind, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale für die Satellitennavigation führen.device after Claim 16 , characterized in that objects are recorded in the geographic map, which lead to an impairment of the reception of the satellite signals for satellite navigation.
DE102007041121.0A 2007-08-30 2007-08-30 Method and device for processing sensor data for a driver assistance system of a vehicle Active DE102007041121B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007041121.0A DE102007041121B4 (en) 2007-08-30 2007-08-30 Method and device for processing sensor data for a driver assistance system of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007041121.0A DE102007041121B4 (en) 2007-08-30 2007-08-30 Method and device for processing sensor data for a driver assistance system of a vehicle

Publications (2)

Publication Number Publication Date
DE102007041121A1 DE102007041121A1 (en) 2009-03-05
DE102007041121B4 true DE102007041121B4 (en) 2022-05-19

Family

ID=40298964

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007041121.0A Active DE102007041121B4 (en) 2007-08-30 2007-08-30 Method and device for processing sensor data for a driver assistance system of a vehicle

Country Status (1)

Country Link
DE (1) DE102007041121B4 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009035321A1 (en) * 2009-07-30 2011-03-03 Audi Ag Method for controlling motor-pivoted body part for motor vehicle, particularly tailgate, involves evaluating signal of sensor device by control unit
DE102011077998A1 (en) 2010-06-23 2012-01-05 Continental Teves Ag & Co. Ohg Method and system for information validation
DE102011116169A1 (en) * 2011-10-14 2013-04-18 Continental Teves Ag & Co. Ohg Device for assisting a driver when driving a vehicle or for autonomously driving a vehicle
DE102012013504B4 (en) 2012-07-06 2014-02-06 Audi Ag A method of operating a satellite positioning system for a motor vehicle and positioning system
DE102012224104A1 (en) * 2012-12-20 2014-06-26 Continental Teves Ag & Co. Ohg Method for providing a GNSS signal
JP5991332B2 (en) 2014-02-05 2016-09-14 トヨタ自動車株式会社 Collision avoidance control device
EP2921363A1 (en) 2014-03-18 2015-09-23 Volvo Car Corporation Vehicle, vehicle system and method for increasing safety and/or comfort during autonomous driving
EP2921362B1 (en) * 2014-03-18 2020-08-12 Volvo Car Corporation Vehicle, vehicle system and method for increasing safety and/or comfort during autonomous driving
DE102014211180A1 (en) * 2014-06-11 2015-12-17 Continental Teves Ag & Co. Ohg Method and system for improved detection and / or compensation of error values
DE102014215570B4 (en) 2014-08-06 2021-12-30 Elektrobit Automotive Gmbh Vehicle navigation system
US10569768B2 (en) * 2017-02-22 2020-02-25 Panasonic Intellectual Property Corporation Of America Information processing apparatus, information processing method, and non-transitory recording medium
EP4494966A3 (en) 2018-12-26 2025-04-02 Shenzhen Yinwang Intelligent Technologies Co., Ltd. Vehicle control method, related device, and computer storage medium
DE102019202258A1 (en) * 2019-02-20 2020-08-20 Audi Ag Method for operating environmental sensors in a motor vehicle and motor vehicle
DE102019210339A1 (en) * 2019-07-12 2021-01-14 Robert Bosch Gmbh Method for controlling a vehicle, computer program, machine-readable storage medium, control device and vehicle
DE102020113432A1 (en) 2020-05-18 2021-11-18 Bayerische Motoren Werke Aktiengesellschaft Device and method for operating an automated driving function in a blinding situation
DE102022212107A1 (en) 2022-11-15 2024-05-16 Robert Bosch Gesellschaft mit beschränkter Haftung Sensor system and driver assistance system
DE102023004450B3 (en) 2023-11-04 2024-11-07 Mercedes-Benz Group AG Method for pre-controlling a driver assistance system

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0602013A2 (en) 1989-04-07 1994-06-15 Sumitomo Electric Industries, Ltd Calibration apparatus of angular velocity sensor in self-contained navigational system
DE19636425C1 (en) 1996-09-07 1997-11-13 Aero Data Flugmestechnik Gmbh Navigation method using complementary measurement methods for motor vehicle
DE19636443A1 (en) 1996-09-07 1998-03-12 Bosch Gmbh Robert Device and method for monitoring sensors in a vehicle
DE19812426A1 (en) 1998-03-20 1999-09-23 Valeo Electronics Gmbh & Co Kg Setting of sensors for vehicle on-board navigation system, for computing position, course angle and speed
DE19945124A1 (en) 1999-09-21 2001-04-26 Mannesmann Vdo Ag Vehicle in-car navigation method involves setting actual position back to control position if spacing between positions exceed error value such that error value is changed depending on reliability test
EP1283406A2 (en) 2001-08-01 2003-02-12 Siemens Aktiengesellschaft Image processing apparatus for a vehicle and method for the same
DE10153212A1 (en) 2001-10-31 2003-06-05 Stn Atlas Elektronik Gmbh Navigation system for determining the course of a vehicle
DE10344120A1 (en) 2003-09-24 2005-04-21 Daimler Chrysler Ag Device and method for displaying driving instructions
DE102005002719A1 (en) 2005-01-20 2006-08-03 Robert Bosch Gmbh Course prediction method in driver assistance systems for motor vehicles
EP1705458A1 (en) 2005-03-26 2006-09-27 Saab Ab Inertial- and vehicle dynamics based autonomous navigation
WO2007086826A1 (en) 2005-01-18 2007-08-02 Honeywell International Inc. Systems and methods for shock compensation utilizing an adaptive control technique algorithm

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030056284A (en) * 2001-12-28 2003-07-04 한국전자통신연구원 Method and system for extraction a road institution body information using a vehicles

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0602013A2 (en) 1989-04-07 1994-06-15 Sumitomo Electric Industries, Ltd Calibration apparatus of angular velocity sensor in self-contained navigational system
DE19636425C1 (en) 1996-09-07 1997-11-13 Aero Data Flugmestechnik Gmbh Navigation method using complementary measurement methods for motor vehicle
DE19636443A1 (en) 1996-09-07 1998-03-12 Bosch Gmbh Robert Device and method for monitoring sensors in a vehicle
DE19812426A1 (en) 1998-03-20 1999-09-23 Valeo Electronics Gmbh & Co Kg Setting of sensors for vehicle on-board navigation system, for computing position, course angle and speed
DE19945124A1 (en) 1999-09-21 2001-04-26 Mannesmann Vdo Ag Vehicle in-car navigation method involves setting actual position back to control position if spacing between positions exceed error value such that error value is changed depending on reliability test
EP1283406A2 (en) 2001-08-01 2003-02-12 Siemens Aktiengesellschaft Image processing apparatus for a vehicle and method for the same
DE10153212A1 (en) 2001-10-31 2003-06-05 Stn Atlas Elektronik Gmbh Navigation system for determining the course of a vehicle
DE10344120A1 (en) 2003-09-24 2005-04-21 Daimler Chrysler Ag Device and method for displaying driving instructions
WO2007086826A1 (en) 2005-01-18 2007-08-02 Honeywell International Inc. Systems and methods for shock compensation utilizing an adaptive control technique algorithm
DE102005002719A1 (en) 2005-01-20 2006-08-03 Robert Bosch Gmbh Course prediction method in driver assistance systems for motor vehicles
EP1705458A1 (en) 2005-03-26 2006-09-27 Saab Ab Inertial- and vehicle dynamics based autonomous navigation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
STÜRKER,Dirk: Heterogene Sensordatenfusion zur robusten Objektverfolgung im automobilen Straßenverkehr. Oldenburg,Univ.Diss.2004,Sign.IBII: inf940PJ4154;

Also Published As

Publication number Publication date
DE102007041121A1 (en) 2009-03-05

Similar Documents

Publication Publication Date Title
DE102007041121B4 (en) Method and device for processing sensor data for a driver assistance system of a vehicle
DE102014112351B4 (en) SENSOR-ASSISTED VEHICLE POSITIONING SYSTEM
EP2819901B1 (en) Method and device for determining the speed and/or position of a vehicle
DE102004003877B4 (en) Processing system in the vehicle
DE102017125356B4 (en) POSITION CALCULATION DEVICE
DE102011112404B4 (en) Method for determining the position of a motor vehicle
DE102020105639A1 (en) Apparatus and method for estimating a position in an automated parking service system
EP3155454B1 (en) Method and system for adapting a navigation system
DE102018114808A1 (en) Method for the automatic lateral guidance of a following vehicle in a vehicle platoon
DE102011117809A1 (en) A method for completing GPS or GPS / sensor vehicle positioning using additional in-vehicle image sensing sensors
EP2619608B1 (en) Location-determining device in a motor vehicle and information merging method
DE102014211450A1 (en) Track monitoring with electronic horizon
EP3898368B1 (en) Method and system for determining a corrected trajectory of a vehicle
DE102016216070A1 (en) Control unit, system with such a control unit and method of operating such a system
EP3649520B1 (en) Method for locating a more highly automated vehicle, and corresponding driver assistance system and computer program
EP3088845B1 (en) Determination of a path used by a user of a navigation system
DE102014006444A1 (en) Method for determining a position of a motor vehicle
EP1920217A1 (en) Method for the operation of a navigation system, and navigation system
DE102016007182B4 (en) System and method for determining and storing location-related problem areas of navigation satellite-supported position determination
WO2014009187A1 (en) Transfer of data from a mobile terminal to a vehicle
DE102021213525B4 (en) Method for estimating a measurement inaccuracy of an environment detection sensor
DE102020118622A1 (en) control of a vehicle
DE102022103874A1 (en) Method and device for determining a correction value for a tachograph of a vehicle and vehicle
DE102022204117A1 (en) Accurate positioning using a satellite-based navigation system
DE112016004405B4 (en) Device for generating a digital topographical position map in a vehicle

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
R012 Request for examination validly filed

Effective date: 20140314

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final