DE102007041121B4 - Method and device for processing sensor data for a driver assistance system of a vehicle - Google Patents
Method and device for processing sensor data for a driver assistance system of a vehicle Download PDFInfo
- Publication number
- DE102007041121B4 DE102007041121B4 DE102007041121.0A DE102007041121A DE102007041121B4 DE 102007041121 B4 DE102007041121 B4 DE 102007041121B4 DE 102007041121 A DE102007041121 A DE 102007041121A DE 102007041121 B4 DE102007041121 B4 DE 102007041121B4
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- vehicle
- measured value
- value
- error value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000005259 measurement Methods 0.000 claims abstract description 21
- 238000001514 detection method Methods 0.000 claims description 13
- 230000006735 deficit Effects 0.000 claims description 5
- 238000012937 correction Methods 0.000 description 7
- 230000004888 barrier function Effects 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000000969 carrier Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/023—Avoiding failures by using redundant parts
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D3/00—Indicating or recording apparatus with provision for the special purposes referred to in the subgroups
- G01D3/028—Indicating or recording apparatus with provision for the special purposes referred to in the subgroups mitigating undesired influences, e.g. temperature, pressure
- G01D3/036—Indicating or recording apparatus with provision for the special purposes referred to in the subgroups mitigating undesired influences, e.g. temperature, pressure on measuring arrangements themselves
- G01D3/0365—Indicating or recording apparatus with provision for the special purposes referred to in the subgroups mitigating undesired influences, e.g. temperature, pressure on measuring arrangements themselves the undesired influence being measured using a separate sensor, which produces an influence related signal
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Verfahren zum Verarbeiten von Sensordaten für ein Fahrerassistenzsystem eines Fahrzeugs, bei dem
- ein erster Sensor (1) einen Messwert (M1) aufnimmt und an eine Verarbeitungseinheit (4) überträgt, wobei dem Messwert (M1) ein Fehlerwert (ΔM1) zugeordnet wird, dadurch gekennzeichnet, dass
- ein zweiter Sensor (2) einen Messwert (M2) zu einer Größe aufnimmt, die mit dem ersten Sensor (1) nicht messbar ist,
- der zu dem Messwert (M1) des ersten Sensors (1) gehörige Fehlerwert (ΔM1) mittels des Messwerts (M2) des zweiten Sensors (2) angepasst wird,
und dass die Aufnahme des Messwerts (M1) des ersten Sensors (1) durch einen dritten Sensor (3) auf andere Weise als mit dem ersten Sensor (1) erfolgt, wenn der angepasste Fehlerwert (ΔM1) des ersten Sensors (1) einen Grenzwert überschreitet.
Method for processing sensor data for a driver assistance system of a vehicle, in which
- a first sensor (1) records a measured value (M1) and transmits it to a processing unit (4), an error value (ΔM1) being assigned to the measured value (M1), characterized in that
- a second sensor (2) records a measured value (M2) for a variable that cannot be measured with the first sensor (1),
- the error value (ΔM1) associated with the measured value (M1) of the first sensor (1) is adjusted using the measured value (M2) of the second sensor (2),
and that the measurement value (M1) of the first sensor (1) is recorded by a third sensor (3) in a different way than with the first sensor (1) if the adjusted error value (ΔM1) of the first sensor (1) exceeds a limit value exceeds.
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Verarbeiten von Sensordaten für ein Fahrerassistenzsystem eines Fahrzeugs, bei dem ein erster Sensor einen Messwert aufnimmt und an eine Verarbeitungseinheit überträgt, wobei dem Messwert ein Fehlerwert zugeordnet wird. Ferner betrifft die Erfindung eine Vorrichtung zum Verarbeiten solcher Sensordaten mit einem ersten Sensor zur Aufnahme eines Messwerts und einer mit dem ersten Sensor gekoppelten Verarbeitungseinheit zum Empfang des Messwerts, wobei dem Messwert ein Fehlerwert zugeordnet ist.The present invention relates to a method for processing sensor data for a driver assistance system of a vehicle, in which a first sensor records a measured value and transmits it to a processing unit, with an error value being assigned to the measured value. Furthermore, the invention relates to a device for processing such sensor data with a first sensor for recording a measured value and a processing unit coupled to the first sensor for receiving the measured value, an error value being assigned to the measured value.
Moderne Kraftfahrzeuge verfügen über eine Vielzahl von Sensoren für verschiedene Fahrerassistenzsysteme. Beispielsweise wird für ein Navigationssystem die Position des Fahrzeugs mittels verschiedener Sensoren erfasst. Für die Bestimmung der Relativbewegung des Fahrzeugs werden dabei Sensoren für Raddrehzahlen, die Gierrate und die Querbeschleunigung verwendet. Zur Bestimmung der Absolutposition des Fahrzeugs werden Satellitennavigationssysteme wie das Global Positioning System (GPS) und insbesondere das differenzielle GPS (DGPS) verwendet. Zur Detektion anderer Verkehrsteilnehmer und Hindernisse in der Umgebung des Fahrzeugs werden Radar-, Laser- und/oder Ultraschallsensoren verwendet.Modern motor vehicles have a large number of sensors for various driver assistance systems. For example, the position of the vehicle is recorded using various sensors for a navigation system. Sensors for wheel speeds, yaw rate and lateral acceleration are used to determine the relative movement of the vehicle. Satellite navigation systems such as the Global Positioning System (GPS) and in particular the differential GPS (DGPS) are used to determine the absolute position of the vehicle. Radar, laser and/or ultrasonic sensors are used to detect other road users and obstacles in the area surrounding the vehicle.
Bei der Verarbeitung der Daten in einem Fahrerassistenzsystem, ist es bekannt, ein heterogenes Sensornetzwerk zu verwenden, in dem unterschiedliche Sensoren für die Bestimmung einer bestimmten Größe zum Einsatz kommen, um etwaige Schwächen eines Sensors durch die Stärken eines andersartigen Sensors ausgleichen zu können. Um den zu einer Größe gehörigen Fehler zu reduzieren, wird bei der Sensordatenfusion z. B. ein Kalman-Filter eingesetzt. Auf diese Weise kann beispielsweise mittels mehrerer Sensoren sowohl die Eigenbewegung des Fahrzeugs als auch die Bewegung anderer Verkehrsteilnehmer geschätzt werden. Die Gewichtung der Informationen von verschiedenen Sensoren erfolgt dabei an Hand statistischer Unsicherheiten, welche z. B. von den Sensoren selbst geliefert werden. Die Sensordatenfusion ist beispielsweise in folgender Veröffentlichung beschrieben:
- Dirk Stüker: „Heterogene Sensordatenfusion zur robusten Objektverfolgung im automobilen Straßenverkehr“, Dissertation an der Fakultät II - Informatik, Wirtschafts- und Rechtswissenschaften der Carl von Ossietzky Universität (vgl. auch http://docserver.bis.uni-oldenburg.de/publikationen/dissertation/2004/stuhet04/stuhet04.html; Zugriff 12.07.2006).
- Dirk Stüker: "Heterogeneous sensor data fusion for robust object tracking in automotive traffic", dissertation at Faculty II - Computer Science, Economics and Law at the Carl von Ossietzky University (see also http://docserver.bis.uni-oldenburg.de/publikationen /dissertation/2004/stuhet04/stuhet04.html; accessed 07/12/2006).
Aus der
Aus der
Die
Die
Die
In der
Die
Die
Die Sensordatenfusion in Fahrerassistenzsystemen bietet zwar den Vorteil, dass der zu einem Messwert gehörige Fehlerwert verringert werden kann. Bestimmte Störungen, die vom Sensor selbst oder von anderen Sensoren, die für die Sensordatenfusion verwendet werden, können jedoch nicht detektiert werden. Diese Störungen können zu einem Fehlerwert führen, der sehr viel größer ist als der von dem Sensor gelieferte Fehlerwert, der voreingestellte Fehlerwert oder der zu der Sensordatenfusion gehörige Fehlerwert.The sensor data fusion in driver assistance systems offers the advantage that the error value associated with a measured value can be reduced. However, certain interferences that can not be detected by the sensor itself or by other sensors used for sensor data fusion. These disturbances can result in an error value that is much larger than the error value provided by the sensor, the preset error value, or the error value associated with the sensor data fusion.
Es ist daher die Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung der eingangs genannten Art bereitzustellen, mit denen der zu einem Messwert gehörige Fehlerwert besser bestimmt werden kann.It is therefore the object of the present invention to provide a method and a device of the type mentioned at the outset with which the error value associated with a measured value can be better determined.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 1 und eine Vorrichtung mit den Merkmalen des Anspruchs 12 gelöst. Vorteilhafte Aus- und Weiterbildungen ergeben sich aus den Unteransprüchen.According to the invention, this object is achieved by a method having the features of claim 1 and a device having the features of claim 12 . Advantageous training and further developments result from the dependent claims.
Bei dem erfindungsgemäßen Verfahren nimmt ein zweiter Sensor einen Messwert zu einer Größe auf, die mit dem ersten Sensor nicht messbar ist, und der zu dem Messwert des ersten Sensors gehörige Fehlerwert wird mittels des Messwerts des zweiten Sensors angepasst.In the method according to the invention, a second sensor records a measured value for a variable that cannot be measured with the first sensor, and the error value associated with the measured value of the first sensor is adjusted using the measured value of the second sensor.
Mit dem zweiten Sensor wird eine Größe gemessen, die einen Einfluss auf den Fehlerwert des Messwerts des ersten Sensors hat. Da die von dem zweiten Sensor aufgenommene Größe mit dem ersten Sensor nicht messbar ist, kann der erste Sensor oder die Verarbeitungseinheit diese Größe auch nicht bei der Bestimmung des Fehlerwerts für den Messwerts des ersten Sensors berücksichtigen. Bei dem erfindungsgemäßen Verfahren handelt es sich somit nicht um eine Verringerung des Fehlerwerts eines Messwerts durch die Verwendung mehrerer Sensoren oder einer größeren Datenbasis. Vielmehr wird durch Informationen aus einer anderen Quelle ein Hintergrundwissen erlangt, um den Fehlerwert eines Messwerts eines anderen Sensors zu ermitteln. Der zweite Sensor liefert dabei zum ersten Sensor komplementäre Informationen, d. h. Informationen, die vom ersten Sensor selbst nicht bestimmt werden können.A variable is measured with the second sensor, which has an influence on the error value of the measured value of the first sensor. Since the variable recorded by the second sensor cannot be measured with the first sensor, the first sensor or the processing unit cannot take this variable into account when determining the error value for the measured value of the first sensor. The method according to the invention is therefore not a matter of reducing the error value of a measured value by using a number of sensors or a larger database. Rather, background knowledge is obtained through information from another source in order to determine the error value of a measured value from another sensor. The second sensor supplies information that is complementary to the first sensor, i. H. Information that cannot be determined by the first sensor itself.
Unter einem Sensor wird im Sinne der vorliegenden Erfindung jede Datenquelle verstanden, welche für das Fahrerassistenzsystem relevante Daten liefert. Der Sensor kann somit einerseits physikalische Größen im oder in der Umgebung des Fahrzeugs messen. Andererseits kann der Sensor auch Daten aus Datenträgern auslesen oder von anderen Datenquellen empfangen.In the context of the present invention, a sensor is understood to be any data source that supplies data relevant to the driver assistance system. The sensor can thus, on the one hand, measure physical variables in or around the vehicle. On the other hand, the sensor can also read data from data carriers or receive it from other data sources.
Das erfindungsgemäße Verfahrens ist dadurch gekennzeichnet, dass die Aufnahme des Messwerts des ersten Sensors durch einen dritten Sensor erfolgt, der den Messwert auf andere Weise als der erste Sensor misst, wenn der angepasste Fehlerwert des ersten Sensors einen Grenzwert überschreitet. Wenn sich somit durch die Anpassung des Fehlerwerts auf Grund des Messwerts des zweiten Sensors ergibt, dass der zu dem Messwert des ersten Sensors gehörige Fehlerwert zu groß wird, greift das erfindungsgemäße Verfahren auf einen andersartigen Sensor zurück, um den Messwert für das Fahrerassistenzsystem aufzunehmen.The method according to the invention is characterized in that the measured value of the first sensor is recorded by a third sensor, which measures the measured value in a different way than the first sensor when the adjusted error value of the first sensor exceeds a limit value. If the adjustment of the error value based on the measured value of the second sensor shows that the error value associated with the measured value of the first sensor is too large, the method according to the invention uses a different type of sensor to record the measured value for the driver assistance system.
Der Fehlerwert des Messwerts des ersten Sensors kann die statistische Unsicherheit bei der Messung mit dem ersten Sensor und/oder die Detektionsgüte des ersten Sensors berücksichtigen. Unter der Detektionsgüte des ersten Sensors wird die Wahrscheinlichkeit verstanden, dass eine Größe, z. B. ein Objekt, detektiert wird.The error value of the measured value of the first sensor can take into account the statistical uncertainty in the measurement with the first sensor and/or the detection quality of the first sensor. The detection quality of the first sensor means the probability that a variable, e.g. B. an object is detected.
Gemäß einem Ausführungsbeispiel des Verfahrens bestimmt der erste Sensor die Position des Fahrzeugs mittels Satellitennavigation und der zweite Sensor erfasst Objekte, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale für die Satellitennavigation führen. Beispielsweise können die Signale der Satelliten durch eine Brücke oder einen Tunnel vollständig abgeschattet werden. Dies kann zwar von dem ersten Sensor für die Satellitennavigation selbst erkannt werden. Jedoch ergeben sich bei der Bestimmung der Position des Fahrzeugs mittels Satellitennavigation nach dem Durchfahren eines Tunnels oder dem Unterfahren einer Brücke Messungenauigkeiten, die von dem Sensor für die Satellitennavigation nicht erkannt werden können. Des Weiteren können Schallschutzwände, Lkws in direkter Nachbarschaft zu dem Fahrzeug oder ähnliche Objekte zu Abschattungen von Satellitensignalen oder zu Reflektionen führen, welche die Messungenauigkeit des Sensors für die Satellitennavigation erhöhen, ohne dass dies von diesem Sensor selbst festgestellt werden könnte.According to one exemplary embodiment of the method, the first sensor determines the position of the vehicle using satellite navigation, and the second sensor detects objects that impair the reception of the satellite signals for satellite navigation. For example, the signals from the satellites can be completely blocked by a bridge or a tunnel. This can be recognized by the first sensor for the satellite navigation itself. However, when determining the position of the vehicle using satellite navigation after driving through a tunnel or driving under a bridge, there are measurement inaccuracies that cannot be detected by the sensor for the satellite navigation. Furthermore, noise barriers, trucks in the immediate vicinity of the vehicle or similar objects can lead to shadowing of satellite signals or to reflections, which increase the measurement inaccuracy of the sensor for satellite navigation without this being able to be determined by this sensor itself.
Bei diesem Ausführungsbeispiel kann beispielsweise der zweite Sensor eine elektronische geografische Karte auslesen, in der Objekte verzeichnet sind, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale für die Satellitennavigation führen. Die Information, dass sich solche Objekte in der Nähe des Fahrzeugs befinden, kann dafür verwendet werden, den Fehlerwert der Positionsbestimmung mittels Satellitennavigation zu vergrößern.In this exemplary embodiment, the second sensor can, for example, read out an electronic geographic map on which objects are recorded which impair the reception of the satellite signals for satellite navigation. The information that such objects are in the vicinity of the vehicle can be used to increase the error value of position determination using satellite navigation.
Ferner kann der zweite Sensor ein Umfeldsensor wie z. B. eine Kamera, ein Laser- und/oder ein Radarsensor sein. Solche Umfeldsensoren können z. B. Schallschutzwände, Brücken und Lkws in der Umgebung des Fahrzeugs detektieren.Furthermore, the second sensor can be an environment sensor such as B. be a camera, a laser and / or a radar sensor. Such environmental sensors can, for. B. detect noise barriers, bridges and trucks in the vicinity of the vehicle.
Gemäß einem anderen Ausführungsbeispiel des Verfahrens erfasst der erste Sensor das Umfeld des Fahrzeugs und der zweite Sensor liest eine elektronische geografische Karte aus. Die Daten des Umfeldsensors können beispielsweise Fahrspurinformationen für ein Fahrerassistenzsystem liefern. Bei der Einfahrt in einen Tunnel und bei der Ausfahrt aus einem Tunnel treten jedoch sehr starke Hell-Dunkel-Unterschiede auf, welche die Bildverarbeitung eines optischen Umfeldsensors wie z. B. einer Kamera erschweren. Wenn sich aus der elektronischen geografischen Karte ergibt, dass das Fahrzeug unmittelbar vor einer Tunneleinfahrt oder Tunnelausfahrt steht, kann diese Information dazu verwendet werden, den Fehlerwert des Umfeldsensors zu erhöhen. Dies kann beispielsweise dazu führen, dass in diesen Bereichen die Fahrspurinformation unberücksichtigt bleibt oder andere Sensoren für die Fahrspurinformation verwendet werden.According to another exemplary embodiment of the method, the first sensor detects the surroundings of the vehicle and the second sensor reads an electronic geographic map. The data from the environment sensor can, for example, provide lane information for a driver assistance system. When entering a tunnel and when exiting a tunnel, however, there are very strong light-dark differences, which impair the image processing of an optical environment sensor such as e.g. B. complicate a camera. If the electronic geographic map shows that the vehicle is directly in front of a tunnel entrance or exit, this information can be used to increase the error value of the surroundings sensor. This can mean, for example, that the lane information is not taken into account in these areas or that other sensors are used for the lane information.
Gemäß einem weiteren Ausführungsbeispiel erfasst der erste Sensor die Raddrehzahl des Fahrzeugs und der zweite Sensor ist ein Nässesensor. Der Nässesensor kann beispielsweise ein Regensensor sein. Ferner kann mittels einer Kamera eine nasse oder schneebedeckte Fahrbahn detektiert werden. Derartige Straßenverhältnisse führen zu einem Schlupf der Räder, so dass sich der Messwert des Raddrehzahlsensors für die Bestimmung der Geschwindigkeit oder der zurückgelegten Strecke erhöht.According to a further exemplary embodiment, the first sensor detects the wheel speed of the vehicle and the second sensor is a wet sensor. The moisture sensor can be a rain sensor, for example. Furthermore, a wet or snow-covered roadway can be detected by means of a camera. Such road conditions cause the wheels to slip, increasing the reading of the wheel speed sensor used to determine speed or distance traveled.
Gemäß einem weiteren Ausführungsbeispiel ist der erste Sensor eine Kamera zur Fahrspur- und Objekterkennung. Der zweite Sensor ist bei diesem Ausführungsbeispiel ein Sensor, der die Sichtverhältnisse in Fahrtrichtung erfasst. Die Sichtverhältnisse können beispielsweise mittels einer optischen Sichtweitenmessung mittels Sensor ermittelt werden. Ferner kann ein Regensensor verwendet werden, um Rückschlüsse auf die Sichtverhältnisse in Fahrtrichtung zu ziehen. Ergeben sich aus den Messwerten des zweiten Sensors schlechte Sichtverhältnisse, kann der Messfehler, der sich aus der Bildverarbeitung des Bildes der Kamera ergibt, erhöht werden.According to a further exemplary embodiment, the first sensor is a camera for lane and object detection. In this exemplary embodiment, the second sensor is a sensor that detects the visibility conditions in the direction of travel. The visibility conditions can be determined, for example, by means of an optical visibility measurement using a sensor. Furthermore, a rain sensor can be used to draw conclusions about the visibility conditions in the direction of travel. If poor visibility conditions result from the measured values of the second sensor, the measurement error resulting from the image processing of the image from the camera can be increased.
Des Weiteren kann auf Grund des Messwerts des zweiten Sensors eine Neuinitialisierung des ersten Sensors durchgeführt werden. Diese Neuinitialisierung kann dazu führen, dass sich der Fehlerwert der Messwerte des ersten Sensors in bestimmten Fällen verringert.Furthermore, based on the measured value of the second sensor, the first sensor can be reinitialized. This re-initialization can result in the error value of the readings of the first sensor decreasing in certain cases.
Gemäß einem weiteren Ausführungsbeispiel kann der erste Sensor eine Kamera sein, welche Bilder der Umgebung des Fahrzeugs aufnimmt. Diese Kamera kann z. B. auch zur Fahrspur und Objekterkennung verwendet werden. Der zweite Sensor ist auch in diesem Ausführungsbeispiel ein Sensor, der die Sichtverhältnisse erfasst und zwar in den Bereichen, in denen die Kamera Bilder aufnimmt. Bei dem zweiten Sensor zum Erfassen der Sichtverhältnisse handelt es sich in diesem Fall jedoch um einen Sensor zum Erfassen der Position des Fahrzeugs mittels Satellitennavigation, z. B. um einen GPS-Sender. Ein solcher Sensor liefert die Information, wo sich das Fahrzeug befindet. Ferner liefert ein solcher Sensor die aktuelle Tageszeit. Aus diesen Informationen wird abgeleitet, wie hoch die Wahrscheinlichkeit für Schattenbildung in den Bereichen ist, in denen die Kamera Bilder aufnimmt. Ist eine Schattenbildung z. B. bei sehr tief stehender Sonne sehr wahrscheinlich, kann der Messfehler, der sich aus der Bildverarbeitung des Bildes der Kamera ergibt, erhöht werden.According to a further exemplary embodiment, the first sensor can be a camera which takes pictures of the surroundings of the vehicle. This camera can B. can also be used for lane and object detection. In this exemplary embodiment, too, the second sensor is a sensor that detects the visibility conditions, specifically in the areas in which the camera takes pictures. In this case, however, the second sensor for detecting the visibility conditions is a sensor for detecting the position of the vehicle using satellite navigation, e.g. B. a GPS transmitter. Such a sensor provides information about where the vehicle is located. Furthermore, such a sensor provides the current time of day. This information is used to derive the likelihood of shadows forming in the areas where the camera is capturing images. is a joke tensing e.g. B. very likely when the sun is very low in the sky, the measurement error resulting from the image processing of the image of the camera can be increased.
Die erfindungsgemäße Vorrichtung weist einen zweiten Sensor zur Aufnahme eines Messwerts zu einer Größe auf, die mit dem ersten Sensor nicht messbar ist. Die Verarbeitungseinheit ist dabei so ausgebildet, dass der zu dem Messwert des ersten Sensors gehörige Fehlerwert mittels des Messwerts des zweiten Sensors anpassbar ist.The device according to the invention has a second sensor for recording a measured value for a variable that cannot be measured with the first sensor. The processing unit is designed in such a way that the error value associated with the measured value of the first sensor can be adjusted using the measured value of the second sensor.
Die Vorrichtung zeichnet sich dadurch aus, dass die Verarbeitungseinheit mit zumindest einem dritten Sensor gekoppelt ist, mit dem die Aufnahme des Messwerts des ersten Sensors auf andere Weise durchführbar ist, wenn der angepasste Fehlerwert des ersten Sensors einen Grenzwert überschreitet.The device is characterized in that the processing unit is coupled to at least one third sensor, with which the measurement value of the first sensor can be recorded in a different way if the adjusted error value of the first sensor exceeds a limit value.
Der Fehlerwert kann insbesondere die statistische Unsicherheit bei der Messung mit dem ersten Sensor und/oder die Detektionsgüte des ersten Sensors berücksichtigen.In particular, the error value can take into account the statistical uncertainty in the measurement with the first sensor and/or the detection quality of the first sensor.
Der erste Sensor kann bei der Vorrichtung ausgewählt sein unter einem Satellitennavigationssystem zum Bestimmen der Position, einem Sensor zum Erfassen des Umfelds des Fahrzeugs, einer Kamera zur Fahrspur- und Objekterkennung und einem Raddrehzahlsensor oder Kombinationen eines oder mehrerer dieser Sensoren.In the device, the first sensor can be selected from a satellite navigation system for determining the position, a sensor for detecting the surroundings of the vehicle, a camera for lane and object recognition and a wheel speed sensor or combinations of one or more of these sensors.
Der zweite Sensor kann bei der Vorrichtung ausgewählt sein unter einem Umfeldsensor, einer Kamera, einem Lasersensor, einem Radarsensor, einem Ultraschallsensor, einem Sensor für die Sichtverhältnisse in Fahrtrichtung, einem Nässesensor und einem Sensor zum Auslesen einer elektronischen geografischen Karte oder Kombinationen eines oder mehrerer dieser Sensoren. Dabei erfasst der Umfeldsensor insbesondere Objekte, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale für die Satellitennavigation führen, wenn der erste Sensor die Position mittels eines Satellitennavigationssystems bestimmt. Ferner können in diesem Fall in einer geografischen Karte Objekte verzeichnet sein, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale für die Satellitennavigation führen.In the device, the second sensor can be selected from an environment sensor, a camera, a laser sensor, a radar sensor, an ultrasonic sensor, a sensor for the visibility conditions in the direction of travel, a moisture sensor and a sensor for reading an electronic geographic map or combinations of one or more of these sensors. In this case, the surroundings sensor detects in particular objects which lead to an impairment of the reception of the satellite signals for the satellite navigation when the first sensor determines the position using a satellite navigation system. Furthermore, in this case, objects can be recorded on a geographic map, which lead to an impairment of the reception of the satellite signals for the satellite navigation.
Die Erfindung wird nun an Hand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.
-
1 zeigt den prinzipiellen Aufbau der erfindungsgemäßen Vorrichtung und die Koppelung dieser Vorrichtung mit anderen Einrichtungen des Fahrzeugs gemäß einem Ausführungsbeispiel der Erfindung und -
2 veranschaulicht eine Situation, bei welcher ein Ausführungsbeispiel des Verfahrens zum Einsatz kommt.
-
1 shows the basic structure of the device according to the invention and the coupling of this device to other devices of the vehicle according to an embodiment of the invention and -
2 illustrates a situation in which an embodiment of the method is used.
Die erfindungsgemäße Vorrichtung umfasst insgesamt drei Sensoren 1, 2 und 3. Der erste Sensor 1 nimmt einen Messwert M1 auf und überträgt diesen an eine Verarbeitungseinheit 4. Ferner überträgt der erste Sensor 1 eine Fehlerwert ΔM1 an die Verarbeitungseinrichtung 4. Dieser Fehlerwert ΔM1 umfasst die statistische Unsicherheit der Messung und die Detektionsgüte des ersten Sensors 1.The device according to the invention comprises a total of three
Der zweite Sensor 2 nimmt einen Messwert M2 zu einer Größe auf, die mit dem ersten Sensor 1 nicht messbar ist. Der zweite Sensor 2 liefert zu dem ersten Sensor 1 komplementäre Informationen, d. h. Informationen, die von dem ersten Sensor 1 selbst nicht bestimmt werden können. Es wird somit nicht dasselbe Messmerkmal von mehreren, möglicherweise heterogenen Sensoren vermessen, um den Fehler eines einzelnen Sensors zu bestimmen. Vielmehr wird von dem zweiten Sensor 2 eine Größe bestimmt, welche Einfluss auf den Fehlerwert ΔM1 des Messwerts M1 des ersten Sensors 1 hat.
Der Messwert M2 des zweiten Sensors 2 wird auch an die Verarbeitungseinrichtung 4 übertragen. Die Verarbeitungseinrichtung 4 passt mittels des Messwerts M2 des zweiten Sensors 2 den zu dem Messwert M1 des ersten Sensors 1 gehörigen Fehlerwert ΔM1 an. Überschreitet der angepasste Fehlerwert ΔM1 einen bestimmten, in der Verarbeitungseinrichtung 4 gespeicherten Grenzwert, verwendet die Verarbeitungseinrichtung 4 nicht mehr den ersten Sensor 1 zur Aufnahme des Messwerts M1, sondern einen dritten Sensor 3, welcher den Messwert M1 auf andere Weise bestimmt, als der erste Sensor 1.The
The measured value M2 of the
Die Verarbeitungseinrichtung 4 überträgt den Messwert M1 mit dem ermittelten Fehlerwert ΔM1 an das Fahrerassistenzsystem zur weiteren Verarbeitung. Das Fahrerassistenzsystem 5 zeigt dem Fahrer die Assistenzdaten visuell mittels der Anzeigevorrichtung 6 an.The
Im Folgenden werden mehrere Beispiele für den ersten und zweiten Sensor 1 und 2 beschrieben:Several examples for the first and
1. Anpassung des Fehlerwerts eines DGPS-Sensors1. Adjusting the error value of a DGPS sensor
Bei dem ersten Sensor 1 handelt es sich in diesem Fall um ein Satellitennavigationssystem, mit dem die Position des Fahrzeugs bestimmt wird. Es wird insbesondere ein differenzieller GPS-Sensor eingesetzt. Mit diesem kann hochpräzise die Position des Fahrzeugs in globalen Koordinaten bestimmt werden. Dies ermöglicht die Positionierung des Fahrzeugs auf einer hochgenauen Karte, mit deren Hilfe die laterale und longitudinale Position des Fahrzeugs innerhalb einer Fahrspur bestimmt werden kann. Während der Durchfahrt unter einer Brücke wird der Empfang der GPS-Satelliten unterbrochen. Eine hochpräzise Ortung ist hier nicht möglich. Dies beeinträchtigt somit die Verfügbarkeit des Sensors. Der GPS-Sensor kann jedoch von sich aus eindeutig feststellen, dass auf Grund ausbleibender Satellitensignale keine Positionsbestimmung möglich ist. Die Zuverlässigkeit der Sensordaten ist somit gegeben, da der GPS-Sensor der Verarbeitungseinheit 4 einen korrekten Fehlerwert überträgt. In diesem Bereich kann die Verarbeitungseinrichtung somit auf den dritten Sensor 3 zurückgreifen, um die Position des Fahrzeugs zu bestimmen. Der dritte Sensor 3 kann in diesem Fall auf die Raddrehzahlen, die Gierrate und die Querbeschleunigung des Fahrzeugs zur Bestimmung einer Relativbewegung zurückgreifen.In this case, the first sensor 1 is a satellite navigation system, with which the position of the vehicle is determined. In particular, a differential GPS sensor is used. With this, the position of the vehicle can be determined with high precision in global coordinates. This enables the vehicle to be positioned on a highly accurate map, which can be used to determine the vehicle's lateral and longitudinal position within a lane. GPS satellite reception is interrupted while driving under a bridge. High-precision localization is not possible here. This therefore affects the availability of the sensor. However, the GPS sensor can clearly determine on its own that no position determination is possible due to a lack of satellite signals. The sensor data is therefore reliable because the GPS sensor transmits a correct error value to the
Nach der Brückendurchfahrt beginnt der DGPS-Sensor die Position des Fahrzeugs neu zu berechnen. Hierbei besteht die Gefahr, dass er sich auf eine falsche Phasenlösung einschwingt und somit fehlerhafte Positionsdaten liefert. Es besteht also die Gefahr, dass der DGPS-Sensor nach dem Unterfahren einer Brücke Unsicherheiten ausgibt, die nicht zu der tatsächlichen Positionsabweichung passen.
Als zweiter Sensor 2 ist ein Sensor zum Auslesen einer digitalen Karte vorgesehen. In der digitalen Karte sind alle Brücken verzeichnet, welche zu einer Beeinträchtigung des Empfangs der Satellitensignale des Satellitennavigationssystems führen. Die Bereiche nach dem Unterfahren der Brücke sind in der digitalen Karte so vermerkt, dass in diesen Bereichen die Messwerte des DGPS-Sensors weniger vertrauenswürdig sind. Diese Situation ist in
A sensor for reading a digital map is provided as the
Des Weiteren werden die Messwerte eines DGPS-Empfängers durch höhere Objekte in der Nähe des Fahrzeugs beeinträchtigt. Es kann sich hierbei beispielsweise um Schallschutzwände oder einen Lkw, der sich in unmittelbarer Nähe des Fahrzeugs befindet, handeln. Die DGPS-Korrektursignale werden üblicherweise mittels GSM-Modulen empfangen. In der Nähe von Schallschutzwänden wird der Empfang des Korrektursignals dadurch gestört, dass die Sicht auf einzelne Satelliten in Folge von Abschattungen durch die Wände unterbunden ist und/oder durch Reflektionen an den Schallschutzwänden das Signal verfälscht wird. Kommt es sogar zu einer Unterbrechung des Empfangs der Signale der Satelliten, so beginnt der DGPS-Sensor wiederum die Neuberechnung der Fahrzeugposition nachdem die Satellitensignale wieder empfangen werden. Wie vorstehend erläutert, besteht in diesem Falle die Gefahr, dass der DGPS-Sensor sich auf eine falsche Phasenlösung einschwingt, und daher sich der Fehlerwert für die Fahrzeugposition erhöht, ohne dass dies der DGPS-Sensor von sich aus feststellen könnte.Furthermore, the readings of a DGPS receiver are affected by higher objects in the vicinity of the vehicle. This can be, for example, noise barriers or a truck that is in the immediate vicinity of the vehicle. The DGPS correction signals are usually received using GSM modules. In the vicinity of noise barriers, reception of the correction signal is disrupted by the fact that the view of individual satellites is blocked as a result of shadowing by the walls and/or the signal is falsified by reflections on the noise barriers. If there is even an interruption in the reception of the satellite signals, the DGPS sensor starts recalculating the vehicle position after the satellite signals are received again. In this case, as explained above, there is a risk that the DGPS sensor will settle on an incorrect phase solution and therefore the error value for the vehicle position will increase without the DGPS sensor being able to detect this on its own.
Auch in diesem Fall kann der zweite Sensor 2 ein Sensor zum Auslesen einer digitalen Karte sein, in der die Positionen der Schallschutzwände vermerkt sind. In Abhängigkeit von den Informationen aus der digitalen Karte kann der Fehlerwert der Messwerte des DGPS-Sensors entsprechend angepasst werden, und ferner kann sich die Verarbeitungseinheit 4 gegebenenfalls stärker auf andere Verfahren zur Positionsbestimmung auf der digitalen Karte stützen.In this case, too, the
Um Lkws, die sich in unmittelbarer Nähe des eigenen Fahrzeugs befinden, und die wie Schallschutzwände den Empfang des DGPS-Korrektursignals stören oder unterbrechen können, zu detektieren, kann alternativ oder zusätzlich als zweiter Sensor 2 ein Umfeldsensor vorgesehen sein, welcher einen Lkw unmittelbar links oder rechts neben dem eigenen Fahrzeug detektieren kann. Detektiert dieser Umfeldsensor einen Lkw neben dem Fahrzeug, kann die Verarbeitungseinheit 4 den Fehlerwert der Messwerte des DGPS-Sensors anpassen, d. h. in diesem Fall vergrößern.In order to detect trucks that are in the immediate vicinity of your own vehicle and that, like noise barriers, can interfere with or interrupt the reception of the DGPS correction signal, an environment sensor can be provided as an alternative or in addition as a
2. Korrektur des Messfehlers der Daten, die sich aus der Verarbeitung eines Kamerabildes ergeben2. Correction of the measurement error of the data resulting from the processing of a camera image
In diesem Fall wird als erster Sensor 1 eine Kamera mit zugeordneter Bildverarbeitungseinheit verwendet, um die Fahrspur und die Objekte in der Umgebung des Fahrzeugs für ein Fahrerassistenzsystem zu erfassen. Bei der Ein- und Ausfahrt in und aus einem Tunnel muss die Kamera sehr große Helligkeitsunterschiede ausregeln. Bei der Einfahrt in den Tunnel muss sie sich an die Dunkelheit im Tunnel adaptieren, bei der Ausfahrt aus dem Tunnel wird sie zunächst geblendet. Für einen kurzen Zeitraum bei der Einfahrt in und der Ausfahrt aus dem Tunnel, ist der Fehler, welcher bei der Verarbeitung der Bilder der Kamera, z. B. für die Erkennung der Fahrspur und von Objekten wie anderen Verkehrsteilnehmern auftritt, sehr viel größer. Gegebenenfalls können die Kamerabilder überhaupt nicht zum Erkennen der Fahrspur und anderer Objekte verwendet werden.In this case, a camera with an associated image processing unit is used as the first sensor 1 in order to record the lane and the objects in the surroundings of the vehicle for a driver assistance system. When entering and exiting a tunnel, the camera has to compensate for very large differences in brightness. When entering the tunnel, she has to adapt to the darkness in the tunnel, and when she exits the tunnel, she is initially blinded. For a short period of time when entering and exiting the tunnel, the error that occurs when processing the images from the camera, e.g. B. for the detection of the lane and objects such as other road users occurs, much larger. If necessary, they can Camera images are not used at all to detect the lane and other objects.
In diesem Fall wird erneut als zweiter Sensor 2 ein Sensor zum Auslesen einer digitalen Karte verwendet. In dieser digitalen Karte sind die Tunnelein- und -ausfahrten vermerkt. Für diese Bereiche kann die Verarbeitungseinrichtung 4 den Fehlerwert für die Messwerte, welche sich aus den Kamerabildern ergeben, vergrößern oder sich für die Fahrspurerkennung oder die Erkennung von anderen Objekten auf andere Datenquellen wie den dritten Sensor 3 stützen.In this case, a sensor for reading a digital map is used again as the
Des Weiteren kann die Bildverarbeitung der Bilder der Kamera durch schlechte Witterungsverhältnisse wie Nebel, Starkregen oder starken Schneefall beeinträchtigt werden. Solche Witterungsverhältnisse erhöhen den Fehlerwert der Messwerte, welche sich aus der Verarbeitung der Bilddaten der Kamera ergeben. Aus diesem Grund kann, alternativ oder zusätzlich, als zweiter Sensor 2 ein Sensor, der die Sichtverhältnisse in Fahrtrichtung erfasst, vorgesehen sein. Eine Sichtweitenmessung kann beispielsweise durch einen Laser durchgeführt werden. Ferner kann ein Regensensor verwendet werden, welcher Starkregen detektieren kann, woraus Rückschlüsse auf die Sichtverhältnisse gezogen werden können. Werden schlechte Sichtverhältnisse in Fahrtrichtung detektiert, kann die Verarbeitungseinheit 4 den Fehlerwert für die Messwerte, welche sich aus der Verarbeitung der Bilddaten der Kamera ergeben, erhöhen. Gegebenenfalls kann bei der Ermittlung von Fahrspurdaten und Objektdaten nicht mehr auf die Kamera zurückgegriffen werden sondern auf andere Sensoren.Furthermore, the image processing of the camera images can be impaired by bad weather conditions such as fog, heavy rain or heavy snowfall. Such weather conditions increase the error value of the measured values, which result from the processing of the image data of the camera. For this reason, as an alternative or in addition, a sensor that detects the visibility conditions in the direction of travel can be provided as the
Schließlich kann die Bildverarbeitung der Bilder der Kamera durch Schattenbildung beeinträchtigt werden. Auch die Schattenbildung erhöht somit den Fehlerwert der Messwerte, welche sich aus der Verarbeitung der Bilddaten der Kamera ergeben. Aus diesem Grund kann alternativ oder zusätzlich als zweiter Sensor 2 ein Sensor vorgesehen sein, der als Information die geographische Position sowie die Tageszeit liefert. Hierfür kann als zweiter Sensor beispielsweise ein Satellitennavigationssystem, insbesondere ein GPS-Sensor, bevorzugt ein differentieller GPS-Sensor, verwendet werden. Dieser liefert nämlich neben der geographischen Position auch die Tageszeit. Aus diesen Informationen kann eine Wahrscheinlichkeit dafür berechnet werden, dass im Bereich der Bilder der Kamera Schatten auftreten, welche die weitere Bildverarbeitung beeinträchtigen. Ist die Wahrscheinlichkeit für das Auftreten von Schatten in den Bildern der Kamera hoch, kann die Verarbeitungseinheit 4 den Fehlerwert für die Messwerte, welche sich aus der Verarbeitung der Bilddaten der Kamera ergeben, erhöhen.Finally, the image processing of the camera's images can be affected by the formation of shadows. The formation of shadows also increases the error value of the measured values, which result from the processing of the image data of the camera. For this reason, a sensor can be provided as an alternative or in addition as the
3. Anpassung des Fehlerwerts eines Raddrehzahlmessers3. Adjustment of the error value of a wheel speed meter
Die Position des eigenen Fahrzeugs auf einer digitalen Karte kann auch über Daten erfolgen, die sich im Fahrzeug selbst ergeben. Beispielsweise kann die Relativbewegung des Fahrzeugs an Hand der Raddrehzahlen, der Gierrate und der Querbeschleunigung bestimmt werden. Bei dem Raddrehzahlsensor ergibt sich das Problem, dass bei einem Schlupf der Räder die Positionsbestimmung mit einem Fehler behaftet ist. Je stärker der Schlupf ist, desto größer ist der Fehler in der Positionsbestimmung. Insbesondere, wenn sich stehendes Wasser, Schnee oder gar Eis auf der Fahrbahn befindet, ist mit einem hohen Schlupf der Räder zu rechnen. Aus diesem Grund ist als zweiter Sensor 2 ein Nässesensor vorgesehen, welcher Messwerte liefert, mit denen Rückschlüsse auf solche Straßenverhältnisse gezogen werden können. Beispielsweise kann ein Regensensor starken Regen messen, oder eine Kamera Schnee oder Eis auf der Fahrbahn erfassen. Werden entsprechende Straßenverhältnisse von dem Nässesensor erfasst, wird der Fehlerwert der Messwerte des Raddrehzahlsensors vergrößert.The position of one's own vehicle on a digital map can also be determined using data that arise in the vehicle itself. For example, the relative movement of the vehicle can be determined using the wheel speeds, the yaw rate and the lateral acceleration. The problem with the wheel speed sensor is that if the wheels slip, the determination of the position is subject to an error. The greater the slip, the greater the error in position determination. In particular, if there is standing water, snow or even ice on the road, a high level of wheel slip is to be expected. For this reason, a wetness sensor is provided as the
BezugszeichenlisteReference List
- 11
- Erster SensorFirst sensor
- 22
- Zweiter SensorSecond sensor
- 33
- Dritter SensorThird sensor
- 44
- Verarbeitungseinheitprocessing unit
- 55
- Fahrerassistenzsystemdriver assistance system
- 66
- Anzeigevorrichtungdisplay device
- 77
- Fahrzeugvehicle
- 88th
- Fahrspurlane
- 99
- BrückeBridge
- 1010
- Bereich hinter der Brückearea behind the bridge
Claims (18)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102007041121.0A DE102007041121B4 (en) | 2007-08-30 | 2007-08-30 | Method and device for processing sensor data for a driver assistance system of a vehicle |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102007041121.0A DE102007041121B4 (en) | 2007-08-30 | 2007-08-30 | Method and device for processing sensor data for a driver assistance system of a vehicle |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE102007041121A1 DE102007041121A1 (en) | 2009-03-05 |
| DE102007041121B4 true DE102007041121B4 (en) | 2022-05-19 |
Family
ID=40298964
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102007041121.0A Active DE102007041121B4 (en) | 2007-08-30 | 2007-08-30 | Method and device for processing sensor data for a driver assistance system of a vehicle |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102007041121B4 (en) |
Families Citing this family (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102009035321A1 (en) * | 2009-07-30 | 2011-03-03 | Audi Ag | Method for controlling motor-pivoted body part for motor vehicle, particularly tailgate, involves evaluating signal of sensor device by control unit |
| DE102011077998A1 (en) | 2010-06-23 | 2012-01-05 | Continental Teves Ag & Co. Ohg | Method and system for information validation |
| DE102011116169A1 (en) * | 2011-10-14 | 2013-04-18 | Continental Teves Ag & Co. Ohg | Device for assisting a driver when driving a vehicle or for autonomously driving a vehicle |
| DE102012013504B4 (en) | 2012-07-06 | 2014-02-06 | Audi Ag | A method of operating a satellite positioning system for a motor vehicle and positioning system |
| DE102012224104A1 (en) * | 2012-12-20 | 2014-06-26 | Continental Teves Ag & Co. Ohg | Method for providing a GNSS signal |
| JP5991332B2 (en) | 2014-02-05 | 2016-09-14 | トヨタ自動車株式会社 | Collision avoidance control device |
| EP2921363A1 (en) | 2014-03-18 | 2015-09-23 | Volvo Car Corporation | Vehicle, vehicle system and method for increasing safety and/or comfort during autonomous driving |
| EP2921362B1 (en) * | 2014-03-18 | 2020-08-12 | Volvo Car Corporation | Vehicle, vehicle system and method for increasing safety and/or comfort during autonomous driving |
| DE102014211180A1 (en) * | 2014-06-11 | 2015-12-17 | Continental Teves Ag & Co. Ohg | Method and system for improved detection and / or compensation of error values |
| DE102014215570B4 (en) | 2014-08-06 | 2021-12-30 | Elektrobit Automotive Gmbh | Vehicle navigation system |
| US10569768B2 (en) * | 2017-02-22 | 2020-02-25 | Panasonic Intellectual Property Corporation Of America | Information processing apparatus, information processing method, and non-transitory recording medium |
| EP4494966A3 (en) | 2018-12-26 | 2025-04-02 | Shenzhen Yinwang Intelligent Technologies Co., Ltd. | Vehicle control method, related device, and computer storage medium |
| DE102019202258A1 (en) * | 2019-02-20 | 2020-08-20 | Audi Ag | Method for operating environmental sensors in a motor vehicle and motor vehicle |
| DE102019210339A1 (en) * | 2019-07-12 | 2021-01-14 | Robert Bosch Gmbh | Method for controlling a vehicle, computer program, machine-readable storage medium, control device and vehicle |
| DE102020113432A1 (en) | 2020-05-18 | 2021-11-18 | Bayerische Motoren Werke Aktiengesellschaft | Device and method for operating an automated driving function in a blinding situation |
| DE102022212107A1 (en) | 2022-11-15 | 2024-05-16 | Robert Bosch Gesellschaft mit beschränkter Haftung | Sensor system and driver assistance system |
| DE102023004450B3 (en) | 2023-11-04 | 2024-11-07 | Mercedes-Benz Group AG | Method for pre-controlling a driver assistance system |
Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0602013A2 (en) | 1989-04-07 | 1994-06-15 | Sumitomo Electric Industries, Ltd | Calibration apparatus of angular velocity sensor in self-contained navigational system |
| DE19636425C1 (en) | 1996-09-07 | 1997-11-13 | Aero Data Flugmestechnik Gmbh | Navigation method using complementary measurement methods for motor vehicle |
| DE19636443A1 (en) | 1996-09-07 | 1998-03-12 | Bosch Gmbh Robert | Device and method for monitoring sensors in a vehicle |
| DE19812426A1 (en) | 1998-03-20 | 1999-09-23 | Valeo Electronics Gmbh & Co Kg | Setting of sensors for vehicle on-board navigation system, for computing position, course angle and speed |
| DE19945124A1 (en) | 1999-09-21 | 2001-04-26 | Mannesmann Vdo Ag | Vehicle in-car navigation method involves setting actual position back to control position if spacing between positions exceed error value such that error value is changed depending on reliability test |
| EP1283406A2 (en) | 2001-08-01 | 2003-02-12 | Siemens Aktiengesellschaft | Image processing apparatus for a vehicle and method for the same |
| DE10153212A1 (en) | 2001-10-31 | 2003-06-05 | Stn Atlas Elektronik Gmbh | Navigation system for determining the course of a vehicle |
| DE10344120A1 (en) | 2003-09-24 | 2005-04-21 | Daimler Chrysler Ag | Device and method for displaying driving instructions |
| DE102005002719A1 (en) | 2005-01-20 | 2006-08-03 | Robert Bosch Gmbh | Course prediction method in driver assistance systems for motor vehicles |
| EP1705458A1 (en) | 2005-03-26 | 2006-09-27 | Saab Ab | Inertial- and vehicle dynamics based autonomous navigation |
| WO2007086826A1 (en) | 2005-01-18 | 2007-08-02 | Honeywell International Inc. | Systems and methods for shock compensation utilizing an adaptive control technique algorithm |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20030056284A (en) * | 2001-12-28 | 2003-07-04 | 한국전자통신연구원 | Method and system for extraction a road institution body information using a vehicles |
-
2007
- 2007-08-30 DE DE102007041121.0A patent/DE102007041121B4/en active Active
Patent Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0602013A2 (en) | 1989-04-07 | 1994-06-15 | Sumitomo Electric Industries, Ltd | Calibration apparatus of angular velocity sensor in self-contained navigational system |
| DE19636425C1 (en) | 1996-09-07 | 1997-11-13 | Aero Data Flugmestechnik Gmbh | Navigation method using complementary measurement methods for motor vehicle |
| DE19636443A1 (en) | 1996-09-07 | 1998-03-12 | Bosch Gmbh Robert | Device and method for monitoring sensors in a vehicle |
| DE19812426A1 (en) | 1998-03-20 | 1999-09-23 | Valeo Electronics Gmbh & Co Kg | Setting of sensors for vehicle on-board navigation system, for computing position, course angle and speed |
| DE19945124A1 (en) | 1999-09-21 | 2001-04-26 | Mannesmann Vdo Ag | Vehicle in-car navigation method involves setting actual position back to control position if spacing between positions exceed error value such that error value is changed depending on reliability test |
| EP1283406A2 (en) | 2001-08-01 | 2003-02-12 | Siemens Aktiengesellschaft | Image processing apparatus for a vehicle and method for the same |
| DE10153212A1 (en) | 2001-10-31 | 2003-06-05 | Stn Atlas Elektronik Gmbh | Navigation system for determining the course of a vehicle |
| DE10344120A1 (en) | 2003-09-24 | 2005-04-21 | Daimler Chrysler Ag | Device and method for displaying driving instructions |
| WO2007086826A1 (en) | 2005-01-18 | 2007-08-02 | Honeywell International Inc. | Systems and methods for shock compensation utilizing an adaptive control technique algorithm |
| DE102005002719A1 (en) | 2005-01-20 | 2006-08-03 | Robert Bosch Gmbh | Course prediction method in driver assistance systems for motor vehicles |
| EP1705458A1 (en) | 2005-03-26 | 2006-09-27 | Saab Ab | Inertial- and vehicle dynamics based autonomous navigation |
Non-Patent Citations (1)
| Title |
|---|
| STÜRKER,Dirk: Heterogene Sensordatenfusion zur robusten Objektverfolgung im automobilen Straßenverkehr. Oldenburg,Univ.Diss.2004,Sign.IBII: inf940PJ4154; |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102007041121A1 (en) | 2009-03-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102007041121B4 (en) | Method and device for processing sensor data for a driver assistance system of a vehicle | |
| DE102014112351B4 (en) | SENSOR-ASSISTED VEHICLE POSITIONING SYSTEM | |
| EP2819901B1 (en) | Method and device for determining the speed and/or position of a vehicle | |
| DE102004003877B4 (en) | Processing system in the vehicle | |
| DE102017125356B4 (en) | POSITION CALCULATION DEVICE | |
| DE102011112404B4 (en) | Method for determining the position of a motor vehicle | |
| DE102020105639A1 (en) | Apparatus and method for estimating a position in an automated parking service system | |
| EP3155454B1 (en) | Method and system for adapting a navigation system | |
| DE102018114808A1 (en) | Method for the automatic lateral guidance of a following vehicle in a vehicle platoon | |
| DE102011117809A1 (en) | A method for completing GPS or GPS / sensor vehicle positioning using additional in-vehicle image sensing sensors | |
| EP2619608B1 (en) | Location-determining device in a motor vehicle and information merging method | |
| DE102014211450A1 (en) | Track monitoring with electronic horizon | |
| EP3898368B1 (en) | Method and system for determining a corrected trajectory of a vehicle | |
| DE102016216070A1 (en) | Control unit, system with such a control unit and method of operating such a system | |
| EP3649520B1 (en) | Method for locating a more highly automated vehicle, and corresponding driver assistance system and computer program | |
| EP3088845B1 (en) | Determination of a path used by a user of a navigation system | |
| DE102014006444A1 (en) | Method for determining a position of a motor vehicle | |
| EP1920217A1 (en) | Method for the operation of a navigation system, and navigation system | |
| DE102016007182B4 (en) | System and method for determining and storing location-related problem areas of navigation satellite-supported position determination | |
| WO2014009187A1 (en) | Transfer of data from a mobile terminal to a vehicle | |
| DE102021213525B4 (en) | Method for estimating a measurement inaccuracy of an environment detection sensor | |
| DE102020118622A1 (en) | control of a vehicle | |
| DE102022103874A1 (en) | Method and device for determining a correction value for a tachograph of a vehicle and vehicle | |
| DE102022204117A1 (en) | Accurate positioning using a satellite-based navigation system | |
| DE112016004405B4 (en) | Device for generating a digital topographical position map in a vehicle |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
| R012 | Request for examination validly filed |
Effective date: 20140314 |
|
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division | ||
| R020 | Patent grant now final |