DE102020203370A1 - Method and device for detecting sensor blindness in a radar sensor of a vehicle - Google Patents
Method and device for detecting sensor blindness in a radar sensor of a vehicle Download PDFInfo
- Publication number
- DE102020203370A1 DE102020203370A1 DE102020203370.6A DE102020203370A DE102020203370A1 DE 102020203370 A1 DE102020203370 A1 DE 102020203370A1 DE 102020203370 A DE102020203370 A DE 102020203370A DE 102020203370 A1 DE102020203370 A1 DE 102020203370A1
- Authority
- DE
- Germany
- Prior art keywords
- state
- sensor
- bayesian network
- observations
- blindness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000010521 absorption reaction Methods 0.000 claims abstract description 36
- 238000001514 detection method Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 6
- 201000004569 Blindness Diseases 0.000 description 33
- 230000000694 effects Effects 0.000 description 24
- 238000013459 approach Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 230000008447 perception Effects 0.000 description 6
- 230000015556 catabolic process Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 238000006731 degradation reaction Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000002790 cross-validation Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000011109 contamination Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 208000018910 keratinopathic ichthyosis Diseases 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4039—Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/418—Theoretical aspects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9322—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Erkennen von Sensorblindheit bei einem Radarsensor (104) eines Fahrzeugs (100), wobei Beobachtungen (122) am Radarsensor (104) und am Fahrzeug (100) als Eingangsgrößen (124) eines Bayes-Netzes (126) verarbeitet werden, und als Ausgangsgrößen (132) des Bayes-Netzes (126) Zustandswahrscheinlichkeiten (128) von verschiedenen Zuständen (130) der Sensorblindheit ausgelesen werden, wobei die Zustände (130) zumindest einen Distorsionszustand des Radarsensors (104) und einen Absorptionszustand des Radarsensors (104) umfassen wobei die Sensorblindheit erkannt wird, wenn zumindest eine der Zustandswahrscheinlichkeiten (128) größer als ein Schwellenwert (402) ist.The present invention relates to a method for detecting sensor blindness in a radar sensor (104) of a vehicle (100), observations (122) on the radar sensor (104) and on the vehicle (100) as input variables (124) of a Bayesian network ( 126) are processed, and state probabilities (128) of various states (130) of sensor blindness are read out as output variables (132) of the Bayesian network (126), the states (130) at least one distortion state of the radar sensor (104) and one absorption state of the radar sensor (104), the sensor blindness being detected if at least one of the state probabilities (128) is greater than a threshold value (402).
Description
Gebiet der ErfindungField of invention
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erkennen von Sensorblindheit bei einem Radarsensor eines Fahrzeugs.The invention relates to a method and a device for detecting sensor blindness in a radar sensor of a vehicle.
Stand der TechnikState of the art
Bei einem Fahrzeug mit einem Radarsensor kann eine Wahrnehmungsleistung des Radarsensors abnehmen, wenn sich beispielsweise Schnee oder Matsch auf einer Oberfläche des Radarsensors ablagert. Die Abnahme der Wahrnehmungsleistung kann Funktionen des Fahrzeugs negativ beeinflussen. Um die Abnahme zu erkennen, können Sensordaten des Radarsensors ausgewertet werden und der Radarsensor als blind eingestuft werden, wenn zumindest ein Parameter der Sensordaten einen Blindheitsgrenzwert überschreitet.In a vehicle with a radar sensor, a perceptual performance of the radar sensor can decrease if, for example, snow or slush is deposited on a surface of the radar sensor. The decrease in perceptual performance can negatively affect the functions of the vehicle. In order to recognize the decrease, sensor data of the radar sensor can be evaluated and the radar sensor can be classified as blind if at least one parameter of the sensor data exceeds a blindness limit value.
Die
Offenbarung der ErfindungDisclosure of the invention
Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Erkennen von Sensorblindheit bei einem Radarsensor eines Fahrzeugs, eine entsprechende Vorrichtung, sowie schließlich ein entsprechendes Computerprogrammprodukt und ein maschinenlesbares Speichermedium gemäß den unabhängigen Ansprüchen vorgestellt. Vorteilhafte Weiterbildungen und Verbesserungen des hier vorgestellten Ansatzes ergeben sich aus der Beschreibung und sind in den abhängigen Ansprüchen beschrieben.Against this background, the approach presented here presents a method for detecting sensor blindness in a radar sensor of a vehicle, a corresponding device, and finally a corresponding computer program product and a machine-readable storage medium according to the independent claims. Advantageous developments and improvements of the approach presented here emerge from the description and are described in the dependent claims.
Vorteile der ErfindungAdvantages of the invention
Ausführungsformen der vorliegenden Erfindung können in vorteilhafter Weise ermöglichen, eine Sensorblindheit eines Radarsensors mit einer hohen Wahrscheinlichkeit richtig zu erkennen.Embodiments of the present invention can advantageously make it possible to correctly detect sensor blindness of a radar sensor with a high degree of probability.
Es wird ein Verfahren zum Erkennen von Sensorblindheit bei einem Radarsensor eines Fahrzeugs vorgeschlagen, wobei Beobachtungen am Radarsensor und am Fahrzeug als Eingangsgrößen eines Bayes-Netzes verarbeitet werden, und als Ausgangsgrößen des Bayes-Netzes Zustandswahrscheinlichkeiten von verschiedenen Zuständen der Sensorblindheit ausgelesen werden, wobei die Zustände zumindest einen Distorsionszustand des Radarsensors und einen Absorptionszustand des Radarsensors umfassen, wobei die Sensorblindheit erkannt wird, wenn zumindest eine der Zustandswahrscheinlichkeiten größer als ein zugeordneter Schwellenwert ist.A method is proposed for detecting sensor blindness in a radar sensor of a vehicle, observations on the radar sensor and on the vehicle being processed as input variables of a Bayesian network, and probabilities of the state of various states of the sensor blindness being read out as output variables of the Bayesian network, the states comprise at least one distortion state of the radar sensor and an absorption state of the radar sensor, the sensor blindness being recognized if at least one of the state probabilities is greater than an assigned threshold value.
Ideen zu Ausführungsformen der vorliegenden Erfindung können unter anderem als auf den nachfolgend beschriebenen Gedanken und Erkenntnissen beruhend angesehen werden.Ideas for embodiments of the present invention can be viewed, inter alia, as being based on the thoughts and findings described below.
Unter Sensorblindheit kann ein Zustand eines Sensors verstanden werden, in dem der Sensor keine oder fehlerhafte Daten erfasst. Die Sensorblindheit kann beispielsweise durch eine Verschmutzung des Sensors und/oder eine Abdeckung des Sensors verursacht werden. Bei einem Radarsensor kann die Verschmutzung beispielsweise eine Austrittsfläche und/oder Eintrittsfläche für Radarwellen, also einen Sende- und/oder Empfangspfad des Sensors betreffen. Bei dem Radarsensor können Absorptionseffekte und/oder Distorsionseffekte auftreten. Absorptionseffekte können auftreten, wenn ein Medium im Sende- und/oder Empfangspfad die Radarwellen absorbiert, also eine gesendete und/oder empfangbare Leistung reduziert. Durch Absorptionseffekte kann eine Reichweite des Radarsensors reduziert werden. Distorsionseffekte können auftreten, wenn ein Medium im Sende- und/oder Empfangspfad zumindest einen Teil der Radarwellen beugt oder bricht und so den Sende- und/oder Empfangspfad verändert. Durch Distorsionseffekte können Objekte fälschlicherweise erfasst werden und an einem anderen Ort abgebildet werden, als der, an dem sie tatsächlich angeordnet sind. Teilweise können Objekte im unveränderten Sende- und/oder Empfangspfad nicht oder nur fehlerhaft erfasst werden. Insgesamt steigt die Unsicherheit bezüglich der Genauigkeit der Winkelschätzung durch Distorsionseffekte.Sensor blindness can be understood to mean a state of a sensor in which the sensor does not record any or incorrect data. The sensor blindness can be caused, for example, by contamination of the sensor and / or a covering of the sensor. In the case of a radar sensor, the contamination can relate, for example, to an exit area and / or entry area for radar waves, that is to say to a transmission and / or reception path of the sensor. In the case of the radar sensor, absorption effects and / or distortion effects can occur. Absorption effects can occur if a medium in the transmission and / or reception path absorbs the radar waves, that is to say reduces a transmitted and / or receivable power. The range of the radar sensor can be reduced by absorption effects. Distortion effects can occur if a medium in the transmission and / or reception path bends or breaks at least part of the radar waves and thus changes the transmission and / or reception path. Distortion effects can falsely detect objects and show them in a different location than where they are actually located. In some cases, objects in the unchanged send and / or receive path cannot be detected or can only be detected incorrectly. Overall, the uncertainty with regard to the accuracy of the angle estimation increases due to distortion effects.
Zusätzlich können Interferenzeffekte auftreten, wobei die Interferenzeffekte im Wesentlichen nicht durch die Verschmutzung und/oder Abdeckung hervorgerufen werden. Interferenzeffekte können beispielsweise durch andere Radarsensoren und/oder ungünstige Reflexionen der Radarwellen an Objekten hervorgerufen werden. Durch Interferenzeffekte können beispielsweise sogenannte Geisterechos von nicht existierenden Objekten hervorgerufen werden.In addition, interference effects can occur, the interference effects essentially not being caused by the soiling and / or covering. Interference effects can, for example, be caused by other radar sensors and / or unfavorable reflections of the radar waves on objects be evoked. For example, so-called ghost echoes from non-existent objects can be caused by interference effects.
Ein Bayes-Netz kann auch als Bayessches Netz oder Bayesian Net bezeichnet werden. Das Bayes-Netz bildet Abhängigkeiten von Beobachtungen und Zuständen innerhalb eines Systems ab. Die Beobachtungen und Zustände sind über Koeffizienten miteinander verknüpft. Ein Zustand kann mit mehreren Beobachtungen verknüpft sein. Eine Beobachtung kann mit mehreren Zuständen verknüpft sein. Dabei sind die Beobachtungen im Regelfall die Eingangsgrößen des Bayes-Netzes. Die Beobachtungen werden als Zahlenwerte eingegeben. Die Zustände sind im Regelfall die Ausgangsgrößen des Bayes-Netzes. Die Ausgangsgrößen werden als Wahrscheinlichkeitswerte ausgegeben. Die Wahrscheinlichkeitswerte repräsentieren eine Wahrscheinlichkeit in Prozent, mit der der Zustand für die eingegebenen Beobachtungen zutrifft.A Bayesian network can also be referred to as a Bayesian network or Bayesian net. The Bayesian network maps the dependencies of observations and states within a system. The observations and states are linked to one another via coefficients. A state can be linked to several observations. An observation can be linked to several states. The observations are usually the input variables of the Bayesian network. The observations are entered as numerical values. The states are usually the output variables of the Bayesian network. The output variables are output as probability values. The probability values represent a probability in percent with which the condition applies to the observations entered.
Ferner kann zumindest ein Zustand aus einer Gruppe von Zuständen umfassend Gierrate (yaw), Tunnel (tunnel) schlechtes Wetter (bad weather) und schlechte Umgebung (bad environment), in dem Bayes-Netz bestimmt werden. Der Zustand kann unter Verwendung zumindest einer der Beobachtungen bestimmt werden. Der Zustand kann ebenso eine Zustandswahrscheinlichkeit repräsentieren. Der Zustand kann auch als diskreter beziehungsweise binärer Wert, also ja oder nein beziehungsweise null und eins bestimmt werden. Dabei kann der Wechsel zwischen ja und nein beispielsweise bei einem vorbestimmten Schwellenwert erfolgen.Further, at least one state from a group of states including yaw rate (yaw), tunnel (bad weather) and bad environment (bad environment) in the Bayesian network can be determined. The condition can be determined using at least one of the observations. The state can also represent a state probability. The state can also be determined as a discrete or binary value, i.e. yes or no or zero and one. The change between yes and no can take place, for example, at a predetermined threshold value.
Ferner kann eine Zustandswahrscheinlichkeit eines Interferenzzustands ausgelesen werden. Interferenz kann ähnliche Merkmale aufweisen, wie die Distorsion. Mehrere Beobachtungen können bei Interferenz und Distorsion sehr ähnlich oder sogar identisch sein. Um die Distorsion von der Interferenz unterscheiden zu können, kann zumindest eine nur für Interferenz relevante Beobachtung verwendet werden, um die Zustandswahrscheinlichkeit der Interferenz zu bestimmen.Furthermore, a state probability of an interference state can be read out. Interference can have characteristics similar to distortion. Multiple observations can be very similar or even identical in terms of interference and distortion. In order to be able to distinguish the distortion from the interference, at least one observation that is only relevant for interference can be used in order to determine the probability of the state of the interference.
Zumindest eine der Ausgangsgrößen kann aus einer vorhergehenden Verarbeitung im Bayes-Netz als Eingangsgröße für eine nachfolgende Verarbeitung im Bayes-Netz verwendet werden. Das Bayes-Netz kann unter Verwendung einer Zeitreihe von Eingangsgrößen ausgeführt werden. Dabei beeinflussen jeweils die aktuellen Beobachtungen und die zurückliegend bestimmten Ausgangsgrößen anteilig die neuen Ausgangsgrößen.At least one of the output variables from previous processing in the Bayesian network can be used as an input variable for subsequent processing in the Bayesian network. The Bayesian network can be implemented using a time series of inputs. The current observations and the output variables determined in the past influence the new output variables proportionally.
Zumindest zwei Beobachtungen aus einer Gruppe von Beobachtungen umfassend Steuerung (steering), Scheibenwischer (wiper), Außentemperatur (temperature), Winkelgüte in horizontaler Richtung (thetaso quality), Winkelgüte in vertikaler Richtung (phi quality), Plausibilisierung der Winkelschätzung (aei), Varianz der Plausibilisierung der Winkelschätzung (aei variance), Anzahl Detektionen (detected targets), Anzahl der Bins die einen Grenzwert überschreiten (nbins), geschätzte Reichweite (reach range), Interferenzschätzung (interference indicator), Tunnel Indikator (tunnel indicator) und Anzahl der detektierten Radarziele über Grund (overground targets) können in dem Bayes-Netz verarbeitet werden. Die Beobachtung Steuerung kann beispielsweise unter Verwendung eines Lenkwinkelsensors des Fahrzeugs erfasst werden. Ebenso kann die Beobachtung Steuerung durch eine Inertialsensorik des Fahrzeugs erfasst werden. Die Beobachtung Scheibenwischer kann unter Verwendung eines Ansteuerungssignals der Scheibenwischer des Fahrzeugs erfasst werden. Die Beobachtung Außentemperatur kann durch einen Temperaturfühler des Fahrzeugs erfasst werden. Die Beobachtungen Winkelgüte in horizontaler Richtung, Winkelgüte in vertikaler Richtung, Plausibilisierung der Winkelschätzung, Varianz der Plausibilisierung der Winkelschätzung, Anzahl Detektionen, Anzahl der Bins die einen Grenzwert überschreiten, geschätzte Reichweite, Interferenzschätzung, Tunnel Indikator und Anzahl der detektierten Radarziele über Grund können aus einem Datenstrom des Radarsensors ermittelt werden.At least two observations from a group of observations including steering, wipers, outside temperature, angle quality in the horizontal direction (thetaso quality), angle quality in the vertical direction (phi quality), plausibility check of the angle estimate (aei), variance the plausibility check of the angle estimation (aei variance), number of detections (detected targets), number of bins exceeding a limit value (nbins), estimated range (reach range), interference estimation (interference indicator), tunnel indicator and number of detected ones Overground targets can be processed in the Bayesian network. The observation control can be detected using a steering angle sensor of the vehicle, for example. The observation control can also be recorded by an inertial sensor system of the vehicle. The observation of the windshield wipers can be recorded using a control signal from the windshield wipers of the vehicle. The observation of the outside temperature can be recorded by a temperature sensor in the vehicle. The observations angular quality in the horizontal direction, angular quality in the vertical direction, plausibility check of the angle estimate, variance of the plausibility check of the angle estimate, number of detections, number of bins exceeding a limit value, estimated range, interference estimate, tunnel indicator and number of detected radar targets over ground can be from one Data stream of the radar sensor can be determined.
Die Beobachtungen Steuerung (steering), Winkelgüte in horizontaler Richtung (thetaso quality), Winkelgüte in vertikaler Richtung (phi quality), Plausibilisierung der Winkelschätzung (aei), Varianz der Plausibilisierung der Winkelschätzung (aei variance), Anzahl Detekionen (detected targets), Anzahl der Bins die den Grenzwert überschreiten (nbins), geschätzte Reichweite (reach range), Interferenzschätzung (interference indicator), Anzahl der detektierten Radarziele über Grund (overground targets), Scheibenwischer (wiper), Außentemperatur (temperature) und Tunnel Indikator (tunnel indicator) können vor dem Verarbeiten auf Wertebereiche von zumindest zwei diskreten Werten diskretisiert werden. Insbesondere können die Beobachtungen Steuerung (steering), Winkelgüte in horizontaler Richtung (thetaso quality), Winkelgüte in vertikaler Richtung (phi quality), Plausibilisierung der Winkelschätzung (aei), Varianz der Plausibilisierung der Winkelschätzung (aei variance), Anzahl Detekionen (detected targets), Anzahl der Bins die den Grenzwert überschreiten (nbins), geschätzte Reichweite (reach range), Interferenzschätzung (interference indicator) und Anzahl der detektierten Radarziele über Grund (overground targets) vor dem Verarbeiten auf je einen Wertebereich von zehn möglichen diskreten Werten diskretisiert werden. Die Beobachtungen Scheibenwischer (wiper), Außentemperatur (temperature) und Tunnel Indikator (tunnel indicator) können vor dem Verarbeiten auf Wertebereiche zwischen zwei und vier möglichen diskreten Werten diskretisiert werden. Durch ein Diskretisieren der Beobachtungen kann das Bestimmen der Zustandswahrscheinlichkeiten mit einem verringerten Rechenaufwand erfolgen. Beim Diskretisieren wird eine Vielzahl von möglichen Ursprungswerten der Beobachtung auf eine vorbestimmte Anzahl einzelner diskreter Werte reduziert. Dazu können die Ursprungswerte unter Verwendung von Grenzwerten unterteilt werden. Die Ursprungswerte können auch gerundet werden.The observations steering, angular quality in the horizontal direction (thetaso quality), angular quality in the vertical direction (phi quality), plausibility check of the angle estimate (aei), variance of the plausibility check of the angle estimate (aei variance), number of detected targets, number of bins that exceed the limit value (nbins), estimated range (reach range), interference indicator, number of detected radar targets above ground (overground targets), windshield wipers (wiper), Outside temperature (temperature) and tunnel indicator (tunnel indicator) can be discretized to value ranges of at least two discrete values before processing. In particular, the observations steering, angular quality in the horizontal direction (thetaso quality), angular quality in the vertical direction (phi quality), plausibility check of the angle estimate (aei), variance of the plausibility check of the angle estimate (aei variance), number of detections (detected targets) , Number of bins exceeding the limit value (nbins), estimated range (reach range), interference indicator and number of detected radar targets above ground (overground targets) are discretized to a value range of ten possible discrete values each before processing. The observations windshield wiper (wiper), outside temperature (temperature) and tunnel indicator (tunnel indicator) can be discretized to value ranges between two and four possible discrete values before processing. By discretizing the observations, the state probabilities can be determined with a reduced computational effort. During the discretization, a large number of possible original values of the observation are reduced to a predetermined number of individual discrete values. For this purpose, the original values can be subdivided using limit values. The original values can also be rounded.
Das Bayes-Netz kann unter Verwendung von mit zumindest je einer Variante der Sensorblindheit gelabelten Zuständen und/oder Beobachtungen trainiert werden. Daten zum Labeln können durch Referenzfahrten erfasst werden. Die Label können manuell, teilautomatisiert oder automatisiert zugewiesen werden. Beim Trainieren werden die Koeffizienten des Bayes-Netzes eingestellt. Der Vorgang des Trainings kann als maschinelles Lernen bezeichnet werden.The Bayesian network can be trained using states and / or observations labeled with at least one variant of sensor blindness each. Data for labeling can be recorded by reference runs. The labels can be assigned manually, partially or automatically. During training, the coefficients of the Bayesian network are set. The process of training can be called machine learning.
Das Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.The method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control device.
Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die dazu ausgebildet ist, um die Schritte einer Variante des hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen.The approach presented here also creates a device which is designed to carry out, control or implement the steps of a variant of the method presented here in corresponding devices.
Die Vorrichtung kann ein elektrisches Gerät mit zumindest einer Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest einer Speichereinheit zum Speichern von Signalen oder Daten, und zumindest einer Schnittstelle und/oder einer Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten, die in ein Kommunikationsprotokoll eingebettet sind, sein. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein sogenannter System-ASIC oder ein Mikrocontroller zum Verarbeiten von Sensorsignalen und Ausgeben von Datensignalen in Abhängigkeit von den Sensorsignalen sein. Die Speichereinheit kann beispielsweise ein Flash-Speicher, ein EPROM oder eine magnetische Speichereinheit sein. Die Schnittstelle kann als Sensorschnittstelle zum Einlesen der Sensorsignale von einem Sensor und/oder als Aktorschnittstelle zum Ausgeben der Datensignale und/oder Steuersignale an einen Aktor ausgebildet sein. Die Kommunikationsschnittstelle kann dazu ausgebildet sein, die Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben. Die Schnittstellen können auch Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.The device can be an electrical device with at least one computing unit for processing signals or data, at least one memory unit for storing signals or data, and at least one interface and / or one communication interface for reading in or outputting data that are embedded in a communication protocol, be. The computing unit can be, for example, a signal processor, a so-called system ASIC or a microcontroller for processing sensor signals and outputting data signals as a function of the sensor signals. The storage unit can be, for example, a flash memory, an EPROM or a magnetic storage unit. The interface can be designed as a sensor interface for reading in the sensor signals from a sensor and / or as an actuator interface for outputting the data signals and / or control signals to an actuator. The communication interface can be designed to read in or output the data wirelessly and / or wired. The interfaces can also be software modules that are present, for example, on a microcontroller alongside other software modules.
Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.A computer program product or computer program with program code, which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk or an optical memory, and for performing, implementing and / or controlling the steps of the method according to one of the embodiments described above is also advantageous is used, especially when the program product or program is executed on a computer or device.
Es wird darauf hingewiesen, dass einige der möglichen Merkmale und Vorteile der Erfindung hierin mit Bezug auf unterschiedliche Ausführungsformen beschrieben sind. Ein Fachmann erkennt, dass die Merkmale der Vorrichtung und des Verfahrens in geeigneter Weise kombiniert, angepasst oder ausgetauscht werden können, um zu weiteren Ausführungsformen der Erfindung zu gelangen.It should be noted that some of the possible features and advantages of the invention are described herein with reference to different embodiments. A person skilled in the art recognizes that the features of the device and the method can be combined, adapted or exchanged in a suitable manner in order to arrive at further embodiments of the invention.
FigurenlisteFigure list
Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, wobei weder die Zeichnungen noch die Beschreibung als die Erfindung einschränkend auszulegen sind.
-
1 zeigt eine Darstellung eines Fahrzeugs mit einer Vorrichtung gemäß einem Ausführungsbeispiel; -
2 zeigt eine Darstellung eines Bayes-Netzes zum Erkennen von Sensorblindheit gemäß einem Ausführungsbeispiel; -
3 zeigt eine Darstellung eines dynamischen Bayes-Netzes zum Erkennen von Sensorblindheit gemäß einem Ausführungsbeispiel; und -
4 zeigt eine Darstellung von zeitlichen Verläufen von Beobachtungen und einer Zustandswahrscheinlichkeit während einer Fahrsituation.
-
1 shows a representation of a vehicle with a device according to an embodiment; -
2 shows an illustration of a Bayesian network for detecting sensor blindness according to an embodiment; -
3 shows an illustration of a dynamic Bayesian network for detecting sensor blindness according to an embodiment; and -
4th shows a representation of temporal progressions of observations and a state probability during a driving situation.
Die Figuren sind lediglich schematisch und nicht maßstabsgetreu. Gleiche Bezugszeichen bezeichnen in den Figuren gleiche oder gleichwirkende Merkmale.The figures are only schematic and not true to scale. In the figures, the same reference symbols denote the same or equivalent features.
Ausführungsformen der ErfindungEmbodiments of the invention
Unter Verwendung von Radardaten
In einem Ausführungsbeispiel liest die Auswerteeinrichtung
Beispielsweise bildet das Bayes-Netz
Der Zustand
Der Zustand
Die Beobachtungen
Zusätzlich sind die Beobachtungen
Dabei ist der Zustand
Die Beobachtungen
Der Verlauf der Anzahl der Bins die den Grenzwert überschreiten
In einem Ausführungsbeispiel wird die Zustandswahrscheinlichkeit
Mit anderen Worten wird eine Radarblindheitserkennung über Bayessche-Netze vorgestellt.In other words, radar blindness detection via Bayesian networks is presented.
Die Wahrnehmungsleistung eines Radarsensors kann durch Wettereinflüsse, wie Schnee und Regen sowie durch ungünstige Umgebungsbedingungen, wie Interferenz und Mehrwegeausbreitung gestört werden. Die Erkennung dieser Störungen ist für eine Degradation von Funktionen essentiell. Die Wahrnehmungsleistung kann für Fahrerassistenzsysteme und autonomes Fahren prädiziert werden, um Funktionen der Fahrerassistenzsysteme degradieren zu können. Auch kann der Fahrer je nach Degradation und SAE Level sofort gewarnt werden bzw. eine Eskalationsstrategie gewählt werden.The perception performance of a radar sensor can be disrupted by weather influences such as snow and rain as well as by unfavorable environmental conditions such as interference and multipath propagation. The detection of these disturbances is essential for a degradation of functions. The perception performance can be predicted for driver assistance systems and autonomous driving in order to be able to degrade functions of the driver assistance systems. The driver can also be warned immediately, depending on the degradation and SAE level, or an escalation strategy can be selected.
Bei dem hier vorgestellten Ansatz erfolgt die Prädiktion der Wahrnehmungsleistung über Bayessche Netze beziehungsweise Machine Learning.In the approach presented here, the perception performance is predicted via Bayesian networks or machine learning.
Für die Validierung der Radarblindheit werden Messungen mit Wettereffekten, wie Schnee, Regen und Eis eingefahren und ausgewertet. Damit sind Sequenzen bzw. Zeitreihen bekannt, in denen eine Degradation erfolgen bzw. nicht erfolgen sollte. Zeitsequenzen mit und ohne störende Einflüsse werden dafür gelabelt.For the validation of radar blindness, measurements with weather effects such as snow, rain and ice are run in and evaluated. This means that sequences or time series are known in which degradation should or should not occur. Time sequences with and without disruptive influences are labeled for this.
Mit den gelabelten Daten wird ein speziell für die Radarblindheit definiertes Bayes-Netz automatisiert eingelernt. Da gelabelte Daten verfügbar sind, können auch Machine Learning Methoden für Zeitreihen angewendet werden, um eine Blindheitserkennung einzulernen. Der hier vorgeschlagene Ansatz beruht auf einem Bayesschen Netz. Dieses kann über verschiedene Zustände die verschiedenen Arten von Blindheiten erfassen und deren Wahrscheinlichkeiten ausgeben. Neue Indikatoren können leicht hinzugefügt werden. Dabei profitiert das Netz auch direkt von Indikatoren, die eine Szene erkennen können, in der es bei einer herkömmlichen Blindheitserkennung zu einer Fehlerkennung einer Blindheit gekommen ist. Der Indikator ist dabei an sich kein Blindheitsindikator, verhindert aber über die Netzstruktur eine Fehlerkennung.With the labeled data, a Bayesian network specially defined for radar blindness is taught-in automatically. Since labeled data is available, machine learning methods for time series can also be used to teach in blindness detection. The approach proposed here is based on a Bayesian network. This can detect the different types of blindness via different states and output their probabilities. New indicators can easily be added. The network also benefits directly from indicators that can recognize a scene in which conventional blindness detection has failed to detect blindness. The indicator is not in itself an indicator of blindness, but prevents incorrect identification via the network structure.
Das hier vorgestellte Bayessche Netz wird direkt beeinflusst von Indikatoren, die eine Blindheitssituation oder eine Fehlerkennung („explaining away“) beobachten können. Es ergibt sich eine einfache Erweiterbarkeit und Verbesserung durch neue Indikatoren.The Bayesian network presented here is directly influenced by indicators that can observe a blindness situation or incorrect identification (“explaining away”). It is easy to expand and improve with new indicators.
Bei dem hier vorgestellten Ansatz wird der Generalisierungsfehler über Cross-Validation klein gehalten. Das Bayes-Netz ermöglicht eine „optimale“ bzw. bestmögliche Klassifikation gelabelter Blindheitsdaten. Unter Verwendung der gelabelten Blindheitsdaten ist ein automatisches Einlernen auf dem Cluster bzw. Rechenzentrum möglich. Das eingelernte Netz kann auch automatisch auf dem Cluster bewertet werden. (Einhalten der KPIs)In the approach presented here, the generalization error is kept small by means of cross-validation. The Bayesian network enables an “optimal” or best possible classification of labeled blindness data. Automatic learning on the cluster or data center is possible using the labeled blindness data. The learned network can also be evaluated automatically on the cluster. (Compliance with KPIs)
In Summe ermöglicht der hier vorgestellte Ansatz eine Kostenreduktion durch einen reduzierten zeitlichen Aufwand und weniger Nachsimulationen auf dem Cluster. Ein genaues Labeln der Daten ist zwar erforderlich, der Mehraufwand ist aber vernachlässigbar gegenüber der zeitlichen Einsparung.All in all, the approach presented here enables a cost reduction through a reduced expenditure of time and fewer post-simulations on the cluster. Exact labeling of the data is necessary, but the additional effort is negligible compared to the time saved.
Das Bayessche Netz bildet verschiedene Ursachen bzw. Störungen als Zustände ab. Damit können Wahrscheinlichkeiten bzgl. des aktuellen Zustands berechnet werden. Diese können wiederrum in der Sensordatenfusion und Degradation berücksichtigt werden. Zum Beispiel können die Wahrscheinlichkeitsdichtefunktionen (z.B. Normalverteilung) von geschätzten Objektpositionen in Abhängigkeit der Zustandswahrscheinlichkeiten des Bayesschen Netzes aufgeweitet werden (höhere Varianz). Damit kann der Radarsensor innerhalb einer Fusion anders gewichtet werden.The Bayesian network depicts various causes or disturbances as states. In this way, probabilities with regard to the current state can be calculated. These can in turn be taken into account in the sensor data fusion and degradation. For example, the probability density functions (e.g. normal distribution) of estimated object positions can be expanded depending on the state probabilities of the Bayesian network (higher variance). This means that the radar sensor can be weighted differently within a merger.
Eine Cross-Validation ist automatisiert möglich. Dadurch wird der Generalisierungsfehler kleiner und die Qualität der Blindheitserkennung wird besser.An automated cross-validation is possible. This reduces the generalization error and improves the quality of the blindness detection.
Prinzipiell kann die Wahrnehmungsleistung eines Radars wetterbedingt durch Distorsion und/oder Absorption eingeschränkt werden. Oft wird zuerst eine Distorsionsblindheit erkannt während sich eine Schneeschicht aufbaut. Ab einer gewissen Dicke wird dann zusätzlich eine Absorptionsblindheit erkannt. In der Realität verschwimmen beide Effekte und kommen oft gleichzeitig vor. Darüber hinaus kann es wetterunabhängig zu Interferenzen kommen, die das Rauschlevel anheben und damit Einfluss auf die Detektion haben (Objekte verschwinden im Rauschen).In principle, the perception performance of a radar can be limited due to weather conditions through distortion and / or absorption. Distortion blindness is often recognized first while a layer of snow is building up. Above a certain thickness, absorption blindness is also recognized. In reality, both effects are blurred and often occur at the same time. In addition, regardless of the weather, interference can occur that increase the noise level and thus have an influence on detection (objects disappear in the noise).
Bei der Absorptionsblindheit führt eine Wasser- oder Schneeschicht auf dem Radom bzw. hinter einem Cover/Emblem zu einer Dämpfung und damit einer eingeschränkten Wahrnehmungsleistung.In the case of absorption blindness, a layer of water or snow on the radome or behind a cover / emblem leads to a dampening and thus a restricted perception.
Bei der Distorsionsblindheit führt eine Teilverdeckung zu kombinierten Dämpfungs-/Brechungs-/Beugungseffekten und verzerrt virtuell das Antennendiagramm. Es entstehen Winkelfehler.In the case of distortion blindness, partial masking leads to combined attenuation / refraction / diffraction effects and virtually distorts the antenna pattern. Angular errors arise.
Als Beobachtungen werden verschiedene Indikatoren definiert.
thetaSO quality bezeichnet gemittelte Winkelgüten in horizontaler Richtung. Die Winkelgüte ist ein berechnetes Maß für die Genauigkeit der Winkelschätzung.
phi quality bezeichnet gemittelte Winkelgüten in vertikaler Richtung.
aei bezeichnet eine Plausibilisierung der Winkelschätzung aus dem Antennendiagramm mit der über Dopplereffekt gemessenen relativen Geschwindigkeit eines Standziels.
aei variance bezeichnet die Varianz des aei.
detected targets bezeichnet die Anzahl der Detektionen.
nbins bezeichnet die Anzahl der DFT Bins, die den CFAR Grenzwert überschreiten („Anzahl Detektionen“)
reach range bezeichnet die geschätzte Reichweite.
steering bezeichnet den Lenkwinkel. Dabei ist auch ein direktes Signal des Gierratensensors verwendbar.
Interference indicator bezeichnet die Interferenzschätzung aus der Signalverarbeitungskomponente.
tunnel indicator bezeichnet einen Indikator für die Erkennung eines Tunnels und basiert auf erkannten Radarzielen der „Tunneldecke“.
overground targets bezeichnet die Anzahl der detektierten Radarziele über Grund.
wiper bezeichnet das Ansteuerungssignal des Scheibenwischers.
temperature bezeichnet die Außentemperatur.Various indicators are defined as observations.
thetaSO quality denotes averaged angular quality in the horizontal direction. The angular quality is a calculated measure of the accuracy of the angle estimate.
phi quality denotes averaged angular quality in the vertical direction.
aei denotes a plausibility check of the angle estimate from the antenna diagram with the relative speed of a stationary target measured via the Doppler effect.
aei variance describes the variance of the aei.
detected targets denotes the number of detections.
nbins denotes the number of DFT bins that exceed the CFAR limit value ("number of detections")
reach range describes the estimated range.
steering refers to the steering angle. A direct signal from the yaw rate sensor can also be used.
Interference indicator refers to the interference estimate from the signal processing component.
tunnel indicator denotes an indicator for the detection of a tunnel and is based on detected radar targets of the "tunnel ceiling".
overground targets denotes the number of detected radar targets over the ground.
wiper describes the activation signal of the windshield wiper.
temperature refers to the outside temperature.
Das Bayessche Netz ist so modelliert, dass es eine Wahrscheinlichkeit berechnet, mit der sich der Sensor im Zustand Distorsionsblindheit, Absorptionsblindheit bzw. Interferenz befindet. Die Zustände hängen von Beobachtungen (Indikatoren), sich selbst, anderen Zuständen sowie der Vergangenheit (Zeitreihe) ab.The Bayesian network is modeled in such a way that it calculates a probability with which the sensor is in the state of distortion blindness, absorption blindness or interference. The states depend on observations (indicators), themselves, other states and the past (time series).
Alle Zustände und Beobachtungen können diskretisiert werden. Zustände können auf den Wertebereich [1,2] gemappt werden. Beobachtungen können mit Ausnahme von Temperature [1,2,3], Tunnel indicator [1,2] und Wiper [1,2,3,4] auf den Wertebereich [1 bis 10] gemappt werden.All states and observations can be discretized. States can be mapped to the value range [1,2]. With the exception of Temperature [1,2,3], Tunnel indicator [1,2] and Wiper [1,2,3,4], observations can be mapped to the value range [1 to 10].
Die Zustände Distortion und Absorption haben als gemeinsame Ursache den Zustand Bad Weather. Als direkte Beobachtung für Bad Weather stehen die Ansteuerung vom wiper und die temperature zur Verfügung.The common cause of distortion and absorption is Bad Weather. The control of the wiper and the temperature are available as direct observation for bad weather.
Als Beobachtung für Distortion werden die Indikatoren thetaso quality, phi quality, aei, aei variance und detected targets definiert.The indicators thetaso quality, phi quality, aei, aei variance and detected targets are defined as observations for distortion.
Als Beobachtung für Absorption werden die Indikatoren detected targets, nbins und reach range definiert.The indicators detected targets, nbins and reach range are defined as observations for absorption.
Da die Beobachtungen thetaso quality, phi quality, aei und aei variance auch durch eine hohe Gierrate (Yaw) beeinflusst werden, wird auch die Gierrate als Zustand (Ursache) verknüpft, um Fehlerkennungen zu vermeiden.Since the observations thetaso quality, phi quality, aei and aei variance are also influenced by a high yaw rate (yaw), the yaw rate is also linked as a condition (cause) in order to avoid incorrect detection.
Die Beobachtungen thetaso quality, phi quality und aei hängen darüber hinaus auch von den Zuständen Interference und Bad Environments ab.The observations thetaso quality, phi quality and aei also depend on the states of interference and bad environments.
Bad Environments wiederum hängt vom Zustand Tunnel (mit Beobachtung tunnel indicator) ab und hat zusätzlich noch die Beobachtung overground targets.Bad Environments, in turn, depends on the tunnel status (with observation tunnel indicator) and also has the observation of overground targets.
Die Zeitabhängigikeit entsteht durch das Verknüpfen von Zuständen mit sich selbst zu vorherigen Zeitpunkten. Daraus resultiert ein dynamisches Bayessches Netz.The time dependency arises from the linking of states with themselves at previous points in time. This results in a dynamic Bayesian network.
In Worten bedeutet die Verknüpfung, dass es wahrscheinlich ist, dass z.B. eine Distorsionsblindheit anliegt, wenn sie zum vorherigen Zeitpunkt auch schon erkannt wurde.In words, the link means that it is likely that there is, for example, distortion blindness if it was recognized at the previous point in time.
Das dynamische Bayessche Netz mit einem Set an Zufallsvariablen Z=(Z1, Z2,..., ZN) kann definiert werden als ein Paar von Bayes-Netzen (BNs) (B1, B→), wobei B1 die Initialverteilung P(Z1) zum Zeitpunkt 1 ist, und B→ ein 2TBN mit der Verteilung P(Zt|Zt-1) ist. Ein 2TBN ist dabei ein Bayessches Netz, dass Variablen von Xt enthält, dessen Eltern Variablen von Xt-1 und/oder Xt sind, und Variablen von Xt-1 ohne deren Eltern.
Sei Xt der nicht beobachtbare Zustand zum Zeitpunkt t (inklusive Distorsion zum Zeitpunkt t Dt, Absorption zum Zeitpunkt t At, Bad Weather zum Zeitpunkt t BWt, Bad Environment zum Zeitpunkt t BEt, Tunnel State zum Zeitpunkt t TUt, Interferenz zum Zeitpunkt t It und Gierwinkel zum Zeitpunkt t Yt) und Et die beobachtbare Evidenz bzw. Indikatoren zum Zeitpunkt t (inklusive Lenkindikator zum Zeitpunkt t steert, Thetaso quality zum Zeitpunkt t θt, Phi quality zum Zeitpunkt t φt, Angle Error zum Zeitpunkt t aeit, Angle error variance zum Zeitpunkt t aevit, overground Indikator zum Zeitpunkt t ogt, Tunnel Indikator zum Zeitpunkt t tut, Interference Indikator zum Zeitpunkt t it, Detected Targets Indikator zum Zeitpunkt t dtt, Nbins Indikator zum Zeitpunkt t nbinst, Wiper Indicator zum Zeitpunkt t wt, Temperatur Indikator zum Zeitpunkt t tempt, Reach Range Indikator zum Zeitpunkt t rrit), so ist die Initialverteilung des Bayesschen Netzes für die Blindheitserkennung gegeben durch
Gemäß der Markov'schen Annahme hängt die bedingte Wahrscheinlichkeitsverteilung von Knoten an jedem Zeitpunkt t nur von den aktuellen Knoten (Zeitpunkt t) und vorherigen Knoten zum Zeitpunkt t-1 ab. Die 2TBN Wahrscheinlichkeitsverteilung ergibt sich zu:
Die Inferenz (schließen auf nicht beobachtbare Größen) erfolgt mit Hilfe der Junction-Tree und Forward-/Backward Pass Algorithmen.The inference (inferring from non-observable quantities) takes place with the help of the junction tree and forward / backward pass algorithms.
Für das Einlernen des Netzes werden alle Zustände in den Zeitreihen zunächst gelabelt, d.h. Distortion, Absorption, Yaw, Interference, Bad Environment, Tunnel, Bad Weather werden gelabelt.To teach-in the network, all states in the time series are first labeled, i.e. distortion, absorption, yaw, interference, bad environment, tunnel, bad weather are labeled.
Nach dem Einlernen des Netzes auf Basis einer 5-fachen Cross-Validation können bedingte Wahrscheinlichkeitsverteilungen für aei dargestellt werden. Am Beispiel der Beobachtung aei ist ein Zusammenhang zwischen Distorsionsblindheit (distortion) und hohen bedingten Wahrscheinlichkeiten bei großen Indikatorwerten ersichtlich. Gleichzeitig verschieben aber auch bad env (ungünstige Umgebung) und interference die Verteilung. Yaw (hohe Gierrate) hat schließlich fast den gleichen Einfluss auf die bedingte Wahrscheinlichkeit wie distortion. Das bedeutet, dass allein dieser eine Indikator nicht ausreichen würde um eine Distorsionsblindheit und hohe Gierraten zu unterscheiden. Da im definierten Bayesschen Netz jedoch hohe Gierraten als Beobachtung berücksichtigt sind, werden Fehlerkennungen durch „explaining away“ vermieden.After learning the network on the basis of a 5-fold cross-validation, conditional probability distributions can be displayed for aei. The example of the observation aei shows a connection between distortion and high conditional probabilities with large indicator values. At the same time, however, bad env (unfavorable environment) and interference also shift the distribution. After all, yaw (high yaw rate) has almost the same impact on conditional probability as distortion. This means that this one indicator alone would not be sufficient to differentiate between distortion blindness and high yaw rates. However, since high yaw rates are taken into account as observations in the defined Bayesian network, incorrect identifications through “explaining away” are avoided.
Der Reichweitenindikator rri zeigt einen starken Zusammenhang mit den gelabelten Absorptionszuständen. Die bedingten Wahrscheinlichkeiten für eine hohe Reichweite (hoher Indikatorwert) sind bei einer Absorptionsblindheit groß. Umgekehrt sind die bedingten Wahrscheinlichkeiten für eine kleine Reichweite bei einer Absorptionsblindheit ebenso groß. Damit ist der Indikator prinzipiell geeignet um eine Absorptionsblindheit zu prädizieren.The range indicator rri shows a strong correlation with the labeled absorption states. The conditional probabilities for a long range (high indicator value) are high in the case of absorption blindness. Conversely, the conditional probabilities of a short range in the case of absorption blindness are just as great. The indicator is therefore in principle suitable for predicting absorption blindness.
Das DBN greift auf zusätzliche Indikatoren zurück, wobei speziell die Verwendung von rri (reach range indicator) eine Fehlerkennung vermeiden kann.The DBN uses additional indicators, whereby the use of rri (reach range indicator) in particular can avoid incorrect identification.
In
Links sind drei Indikatoren (Beobachtungen) mit Werten zwischen 0 und 1 dargestellt. Rechts oben ist die Wahrscheinlichkeit für eine Absorptionsblindheit dargestellt. In der dargestellten Szene (Wüste) fallen die beiden Indikatoren „Nbins“ und „Detected Targets“ stark ab, was zu einer erhöhten berechneten Wahrscheinlichkeit für eine Absorptionsblindheit führt. Die hohen Indikatorwerte von rri reduzieren die Wahrscheinlichkeiten für eine Absorptionsblindheit aber wieder und verhindern eine Fehlerkennung.Three indicators (observations) with values between 0 and 1 are shown on the left. The probability of absorption blindness is shown at the top right. In the depicted scene (desert), the two indicators “Nbins” and “Detected Targets” drop sharply, which leads to an increased calculated probability of absorption blindness. The high indicator values of rri reduce the probabilities of absorption blindness again and prevent incorrect identification.
Vorteilhaft ist die berechnete Wahrscheinlichkeit P(Absorption|Evidence) mit der sich der Radarsensor im Zustand Absorptionsblindheit befindet. Diese Wahrscheinlichkeiten können innerhalb eines Degradationssystems - vor allem für Fusionssysteme - berücksichtigt werden. Über einer parametrierbaren Abschaltschwelle von beispielsweise 0,8 kann auch eine binäre Abschaltung einer Funktion erfolgen, z.B. wird ACC über 0,8 deaktivert.The calculated probability P (absorption | evidence) with which the radar sensor is in the absorption blindness state is advantageous. These probabilities can be taken into account within a degradation system - especially for fusion systems. A binary shutdown of a function can also take place via a parameterizable shutdown threshold of 0.8, for example, e.g. ACC is deactivated above 0.8.
Abschließend ist darauf hinzuweisen, dass Begriffe wie „aufweisend“, „umfassend“, etc. keine anderen Elemente oder Schritte ausschließen und Begriffe wie „eine“ oder „ein“ keine Vielzahl ausschließen. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.Finally, it should be pointed out that terms such as “having”, “comprising”, etc. do not exclude any other elements or steps and that terms such as “a” or “an” do not exclude a plurality. Reference signs in the claims are not to be regarded as a restriction.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 102009001265 A1 [0003]DE 102009001265 A1 [0003]
Claims (10)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102020203370.6A DE102020203370A1 (en) | 2020-03-17 | 2020-03-17 | Method and device for detecting sensor blindness in a radar sensor of a vehicle |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102020203370.6A DE102020203370A1 (en) | 2020-03-17 | 2020-03-17 | Method and device for detecting sensor blindness in a radar sensor of a vehicle |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102020203370A1 true DE102020203370A1 (en) | 2021-09-23 |
Family
ID=77552676
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102020203370.6A Pending DE102020203370A1 (en) | 2020-03-17 | 2020-03-17 | Method and device for detecting sensor blindness in a radar sensor of a vehicle |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102020203370A1 (en) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102009001265A1 (en) | 2009-03-02 | 2010-09-09 | Robert Bosch Gmbh | Radar sensor with Blinheitserkennungseinrichtung |
-
2020
- 2020-03-17 DE DE102020203370.6A patent/DE102020203370A1/en active Pending
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102009001265A1 (en) | 2009-03-02 | 2010-09-09 | Robert Bosch Gmbh | Radar sensor with Blinheitserkennungseinrichtung |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102020124236A1 (en) | REUSABLE GHOST IMAGE IN THE VEHICLE RADAR SYSTEM | |
| EP2137042B1 (en) | Method for object formation | |
| DE102018104090A1 (en) | ADAPTIVE DESCRIPTION OF PROCESS RUSTS FOR IMPROVED KALMAN FILTER TARGET TRACKING | |
| DE102006045115A1 (en) | System and method for target tracking using sensor fusion | |
| DE102021102898A1 (en) | IMPROVED OBJECT DETECTION WITH CLUSTERING | |
| DE112017000865B4 (en) | estimation device | |
| DE102014220537A1 (en) | ADVANCE VEHICLE SELECTION DEVICE | |
| DE112008004067T5 (en) | Direction of travel vector reliability determination method and direction vector reliability determination device | |
| DE112020003009B4 (en) | Targeting device, driving control system and method for calculating a correction value for sensor data | |
| DE102017214531A1 (en) | Method and device for operating a motor vehicle in an automated driving operation and motor vehicle | |
| DE102019117769A1 (en) | Driving control system for a vehicle | |
| DE102020214203B4 (en) | Method for determining the lane-change intention of another motor vehicle located in the immediate vicinity of a motor vehicle, as well as an assistance system | |
| DE102019132150A1 (en) | Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device | |
| DE102023110301A1 (en) | IMPROVED DOPPLER RADAR RESOLUTION BASED ON A VEHICLE INERTIAL MEASUREMENT UNIT | |
| DE102018222663A1 (en) | Method for adaptively determining an integrity area of a parameter estimate | |
| DE102018103551A1 (en) | Method for characterizing an object in a surrounding area of a motor vehicle on the basis of previously learned curve parameters, sensor device and driver assistance system | |
| DE112018001947B4 (en) | ENVIRONMENTAL SURVEILLANCE RADAR DEVICE | |
| DE102021214763A1 (en) | Method and control device for controlling an automated vehicle | |
| DE102020203370A1 (en) | Method and device for detecting sensor blindness in a radar sensor of a vehicle | |
| DE102020101823A1 (en) | RESOLUTION OF DOPPLER AMBULANCE IN A RADAR SYSTEM BY PURSUITING | |
| DE112020007753T5 (en) | Diagnostic device for other-vehicle behavior prediction and diagnostic method for other-vehicle behavior prediction | |
| EP2026095B1 (en) | Method and device for recognising the state of a distance sensor attached to a motor vehicle | |
| DE112020001776B4 (en) | VEHICLE CONTROL SYSTEM | |
| DE112022006429T5 (en) | RANGE ADJUSTMENT DEVICE | |
| DE102021133977A1 (en) | Method and system for classifying virtual test scenarios and training methods |