[go: up one dir, main page]

DE102020203370A1 - Method and device for detecting sensor blindness in a radar sensor of a vehicle - Google Patents

Method and device for detecting sensor blindness in a radar sensor of a vehicle Download PDF

Info

Publication number
DE102020203370A1
DE102020203370A1 DE102020203370.6A DE102020203370A DE102020203370A1 DE 102020203370 A1 DE102020203370 A1 DE 102020203370A1 DE 102020203370 A DE102020203370 A DE 102020203370A DE 102020203370 A1 DE102020203370 A1 DE 102020203370A1
Authority
DE
Germany
Prior art keywords
state
sensor
bayesian network
observations
blindness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020203370.6A
Other languages
German (de)
Inventor
Rainer Droege
Rubing Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020203370.6A priority Critical patent/DE102020203370A1/en
Publication of DE102020203370A1 publication Critical patent/DE102020203370A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4039Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/418Theoretical aspects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Erkennen von Sensorblindheit bei einem Radarsensor (104) eines Fahrzeugs (100), wobei Beobachtungen (122) am Radarsensor (104) und am Fahrzeug (100) als Eingangsgrößen (124) eines Bayes-Netzes (126) verarbeitet werden, und als Ausgangsgrößen (132) des Bayes-Netzes (126) Zustandswahrscheinlichkeiten (128) von verschiedenen Zuständen (130) der Sensorblindheit ausgelesen werden, wobei die Zustände (130) zumindest einen Distorsionszustand des Radarsensors (104) und einen Absorptionszustand des Radarsensors (104) umfassen wobei die Sensorblindheit erkannt wird, wenn zumindest eine der Zustandswahrscheinlichkeiten (128) größer als ein Schwellenwert (402) ist.The present invention relates to a method for detecting sensor blindness in a radar sensor (104) of a vehicle (100), observations (122) on the radar sensor (104) and on the vehicle (100) as input variables (124) of a Bayesian network ( 126) are processed, and state probabilities (128) of various states (130) of sensor blindness are read out as output variables (132) of the Bayesian network (126), the states (130) at least one distortion state of the radar sensor (104) and one absorption state of the radar sensor (104), the sensor blindness being detected if at least one of the state probabilities (128) is greater than a threshold value (402).

Description

Gebiet der ErfindungField of invention

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erkennen von Sensorblindheit bei einem Radarsensor eines Fahrzeugs.The invention relates to a method and a device for detecting sensor blindness in a radar sensor of a vehicle.

Stand der TechnikState of the art

Bei einem Fahrzeug mit einem Radarsensor kann eine Wahrnehmungsleistung des Radarsensors abnehmen, wenn sich beispielsweise Schnee oder Matsch auf einer Oberfläche des Radarsensors ablagert. Die Abnahme der Wahrnehmungsleistung kann Funktionen des Fahrzeugs negativ beeinflussen. Um die Abnahme zu erkennen, können Sensordaten des Radarsensors ausgewertet werden und der Radarsensor als blind eingestuft werden, wenn zumindest ein Parameter der Sensordaten einen Blindheitsgrenzwert überschreitet.In a vehicle with a radar sensor, a perceptual performance of the radar sensor can decrease if, for example, snow or slush is deposited on a surface of the radar sensor. The decrease in perceptual performance can negatively affect the functions of the vehicle. In order to recognize the decrease, sensor data of the radar sensor can be evaluated and the radar sensor can be classified as blind if at least one parameter of the sensor data exceeds a blindness limit value.

Die DE 10 2009 001 265 A1 beschreibt beispielsweise einen Radarsensor mit Blindheitserkennungseinrichtung.the DE 10 2009 001 265 A1 describes, for example, a radar sensor with a blindness detection device.

Offenbarung der ErfindungDisclosure of the invention

Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Erkennen von Sensorblindheit bei einem Radarsensor eines Fahrzeugs, eine entsprechende Vorrichtung, sowie schließlich ein entsprechendes Computerprogrammprodukt und ein maschinenlesbares Speichermedium gemäß den unabhängigen Ansprüchen vorgestellt. Vorteilhafte Weiterbildungen und Verbesserungen des hier vorgestellten Ansatzes ergeben sich aus der Beschreibung und sind in den abhängigen Ansprüchen beschrieben.Against this background, the approach presented here presents a method for detecting sensor blindness in a radar sensor of a vehicle, a corresponding device, and finally a corresponding computer program product and a machine-readable storage medium according to the independent claims. Advantageous developments and improvements of the approach presented here emerge from the description and are described in the dependent claims.

Vorteile der ErfindungAdvantages of the invention

Ausführungsformen der vorliegenden Erfindung können in vorteilhafter Weise ermöglichen, eine Sensorblindheit eines Radarsensors mit einer hohen Wahrscheinlichkeit richtig zu erkennen.Embodiments of the present invention can advantageously make it possible to correctly detect sensor blindness of a radar sensor with a high degree of probability.

Es wird ein Verfahren zum Erkennen von Sensorblindheit bei einem Radarsensor eines Fahrzeugs vorgeschlagen, wobei Beobachtungen am Radarsensor und am Fahrzeug als Eingangsgrößen eines Bayes-Netzes verarbeitet werden, und als Ausgangsgrößen des Bayes-Netzes Zustandswahrscheinlichkeiten von verschiedenen Zuständen der Sensorblindheit ausgelesen werden, wobei die Zustände zumindest einen Distorsionszustand des Radarsensors und einen Absorptionszustand des Radarsensors umfassen, wobei die Sensorblindheit erkannt wird, wenn zumindest eine der Zustandswahrscheinlichkeiten größer als ein zugeordneter Schwellenwert ist.A method is proposed for detecting sensor blindness in a radar sensor of a vehicle, observations on the radar sensor and on the vehicle being processed as input variables of a Bayesian network, and probabilities of the state of various states of the sensor blindness being read out as output variables of the Bayesian network, the states comprise at least one distortion state of the radar sensor and an absorption state of the radar sensor, the sensor blindness being recognized if at least one of the state probabilities is greater than an assigned threshold value.

Ideen zu Ausführungsformen der vorliegenden Erfindung können unter anderem als auf den nachfolgend beschriebenen Gedanken und Erkenntnissen beruhend angesehen werden.Ideas for embodiments of the present invention can be viewed, inter alia, as being based on the thoughts and findings described below.

Unter Sensorblindheit kann ein Zustand eines Sensors verstanden werden, in dem der Sensor keine oder fehlerhafte Daten erfasst. Die Sensorblindheit kann beispielsweise durch eine Verschmutzung des Sensors und/oder eine Abdeckung des Sensors verursacht werden. Bei einem Radarsensor kann die Verschmutzung beispielsweise eine Austrittsfläche und/oder Eintrittsfläche für Radarwellen, also einen Sende- und/oder Empfangspfad des Sensors betreffen. Bei dem Radarsensor können Absorptionseffekte und/oder Distorsionseffekte auftreten. Absorptionseffekte können auftreten, wenn ein Medium im Sende- und/oder Empfangspfad die Radarwellen absorbiert, also eine gesendete und/oder empfangbare Leistung reduziert. Durch Absorptionseffekte kann eine Reichweite des Radarsensors reduziert werden. Distorsionseffekte können auftreten, wenn ein Medium im Sende- und/oder Empfangspfad zumindest einen Teil der Radarwellen beugt oder bricht und so den Sende- und/oder Empfangspfad verändert. Durch Distorsionseffekte können Objekte fälschlicherweise erfasst werden und an einem anderen Ort abgebildet werden, als der, an dem sie tatsächlich angeordnet sind. Teilweise können Objekte im unveränderten Sende- und/oder Empfangspfad nicht oder nur fehlerhaft erfasst werden. Insgesamt steigt die Unsicherheit bezüglich der Genauigkeit der Winkelschätzung durch Distorsionseffekte.Sensor blindness can be understood to mean a state of a sensor in which the sensor does not record any or incorrect data. The sensor blindness can be caused, for example, by contamination of the sensor and / or a covering of the sensor. In the case of a radar sensor, the contamination can relate, for example, to an exit area and / or entry area for radar waves, that is to say to a transmission and / or reception path of the sensor. In the case of the radar sensor, absorption effects and / or distortion effects can occur. Absorption effects can occur if a medium in the transmission and / or reception path absorbs the radar waves, that is to say reduces a transmitted and / or receivable power. The range of the radar sensor can be reduced by absorption effects. Distortion effects can occur if a medium in the transmission and / or reception path bends or breaks at least part of the radar waves and thus changes the transmission and / or reception path. Distortion effects can falsely detect objects and show them in a different location than where they are actually located. In some cases, objects in the unchanged send and / or receive path cannot be detected or can only be detected incorrectly. Overall, the uncertainty with regard to the accuracy of the angle estimation increases due to distortion effects.

Zusätzlich können Interferenzeffekte auftreten, wobei die Interferenzeffekte im Wesentlichen nicht durch die Verschmutzung und/oder Abdeckung hervorgerufen werden. Interferenzeffekte können beispielsweise durch andere Radarsensoren und/oder ungünstige Reflexionen der Radarwellen an Objekten hervorgerufen werden. Durch Interferenzeffekte können beispielsweise sogenannte Geisterechos von nicht existierenden Objekten hervorgerufen werden.In addition, interference effects can occur, the interference effects essentially not being caused by the soiling and / or covering. Interference effects can, for example, be caused by other radar sensors and / or unfavorable reflections of the radar waves on objects be evoked. For example, so-called ghost echoes from non-existent objects can be caused by interference effects.

Ein Bayes-Netz kann auch als Bayessches Netz oder Bayesian Net bezeichnet werden. Das Bayes-Netz bildet Abhängigkeiten von Beobachtungen und Zuständen innerhalb eines Systems ab. Die Beobachtungen und Zustände sind über Koeffizienten miteinander verknüpft. Ein Zustand kann mit mehreren Beobachtungen verknüpft sein. Eine Beobachtung kann mit mehreren Zuständen verknüpft sein. Dabei sind die Beobachtungen im Regelfall die Eingangsgrößen des Bayes-Netzes. Die Beobachtungen werden als Zahlenwerte eingegeben. Die Zustände sind im Regelfall die Ausgangsgrößen des Bayes-Netzes. Die Ausgangsgrößen werden als Wahrscheinlichkeitswerte ausgegeben. Die Wahrscheinlichkeitswerte repräsentieren eine Wahrscheinlichkeit in Prozent, mit der der Zustand für die eingegebenen Beobachtungen zutrifft.A Bayesian network can also be referred to as a Bayesian network or Bayesian net. The Bayesian network maps the dependencies of observations and states within a system. The observations and states are linked to one another via coefficients. A state can be linked to several observations. An observation can be linked to several states. The observations are usually the input variables of the Bayesian network. The observations are entered as numerical values. The states are usually the output variables of the Bayesian network. The output variables are output as probability values. The probability values represent a probability in percent with which the condition applies to the observations entered.

Ferner kann zumindest ein Zustand aus einer Gruppe von Zuständen umfassend Gierrate (yaw), Tunnel (tunnel) schlechtes Wetter (bad weather) und schlechte Umgebung (bad environment), in dem Bayes-Netz bestimmt werden. Der Zustand kann unter Verwendung zumindest einer der Beobachtungen bestimmt werden. Der Zustand kann ebenso eine Zustandswahrscheinlichkeit repräsentieren. Der Zustand kann auch als diskreter beziehungsweise binärer Wert, also ja oder nein beziehungsweise null und eins bestimmt werden. Dabei kann der Wechsel zwischen ja und nein beispielsweise bei einem vorbestimmten Schwellenwert erfolgen.Further, at least one state from a group of states including yaw rate (yaw), tunnel (bad weather) and bad environment (bad environment) in the Bayesian network can be determined. The condition can be determined using at least one of the observations. The state can also represent a state probability. The state can also be determined as a discrete or binary value, i.e. yes or no or zero and one. The change between yes and no can take place, for example, at a predetermined threshold value.

Ferner kann eine Zustandswahrscheinlichkeit eines Interferenzzustands ausgelesen werden. Interferenz kann ähnliche Merkmale aufweisen, wie die Distorsion. Mehrere Beobachtungen können bei Interferenz und Distorsion sehr ähnlich oder sogar identisch sein. Um die Distorsion von der Interferenz unterscheiden zu können, kann zumindest eine nur für Interferenz relevante Beobachtung verwendet werden, um die Zustandswahrscheinlichkeit der Interferenz zu bestimmen.Furthermore, a state probability of an interference state can be read out. Interference can have characteristics similar to distortion. Multiple observations can be very similar or even identical in terms of interference and distortion. In order to be able to distinguish the distortion from the interference, at least one observation that is only relevant for interference can be used in order to determine the probability of the state of the interference.

Zumindest eine der Ausgangsgrößen kann aus einer vorhergehenden Verarbeitung im Bayes-Netz als Eingangsgröße für eine nachfolgende Verarbeitung im Bayes-Netz verwendet werden. Das Bayes-Netz kann unter Verwendung einer Zeitreihe von Eingangsgrößen ausgeführt werden. Dabei beeinflussen jeweils die aktuellen Beobachtungen und die zurückliegend bestimmten Ausgangsgrößen anteilig die neuen Ausgangsgrößen.At least one of the output variables from previous processing in the Bayesian network can be used as an input variable for subsequent processing in the Bayesian network. The Bayesian network can be implemented using a time series of inputs. The current observations and the output variables determined in the past influence the new output variables proportionally.

Zumindest zwei Beobachtungen aus einer Gruppe von Beobachtungen umfassend Steuerung (steering), Scheibenwischer (wiper), Außentemperatur (temperature), Winkelgüte in horizontaler Richtung (thetaso quality), Winkelgüte in vertikaler Richtung (phi quality), Plausibilisierung der Winkelschätzung (aei), Varianz der Plausibilisierung der Winkelschätzung (aei variance), Anzahl Detektionen (detected targets), Anzahl der Bins die einen Grenzwert überschreiten (nbins), geschätzte Reichweite (reach range), Interferenzschätzung (interference indicator), Tunnel Indikator (tunnel indicator) und Anzahl der detektierten Radarziele über Grund (overground targets) können in dem Bayes-Netz verarbeitet werden. Die Beobachtung Steuerung kann beispielsweise unter Verwendung eines Lenkwinkelsensors des Fahrzeugs erfasst werden. Ebenso kann die Beobachtung Steuerung durch eine Inertialsensorik des Fahrzeugs erfasst werden. Die Beobachtung Scheibenwischer kann unter Verwendung eines Ansteuerungssignals der Scheibenwischer des Fahrzeugs erfasst werden. Die Beobachtung Außentemperatur kann durch einen Temperaturfühler des Fahrzeugs erfasst werden. Die Beobachtungen Winkelgüte in horizontaler Richtung, Winkelgüte in vertikaler Richtung, Plausibilisierung der Winkelschätzung, Varianz der Plausibilisierung der Winkelschätzung, Anzahl Detektionen, Anzahl der Bins die einen Grenzwert überschreiten, geschätzte Reichweite, Interferenzschätzung, Tunnel Indikator und Anzahl der detektierten Radarziele über Grund können aus einem Datenstrom des Radarsensors ermittelt werden.At least two observations from a group of observations including steering, wipers, outside temperature, angle quality in the horizontal direction (thetaso quality), angle quality in the vertical direction (phi quality), plausibility check of the angle estimate (aei), variance the plausibility check of the angle estimation (aei variance), number of detections (detected targets), number of bins exceeding a limit value (nbins), estimated range (reach range), interference estimation (interference indicator), tunnel indicator and number of detected ones Overground targets can be processed in the Bayesian network. The observation control can be detected using a steering angle sensor of the vehicle, for example. The observation control can also be recorded by an inertial sensor system of the vehicle. The observation of the windshield wipers can be recorded using a control signal from the windshield wipers of the vehicle. The observation of the outside temperature can be recorded by a temperature sensor in the vehicle. The observations angular quality in the horizontal direction, angular quality in the vertical direction, plausibility check of the angle estimate, variance of the plausibility check of the angle estimate, number of detections, number of bins exceeding a limit value, estimated range, interference estimate, tunnel indicator and number of detected radar targets over ground can be from one Data stream of the radar sensor can be determined.

Die Beobachtungen Steuerung (steering), Winkelgüte in horizontaler Richtung (thetaso quality), Winkelgüte in vertikaler Richtung (phi quality), Plausibilisierung der Winkelschätzung (aei), Varianz der Plausibilisierung der Winkelschätzung (aei variance), Anzahl Detekionen (detected targets), Anzahl der Bins die den Grenzwert überschreiten (nbins), geschätzte Reichweite (reach range), Interferenzschätzung (interference indicator), Anzahl der detektierten Radarziele über Grund (overground targets), Scheibenwischer (wiper), Außentemperatur (temperature) und Tunnel Indikator (tunnel indicator) können vor dem Verarbeiten auf Wertebereiche von zumindest zwei diskreten Werten diskretisiert werden. Insbesondere können die Beobachtungen Steuerung (steering), Winkelgüte in horizontaler Richtung (thetaso quality), Winkelgüte in vertikaler Richtung (phi quality), Plausibilisierung der Winkelschätzung (aei), Varianz der Plausibilisierung der Winkelschätzung (aei variance), Anzahl Detekionen (detected targets), Anzahl der Bins die den Grenzwert überschreiten (nbins), geschätzte Reichweite (reach range), Interferenzschätzung (interference indicator) und Anzahl der detektierten Radarziele über Grund (overground targets) vor dem Verarbeiten auf je einen Wertebereich von zehn möglichen diskreten Werten diskretisiert werden. Die Beobachtungen Scheibenwischer (wiper), Außentemperatur (temperature) und Tunnel Indikator (tunnel indicator) können vor dem Verarbeiten auf Wertebereiche zwischen zwei und vier möglichen diskreten Werten diskretisiert werden. Durch ein Diskretisieren der Beobachtungen kann das Bestimmen der Zustandswahrscheinlichkeiten mit einem verringerten Rechenaufwand erfolgen. Beim Diskretisieren wird eine Vielzahl von möglichen Ursprungswerten der Beobachtung auf eine vorbestimmte Anzahl einzelner diskreter Werte reduziert. Dazu können die Ursprungswerte unter Verwendung von Grenzwerten unterteilt werden. Die Ursprungswerte können auch gerundet werden.The observations steering, angular quality in the horizontal direction (thetaso quality), angular quality in the vertical direction (phi quality), plausibility check of the angle estimate (aei), variance of the plausibility check of the angle estimate (aei variance), number of detected targets, number of bins that exceed the limit value (nbins), estimated range (reach range), interference indicator, number of detected radar targets above ground (overground targets), windshield wipers (wiper), Outside temperature (temperature) and tunnel indicator (tunnel indicator) can be discretized to value ranges of at least two discrete values before processing. In particular, the observations steering, angular quality in the horizontal direction (thetaso quality), angular quality in the vertical direction (phi quality), plausibility check of the angle estimate (aei), variance of the plausibility check of the angle estimate (aei variance), number of detections (detected targets) , Number of bins exceeding the limit value (nbins), estimated range (reach range), interference indicator and number of detected radar targets above ground (overground targets) are discretized to a value range of ten possible discrete values each before processing. The observations windshield wiper (wiper), outside temperature (temperature) and tunnel indicator (tunnel indicator) can be discretized to value ranges between two and four possible discrete values before processing. By discretizing the observations, the state probabilities can be determined with a reduced computational effort. During the discretization, a large number of possible original values of the observation are reduced to a predetermined number of individual discrete values. For this purpose, the original values can be subdivided using limit values. The original values can also be rounded.

Das Bayes-Netz kann unter Verwendung von mit zumindest je einer Variante der Sensorblindheit gelabelten Zuständen und/oder Beobachtungen trainiert werden. Daten zum Labeln können durch Referenzfahrten erfasst werden. Die Label können manuell, teilautomatisiert oder automatisiert zugewiesen werden. Beim Trainieren werden die Koeffizienten des Bayes-Netzes eingestellt. Der Vorgang des Trainings kann als maschinelles Lernen bezeichnet werden.The Bayesian network can be trained using states and / or observations labeled with at least one variant of sensor blindness each. Data for labeling can be recorded by reference runs. The labels can be assigned manually, partially or automatically. During training, the coefficients of the Bayesian network are set. The process of training can be called machine learning.

Das Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.The method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control device.

Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die dazu ausgebildet ist, um die Schritte einer Variante des hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen.The approach presented here also creates a device which is designed to carry out, control or implement the steps of a variant of the method presented here in corresponding devices.

Die Vorrichtung kann ein elektrisches Gerät mit zumindest einer Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest einer Speichereinheit zum Speichern von Signalen oder Daten, und zumindest einer Schnittstelle und/oder einer Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten, die in ein Kommunikationsprotokoll eingebettet sind, sein. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein sogenannter System-ASIC oder ein Mikrocontroller zum Verarbeiten von Sensorsignalen und Ausgeben von Datensignalen in Abhängigkeit von den Sensorsignalen sein. Die Speichereinheit kann beispielsweise ein Flash-Speicher, ein EPROM oder eine magnetische Speichereinheit sein. Die Schnittstelle kann als Sensorschnittstelle zum Einlesen der Sensorsignale von einem Sensor und/oder als Aktorschnittstelle zum Ausgeben der Datensignale und/oder Steuersignale an einen Aktor ausgebildet sein. Die Kommunikationsschnittstelle kann dazu ausgebildet sein, die Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben. Die Schnittstellen können auch Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.The device can be an electrical device with at least one computing unit for processing signals or data, at least one memory unit for storing signals or data, and at least one interface and / or one communication interface for reading in or outputting data that are embedded in a communication protocol, be. The computing unit can be, for example, a signal processor, a so-called system ASIC or a microcontroller for processing sensor signals and outputting data signals as a function of the sensor signals. The storage unit can be, for example, a flash memory, an EPROM or a magnetic storage unit. The interface can be designed as a sensor interface for reading in the sensor signals from a sensor and / or as an actuator interface for outputting the data signals and / or control signals to an actuator. The communication interface can be designed to read in or output the data wirelessly and / or wired. The interfaces can also be software modules that are present, for example, on a microcontroller alongside other software modules.

Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.A computer program product or computer program with program code, which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk or an optical memory, and for performing, implementing and / or controlling the steps of the method according to one of the embodiments described above is also advantageous is used, especially when the program product or program is executed on a computer or device.

Es wird darauf hingewiesen, dass einige der möglichen Merkmale und Vorteile der Erfindung hierin mit Bezug auf unterschiedliche Ausführungsformen beschrieben sind. Ein Fachmann erkennt, dass die Merkmale der Vorrichtung und des Verfahrens in geeigneter Weise kombiniert, angepasst oder ausgetauscht werden können, um zu weiteren Ausführungsformen der Erfindung zu gelangen.It should be noted that some of the possible features and advantages of the invention are described herein with reference to different embodiments. A person skilled in the art recognizes that the features of the device and the method can be combined, adapted or exchanged in a suitable manner in order to arrive at further embodiments of the invention.

FigurenlisteFigure list

Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, wobei weder die Zeichnungen noch die Beschreibung als die Erfindung einschränkend auszulegen sind.

  • 1 zeigt eine Darstellung eines Fahrzeugs mit einer Vorrichtung gemäß einem Ausführungsbeispiel;
  • 2 zeigt eine Darstellung eines Bayes-Netzes zum Erkennen von Sensorblindheit gemäß einem Ausführungsbeispiel;
  • 3 zeigt eine Darstellung eines dynamischen Bayes-Netzes zum Erkennen von Sensorblindheit gemäß einem Ausführungsbeispiel; und
  • 4 zeigt eine Darstellung von zeitlichen Verläufen von Beobachtungen und einer Zustandswahrscheinlichkeit während einer Fahrsituation.
Embodiments of the invention are described below with reference to the accompanying drawings, wherein neither the drawings nor the description are to be interpreted as restricting the invention.
  • 1 shows a representation of a vehicle with a device according to an embodiment;
  • 2 shows an illustration of a Bayesian network for detecting sensor blindness according to an embodiment;
  • 3 shows an illustration of a dynamic Bayesian network for detecting sensor blindness according to an embodiment; and
  • 4th shows a representation of temporal progressions of observations and a state probability during a driving situation.

Die Figuren sind lediglich schematisch und nicht maßstabsgetreu. Gleiche Bezugszeichen bezeichnen in den Figuren gleiche oder gleichwirkende Merkmale.The figures are only schematic and not true to scale. In the figures, the same reference symbols denote the same or equivalent features.

Ausführungsformen der ErfindungEmbodiments of the invention

1 zeigt eine Darstellung eines Fahrzeugs 100 mit einer Vorrichtung 102 gemäß einem Ausführungsbeispiel. Das Fahrzeug 100 weist einen Radarsensor 104 auf. Eine Wahrnehmungsleistung des Radarsensors 104 kann durch Schnee, Eis und/oder Matsch beeinträchtigt werden. Die Wahrnehmungsleistung wird beispielsweise dann beeinträchtigt, wenn ein Radom 106 des Radarsensors 104 beispielsweise durch eine Eisschicht 108 verdeckt oder teilverdeckt wird. Die Eisschicht 108 kann zu Distorsionseffekten und alternativ oder ergänzend zu Absorptionseffekten führen, indem sie Radarwellen 110 beugt, bricht und/oder dämpft. Zu Absorptionseffekten kommt es insbesondere, wenn das Radom 106 großflächig von der Eisschicht 108 bedeckt ist. Zu Distorsionseffekten kommt es insbesondere, wenn Teilbereiche des Radoms 106 frei von der Eisschicht 108 sind, während andere Teilbereiche des Radoms 106 von der Eisschicht 108 bedeckt sind. 1 shows a representation of a vehicle 100 with a device 102 according to an embodiment. The vehicle 100 has a radar sensor 104 on. A perception performance of the radar sensor 104 can be affected by snow, ice and / or mud. Perceptual performance is impaired, for example, if a radoma 106 of the radar sensor 104 for example through a layer of ice 108 is covered or partially covered. The ice sheet 108 can lead to distortion effects and alternatively or additionally to absorption effects by using radar waves 110 flexes, breaks and / or dampens. Absorption effects occur particularly when the radome 106 extensively from the ice sheet 108 is covered. Distortion effects occur in particular when parts of the radome 106 free from the layer of ice 108 are, while other areas of the radome 106 from the ice sheet 108 are covered.

Unter Verwendung von Radardaten 112 des Radarsensors 104 werden Fahrerassistenzsysteme 114 des Fahrzeugs 100 betrieben. Wenn die Erfassungsqualität des Radarsensors 104 nachlässt können die Fahrerassistenzsysteme 114 fehlerhaft funktionieren. Daher ist die Vorrichtung 102 dazu ausgebildet, eine Sensorblindheit des Radarsensors 104 zu erkennen. Die Vorrichtung 102 weist eine Aufbereitungseinrichtung 116, eine Ausführungseinrichtung 118 und eine Auswerteeinrichtung 120 auf. Die Aufbereitungseinrichtung 116 liest Beobachtungen 122 am Radarsensor 104 und/oder Fahrzeug 100 ein und bereitet diese zu Eingangsgrößen 124 für ein Bayes-Netz 126 auf. Das Bayes-Netz 126 wird in der Ausführungseinrichtung 118 ausgeführt. Die Auswerteeinrichtung 120 liest Zustandswahrscheinlichkeiten 128 von Zuständen 130 der Sensorblindheit als Ausgangsgrößen 132 des Bayes-Netzes 126 aus und stellt ein Blindheitssignal 134 bereit, wenn zumindest eine der Zustandswahrscheinlichkeiten 128 größer als ein derjenigen Zustandswahrscheinlichkeit 128 zugeordneter Schwellenwert ist.Using radar data 112 of the radar sensor 104 become driver assistance systems 114 of the vehicle 100 operated. When the detection quality of the radar sensor 104 the driver assistance systems can decrease 114 work incorrectly. Hence the device 102 designed for a sensor blindness of the radar sensor 104 to recognize. The device 102 has a processing device 116 , an execution facility 118 and an evaluation device 120 on. The processing facility 116 reads observations 122 on the radar sensor 104 and / or vehicle 100 and prepares them for input variables 124 for a Bayesian network 126 on. The Bayesian network 126 is in the execution facility 118 executed. The evaluation device 120 reads state probabilities 128 of states 130 sensor blindness as output variables 132 of the Bayesian network 126 off and sets a blindness signal 134 ready if at least one of the state probabilities 128 greater than one of those state probability 128 associated threshold is.

In einem Ausführungsbeispiel liest die Auswerteeinrichtung 120 Zustandswahrscheinlichkeiten 128 eines Distorsionszustands des Radarsensors 104 und eines Absorptionszustands des Radarsensors 104 aus dem Bayes-Netz 126 aus.In one embodiment, the evaluation device reads 120 State probabilities 128 a state of distortion of the radar sensor 104 and an absorption state of the radar sensor 104 from the Bayesian network 126 the end.

2 zeigt eine Darstellung eines Bayes-Netzes 126 zum Erkennen von Sensorblindheit gemäß einem Ausführungsbeispiel. Das Bayes-Netz 126 entspricht dabei im Wesentlichen dem Bayes-Netz in 1. Das Bayes-Netz 126 weist hier Verknüpfungen von sieben Zustände 130 und 13 Beobachtungen 122 auf. Die Zustände 130 und Beobachtungen 122 können als Knoten des Bayes-Netzes 126 bezeichnet werden. Dabei kann zumindest eine der Beobachtungen 122 eine Ursache für zumindest einen der Zustände 130 sein. Ebenso kann zumindest eine der Beobachtungen 122 eine Wirkung zumindest eines der Zustände 130 abbilden. Ein Zustand 130 kann auch eine Ursache für einen anderen Zustand 130 sein. 2 shows a representation of a Bayesian network 126 for detecting sensor blindness according to an embodiment. The Bayesian network 126 essentially corresponds to the Bayesian network in 1 . The Bayesian network 126 here shows links between seven states 130 and 13th Observations 122 on. The conditions 130 and observations 122 can act as nodes of the Bayesian network 126 are designated. At least one of the observations 122 a cause for at least one of the conditions 130 be. Likewise, at least one of the observations 122 an effect of at least one of the states 130 depict. A condition 130 can also be a cause of another condition 130 be.

Beispielsweise bildet das Bayes-Netz 126 einen Zustand 130 „schlechtes Wetter“ 200 als Ursache für einen Zustand 130 „Distorsion“ 202 und einen Zustand 130 „Absorption“ 204 ab. Der Zustand 130 „schlechtes Wetter“ 200 ist aber auch als Ursache für die Beobachtungen 122 „Scheibenwischer“ 206 und „Temperatur“ 208 abgebildet.For example, the Bayesian network forms 126 a state 130 "bad weather" 200 as the cause of a condition 130 "Distortion" 202 and a state 130 "Absorption" 204 away. The state 130 "bad weather" 200 but is also the cause of the observations 122 "Windshield wiper" 206 and "Temperature" 208 pictured.

Der Zustand 130 „Absorption“ 204 wiederum ist als Ursache für die Beobachtungen 122 „Anzahl Detektionen“ 210, „Anzahl der Bins die einen Grenzwert überschreiten“ 212 und „geschätzte Reichweite“ 214 abgebildet.The state 130 "Absorption" 204 again is as the cause of the observations 122 "Number of Detections" 210 , "Number of bins that exceed a limit" 212 and "estimated range" 214 pictured.

Der Zustand 130 „Distorsion“ 202 ist ebenfalls als Ursache für die Beobachtung 122 „Anzahl Detektionen“ 210 abgebildet. Zusätzlich ist der Zustand 130 „Distorsion“ 202 als Ursache für die Beobachtungen 122 „Plausibilisierung der Winkelschätzung“ 216, „Varianz der Plausibilisierung der Winkelschätzung“ 218, „Winkelgüte in vertikaler Richtung“ 220 und Winkelgüte in horizontaler Richtung‟ 222 abgebildet.The state 130 "Distortion" 202 is also as the cause of the observation 122 "Number of Detections" 210 pictured. In addition, the condition is 130 "Distortion" 202 as the cause of the observations 122 "Plausibility check of the angle estimate" 216 , "Variance of the plausibility check of the angle estimate" 218 , "Angular quality in the vertical direction" 220 and angular quality in the horizontal direction ‟ 222 pictured.

Die Beobachtungen 122 „Plausibilisierung der Winkelschätzung“ 216, „Varianz der Plausibilisierung der Winkelschätzung“ 218, „Winkelgüte in vertikaler Richtung“ 220 und Winkelgüte in horizontaler Richtung‟ 222 sind jedoch auch als Wirkung eines Zustands 130 „Gierrate“ 224 abgebildet, der wiederum als Wirkung einer Beobachtung 122 „Steuerung“ 226 abgebildet ist.The observations 122 "Plausibility check of the angle estimate" 216 , "Variance of the plausibility check of the angle estimate" 218 , "Angular quality in the vertical direction" 220 and angular quality in the horizontal direction ‟ 222 however, are also as an effect of a state 130 "Yaw rate" 224 mapped, which in turn as the effect of an observation 122 "Steering" 226 is shown.

Zusätzlich sind die Beobachtungen 122 „Plausibilisierung der Winkelschätzung“ 216, „Winkelgüte in vertikaler Richtung“ 220 und Winkelgüte in horizontaler Richtung‟ 222 als Wirkungen von Zuständen 130 „Interferenz“ 228 und „schlechte Umgebung“ 230 abgebildet.In addition are the observations 122 "Plausibility check of the angle estimate" 216 , "Angular quality in the vertical direction" 220 and angular quality in the horizontal direction ‟ 222 as effects of states 130 "Interference" 228 and "bad environment" 230 pictured.

Dabei ist der Zustand 130 „Interferenz“ 228 als Ursache für eine Beobachtung 122 „Interferenzschätzung“ 232 abgebildet, während der Zustand 130 „schlechte Umgebung“ 230 als Ursache für eine Beobachtung 122 „Anzahl der detektierten Radarziele über Grund“ 234 und als Wirkung des Zustands 130 „Tunnel“ 236 abgebildet ist. Der Zustand 130 „Tunnel“ 236 ist dabei zusätzlich als Ursache für eine Beobachtung 122 „Tunnel Indikator“ 238 abgebildet.Here is the state 130 "Interference" 228 as the cause of an observation 122 "Interference Estimation" 232 pictured while the state 130 "Bad environment" 230 as the cause of an observation 122 "Number of detected radar targets above ground" 234 and as an effect of the state 130 "Tunnel" 236 is shown. The state 130 "Tunnel" 236 is also a cause for an observation 122 "Tunnel indicator" 238 pictured.

Die Beobachtungen 122 sind am Fahrzeug und/oder am Radarsensor beobachtbar. Die Verknüpfungen verknüpfen die Knoten über Koeffizienten und resultieren basierend auf den Werten der Beobachtungen in Zustandswahrscheinlichkeiten 128 der Zustände 130. Zumindest die Zustandswahrscheinlichen 128 der Zustände 130 „Distorsion“ 202 und „Absorption“ 204 werden aus dem Bayes-Netz 126 ausgelesen.The observations 122 can be observed on the vehicle and / or on the radar sensor. The links link the nodes using coefficients and result in state probabilities based on the values of the observations 128 of the states 130 . At least the state probabilities 128 of the states 130 "Distortion" 202 and "absorption" 204 are from the Bayesian network 126 read out.

3 zeigt eine Darstellung eines dynamischen Bayes-Netzes 126 zum Erkennen von Sensorblindheit gemäß einem Ausführungsbeispiel. Das Bayes-Netz 126 entspricht dabei im Wesentlichen dem Bayes-Netz in 2. Zusätzlich dazu werden hier die sich aus den Beobachtungen zu einem vorherigen Zeitpunkt 300 ergebenden Zustandswahrscheinlichkeiten 128 der Zustände „Distorsion“ 202, „Absorption“ 204 und „schlechte Umgebung“ 230 als Eingangsgrößen für einen aktuellen Zeitpunkt 302 verwendet. So kann eine Glättung der berechneten Zustandswahrscheinlichkeiten 128 erreicht werden, da die Zustandswahrscheinlichkeiten 128 zum aktuellen Zeitpunkt 302 unter Berücksichtigung der Zustandswahrscheinlichkeiten 128 zum vorherigen Zeitpunkt 300 berechnet werden. 3 shows a representation of a dynamic Bayesian network 126 for detecting sensor blindness according to an embodiment. The Bayesian network 126 essentially corresponds to the Bayesian network in 2 . In addition to this, the observations made at a previous point in time are shown here 300 resulting state probabilities 128 the states "distortion" 202 , "Absorption" 204 and "bad environment" 230 as input variables for a current point in time 302 used. In this way, the calculated state probabilities can be smoothed 128 can be achieved as the state probabilities 128 at the current time 302 taking into account the state probabilities 128 at the previous point in time 300 be calculated.

4 zeigt eine Darstellung von zeitlichen Verläufen von Beobachtungen 122 und einer Zustandswahrscheinlichkeit 128 eines Zustands 130 während einer Fahrsituation. Die Beobachtungen 122 und der Zustand 130 bilden dabei Werte eines kleinen Ausschnitts des Bayes-Netzes ab, wie es in 3 dargestellt ist. Hier ist ein Verlauf der Anzahl der Bins die den Grenzwert überschreiten 212, ein Verlauf der geschätzten Reichweite 214 und ein Verlauf der Anzahl der Detektionen 210 abgebildet. Die Beobachtungen 122 sind an einem Radarsensor zeitgleich in einer objektarmen Umgebung 400 aufgezeichnet worden. In zeitlicher Korrelation dazu ist ein Verlauf der im Bayes-Netz ermittelten Zustandswahrscheinlichkeit 128 der Absorption 204 dargestellt. 4th shows a representation of the time courses of observations 122 and a state probability 128 of a state 130 during a driving situation. The observations 122 and the condition 130 represent values of a small section of the Bayesian network, as shown in 3 is shown. Here is a history of the number of bins that exceeded the limit 212 , a history of the estimated range 214 and a history of the number of detections 210 pictured. The observations 122 are on a radar sensor at the same time in an environment with few objects 400 has been recorded. In time correlation with this is a course of the state probability determined in the Bayesian network 128 of absorption 204 shown.

Der Verlauf der Anzahl der Bins die den Grenzwert überschreiten 212 sinkt hier mehrfach rapide ab. Wenn die Anzahl der Bins die den Grenzwert überschreiten 212 stark absinkt, wird bei einer herkömmlichen Betrachtung ein Fehler am Radarsensor erkannt. Die Ursache für das schnelle Absinken ist jedoch die objektarme Umgebung 400. Bei dem hier vorgestellten Ansatz erfolgt eine Kompensation dieser Beobachtung 122 insbesondere durch die Beobachtung 122 der geschätzten Reichweite 214. Diese Reichweite 214 würde im Fehlerfall ebenso absinken und/oder sehr klein werden. Tatsächlich ist aber die geschätzte Reichweite 214 durchgehend sehr hoch. Dadurch wird im Bayes-Netz verhindert, dass die Zustandswahrscheinlichkeit 128 des Zustands 130 der Absorption 204 stark ansteigt. Die Zustandswahrscheinlichkeit 128 bleibt immer kleiner als ein Grenzwert 402 von 0,8 und der Zustand 130 der Absorptionsblindheit wird nicht erkannt. Wenn die Zustandswahrscheinlichkeit 128 größer als Schwellenwert 402 ist, wird der Zustand 130 der Absorptionsblindheit erkannt.The course of the number of bins that exceed the limit value 212 drops rapidly here several times. When the number of bins exceeds the limit 212 drops sharply, a fault in the radar sensor is detected in a conventional view. The reason for the rapid decline, however, is the lack of objects in the environment 400 . The approach presented here compensates for this observation 122 especially through observation 122 the estimated range 214 . This range 214 would also drop and / or become very small in the event of an error. In fact, however, is the estimated range 214 very high throughout. This prevents the state probability in the Bayesian network 128 of the state 130 of absorption 204 increases sharply. The state probability 128 always remains smaller than a limit value 402 of 0.8 and the state 130 absorption blindness is not recognized. If the state probability 128 greater than threshold 402 is, becomes the state 130 recognized by absorption blindness.

In einem Ausführungsbeispiel wird die Zustandswahrscheinlichkeit 128 der Absorption 204 erst nach Ablauf einer Wartezeit 404 ermittelt. Während der Wartezeit 404 werden die Werte der Beobachtungen 122 aufgezeichnet, um eine Glättung der stark schwankenden Werte zu erreichen. Hier beträgt die Wartezeit 30 Sekunden. Beim Ermitteln eines einzelnen Werts der Zustandswahrscheinlichkeit 128 wird also immer eine Zeitreihe der aufgezeichneten Werte der Beobachtungen 122 aus den zurückliegenden 30 Sekunden betrachtet.In one embodiment, the state probability is 128 of absorption 204 only after a waiting period has elapsed 404 determined. While waiting 404 become the values of the observations 122 recorded in order to achieve a smoothing of the strongly fluctuating values. Here is the waiting time 30th Seconds. When determining a single value of the probability of state 128 is always a time series of the recorded values of the observations 122 viewed from the past 30 seconds.

Mit anderen Worten wird eine Radarblindheitserkennung über Bayessche-Netze vorgestellt.In other words, radar blindness detection via Bayesian networks is presented.

Die Wahrnehmungsleistung eines Radarsensors kann durch Wettereinflüsse, wie Schnee und Regen sowie durch ungünstige Umgebungsbedingungen, wie Interferenz und Mehrwegeausbreitung gestört werden. Die Erkennung dieser Störungen ist für eine Degradation von Funktionen essentiell. Die Wahrnehmungsleistung kann für Fahrerassistenzsysteme und autonomes Fahren prädiziert werden, um Funktionen der Fahrerassistenzsysteme degradieren zu können. Auch kann der Fahrer je nach Degradation und SAE Level sofort gewarnt werden bzw. eine Eskalationsstrategie gewählt werden.The perception performance of a radar sensor can be disrupted by weather influences such as snow and rain as well as by unfavorable environmental conditions such as interference and multipath propagation. The detection of these disturbances is essential for a degradation of functions. The perception performance can be predicted for driver assistance systems and autonomous driving in order to be able to degrade functions of the driver assistance systems. The driver can also be warned immediately, depending on the degradation and SAE level, or an escalation strategy can be selected.

Bei dem hier vorgestellten Ansatz erfolgt die Prädiktion der Wahrnehmungsleistung über Bayessche Netze beziehungsweise Machine Learning.In the approach presented here, the perception performance is predicted via Bayesian networks or machine learning.

Für die Validierung der Radarblindheit werden Messungen mit Wettereffekten, wie Schnee, Regen und Eis eingefahren und ausgewertet. Damit sind Sequenzen bzw. Zeitreihen bekannt, in denen eine Degradation erfolgen bzw. nicht erfolgen sollte. Zeitsequenzen mit und ohne störende Einflüsse werden dafür gelabelt.For the validation of radar blindness, measurements with weather effects such as snow, rain and ice are run in and evaluated. This means that sequences or time series are known in which degradation should or should not occur. Time sequences with and without disruptive influences are labeled for this.

Mit den gelabelten Daten wird ein speziell für die Radarblindheit definiertes Bayes-Netz automatisiert eingelernt. Da gelabelte Daten verfügbar sind, können auch Machine Learning Methoden für Zeitreihen angewendet werden, um eine Blindheitserkennung einzulernen. Der hier vorgeschlagene Ansatz beruht auf einem Bayesschen Netz. Dieses kann über verschiedene Zustände die verschiedenen Arten von Blindheiten erfassen und deren Wahrscheinlichkeiten ausgeben. Neue Indikatoren können leicht hinzugefügt werden. Dabei profitiert das Netz auch direkt von Indikatoren, die eine Szene erkennen können, in der es bei einer herkömmlichen Blindheitserkennung zu einer Fehlerkennung einer Blindheit gekommen ist. Der Indikator ist dabei an sich kein Blindheitsindikator, verhindert aber über die Netzstruktur eine Fehlerkennung.With the labeled data, a Bayesian network specially defined for radar blindness is taught-in automatically. Since labeled data is available, machine learning methods for time series can also be used to teach in blindness detection. The approach proposed here is based on a Bayesian network. This can detect the different types of blindness via different states and output their probabilities. New indicators can easily be added. The network also benefits directly from indicators that can recognize a scene in which conventional blindness detection has failed to detect blindness. The indicator is not in itself an indicator of blindness, but prevents incorrect identification via the network structure.

Das hier vorgestellte Bayessche Netz wird direkt beeinflusst von Indikatoren, die eine Blindheitssituation oder eine Fehlerkennung („explaining away“) beobachten können. Es ergibt sich eine einfache Erweiterbarkeit und Verbesserung durch neue Indikatoren.The Bayesian network presented here is directly influenced by indicators that can observe a blindness situation or incorrect identification (“explaining away”). It is easy to expand and improve with new indicators.

Bei dem hier vorgestellten Ansatz wird der Generalisierungsfehler über Cross-Validation klein gehalten. Das Bayes-Netz ermöglicht eine „optimale“ bzw. bestmögliche Klassifikation gelabelter Blindheitsdaten. Unter Verwendung der gelabelten Blindheitsdaten ist ein automatisches Einlernen auf dem Cluster bzw. Rechenzentrum möglich. Das eingelernte Netz kann auch automatisch auf dem Cluster bewertet werden. (Einhalten der KPIs)In the approach presented here, the generalization error is kept small by means of cross-validation. The Bayesian network enables an “optimal” or best possible classification of labeled blindness data. Automatic learning on the cluster or data center is possible using the labeled blindness data. The learned network can also be evaluated automatically on the cluster. (Compliance with KPIs)

In Summe ermöglicht der hier vorgestellte Ansatz eine Kostenreduktion durch einen reduzierten zeitlichen Aufwand und weniger Nachsimulationen auf dem Cluster. Ein genaues Labeln der Daten ist zwar erforderlich, der Mehraufwand ist aber vernachlässigbar gegenüber der zeitlichen Einsparung.All in all, the approach presented here enables a cost reduction through a reduced expenditure of time and fewer post-simulations on the cluster. Exact labeling of the data is necessary, but the additional effort is negligible compared to the time saved.

Das Bayessche Netz bildet verschiedene Ursachen bzw. Störungen als Zustände ab. Damit können Wahrscheinlichkeiten bzgl. des aktuellen Zustands berechnet werden. Diese können wiederrum in der Sensordatenfusion und Degradation berücksichtigt werden. Zum Beispiel können die Wahrscheinlichkeitsdichtefunktionen (z.B. Normalverteilung) von geschätzten Objektpositionen in Abhängigkeit der Zustandswahrscheinlichkeiten des Bayesschen Netzes aufgeweitet werden (höhere Varianz). Damit kann der Radarsensor innerhalb einer Fusion anders gewichtet werden.The Bayesian network depicts various causes or disturbances as states. In this way, probabilities with regard to the current state can be calculated. These can in turn be taken into account in the sensor data fusion and degradation. For example, the probability density functions (e.g. normal distribution) of estimated object positions can be expanded depending on the state probabilities of the Bayesian network (higher variance). This means that the radar sensor can be weighted differently within a merger.

Eine Cross-Validation ist automatisiert möglich. Dadurch wird der Generalisierungsfehler kleiner und die Qualität der Blindheitserkennung wird besser.An automated cross-validation is possible. This reduces the generalization error and improves the quality of the blindness detection.

Prinzipiell kann die Wahrnehmungsleistung eines Radars wetterbedingt durch Distorsion und/oder Absorption eingeschränkt werden. Oft wird zuerst eine Distorsionsblindheit erkannt während sich eine Schneeschicht aufbaut. Ab einer gewissen Dicke wird dann zusätzlich eine Absorptionsblindheit erkannt. In der Realität verschwimmen beide Effekte und kommen oft gleichzeitig vor. Darüber hinaus kann es wetterunabhängig zu Interferenzen kommen, die das Rauschlevel anheben und damit Einfluss auf die Detektion haben (Objekte verschwinden im Rauschen).In principle, the perception performance of a radar can be limited due to weather conditions through distortion and / or absorption. Distortion blindness is often recognized first while a layer of snow is building up. Above a certain thickness, absorption blindness is also recognized. In reality, both effects are blurred and often occur at the same time. In addition, regardless of the weather, interference can occur that increase the noise level and thus have an influence on detection (objects disappear in the noise).

Bei der Absorptionsblindheit führt eine Wasser- oder Schneeschicht auf dem Radom bzw. hinter einem Cover/Emblem zu einer Dämpfung und damit einer eingeschränkten Wahrnehmungsleistung.In the case of absorption blindness, a layer of water or snow on the radome or behind a cover / emblem leads to a dampening and thus a restricted perception.

Bei der Distorsionsblindheit führt eine Teilverdeckung zu kombinierten Dämpfungs-/Brechungs-/Beugungseffekten und verzerrt virtuell das Antennendiagramm. Es entstehen Winkelfehler.In the case of distortion blindness, partial masking leads to combined attenuation / refraction / diffraction effects and virtually distorts the antenna pattern. Angular errors arise.

Als Beobachtungen werden verschiedene Indikatoren definiert.
thetaSO quality bezeichnet gemittelte Winkelgüten in horizontaler Richtung. Die Winkelgüte ist ein berechnetes Maß für die Genauigkeit der Winkelschätzung.
phi quality bezeichnet gemittelte Winkelgüten in vertikaler Richtung.
aei bezeichnet eine Plausibilisierung der Winkelschätzung aus dem Antennendiagramm mit der über Dopplereffekt gemessenen relativen Geschwindigkeit eines Standziels.
aei variance bezeichnet die Varianz des aei.
detected targets bezeichnet die Anzahl der Detektionen.
nbins bezeichnet die Anzahl der DFT Bins, die den CFAR Grenzwert überschreiten („Anzahl Detektionen“)
reach range bezeichnet die geschätzte Reichweite.
steering bezeichnet den Lenkwinkel. Dabei ist auch ein direktes Signal des Gierratensensors verwendbar.
Interference indicator bezeichnet die Interferenzschätzung aus der Signalverarbeitungskomponente.
tunnel indicator bezeichnet einen Indikator für die Erkennung eines Tunnels und basiert auf erkannten Radarzielen der „Tunneldecke“.
overground targets bezeichnet die Anzahl der detektierten Radarziele über Grund.
wiper bezeichnet das Ansteuerungssignal des Scheibenwischers.
temperature bezeichnet die Außentemperatur.
Various indicators are defined as observations.
thetaSO quality denotes averaged angular quality in the horizontal direction. The angular quality is a calculated measure of the accuracy of the angle estimate.
phi quality denotes averaged angular quality in the vertical direction.
aei denotes a plausibility check of the angle estimate from the antenna diagram with the relative speed of a stationary target measured via the Doppler effect.
aei variance describes the variance of the aei.
detected targets denotes the number of detections.
nbins denotes the number of DFT bins that exceed the CFAR limit value ("number of detections")
reach range describes the estimated range.
steering refers to the steering angle. A direct signal from the yaw rate sensor can also be used.
Interference indicator refers to the interference estimate from the signal processing component.
tunnel indicator denotes an indicator for the detection of a tunnel and is based on detected radar targets of the "tunnel ceiling".
overground targets denotes the number of detected radar targets over the ground.
wiper describes the activation signal of the windshield wiper.
temperature refers to the outside temperature.

Das Bayessche Netz ist so modelliert, dass es eine Wahrscheinlichkeit berechnet, mit der sich der Sensor im Zustand Distorsionsblindheit, Absorptionsblindheit bzw. Interferenz befindet. Die Zustände hängen von Beobachtungen (Indikatoren), sich selbst, anderen Zuständen sowie der Vergangenheit (Zeitreihe) ab.The Bayesian network is modeled in such a way that it calculates a probability with which the sensor is in the state of distortion blindness, absorption blindness or interference. The states depend on observations (indicators), themselves, other states and the past (time series).

Alle Zustände und Beobachtungen können diskretisiert werden. Zustände können auf den Wertebereich [1,2] gemappt werden. Beobachtungen können mit Ausnahme von Temperature [1,2,3], Tunnel indicator [1,2] und Wiper [1,2,3,4] auf den Wertebereich [1 bis 10] gemappt werden.All states and observations can be discretized. States can be mapped to the value range [1,2]. With the exception of Temperature [1,2,3], Tunnel indicator [1,2] and Wiper [1,2,3,4], observations can be mapped to the value range [1 to 10].

Die Zustände Distortion und Absorption haben als gemeinsame Ursache den Zustand Bad Weather. Als direkte Beobachtung für Bad Weather stehen die Ansteuerung vom wiper und die temperature zur Verfügung.The common cause of distortion and absorption is Bad Weather. The control of the wiper and the temperature are available as direct observation for bad weather.

Als Beobachtung für Distortion werden die Indikatoren thetaso quality, phi quality, aei, aei variance und detected targets definiert.The indicators thetaso quality, phi quality, aei, aei variance and detected targets are defined as observations for distortion.

Als Beobachtung für Absorption werden die Indikatoren detected targets, nbins und reach range definiert.The indicators detected targets, nbins and reach range are defined as observations for absorption.

Da die Beobachtungen thetaso quality, phi quality, aei und aei variance auch durch eine hohe Gierrate (Yaw) beeinflusst werden, wird auch die Gierrate als Zustand (Ursache) verknüpft, um Fehlerkennungen zu vermeiden.Since the observations thetaso quality, phi quality, aei and aei variance are also influenced by a high yaw rate (yaw), the yaw rate is also linked as a condition (cause) in order to avoid incorrect detection.

Die Beobachtungen thetaso quality, phi quality und aei hängen darüber hinaus auch von den Zuständen Interference und Bad Environments ab.The observations thetaso quality, phi quality and aei also depend on the states of interference and bad environments.

Bad Environments wiederum hängt vom Zustand Tunnel (mit Beobachtung tunnel indicator) ab und hat zusätzlich noch die Beobachtung overground targets.Bad Environments, in turn, depends on the tunnel status (with observation tunnel indicator) and also has the observation of overground targets.

Die Zeitabhängigikeit entsteht durch das Verknüpfen von Zuständen mit sich selbst zu vorherigen Zeitpunkten. Daraus resultiert ein dynamisches Bayessches Netz.The time dependency arises from the linking of states with themselves at previous points in time. This results in a dynamic Bayesian network.

In Worten bedeutet die Verknüpfung, dass es wahrscheinlich ist, dass z.B. eine Distorsionsblindheit anliegt, wenn sie zum vorherigen Zeitpunkt auch schon erkannt wurde.In words, the link means that it is likely that there is, for example, distortion blindness if it was recognized at the previous point in time.

Das dynamische Bayessche Netz mit einem Set an Zufallsvariablen Z=(Z1, Z2,..., ZN) kann definiert werden als ein Paar von Bayes-Netzen (BNs) (B1, B→), wobei B1 die Initialverteilung P(Z1) zum Zeitpunkt 1 ist, und B→ ein 2TBN mit der Verteilung P(Zt|Zt-1) ist. Ein 2TBN ist dabei ein Bayessches Netz, dass Variablen von Xt enthält, dessen Eltern Variablen von Xt-1 und/oder Xt sind, und Variablen von Xt-1 ohne deren Eltern. P ( Z t | Z t 1 ) = i = 1 N P ( Z t i | P a ( Z t i ) )

Figure DE102020203370A1_0001
The dynamic Bayesian network with a set of random variables Z = (Z 1 , Z 2 , ..., Z N ) can be defined as a pair of Bayesian networks (BNs) (B 1 , B →), where B 1 is the The initial distribution is P (Z 1 ) at time 1, and B → is a 2TBN with the distribution P (Z t | Z t-1 ). A 2TBN is a Bayesian network that contains variables from Xt whose parents are variables from Xt-1 and / or Xt, and variables from Xt-1 without their parents. P. ( Z t | Z t - 1 ) = i = 1 N P. ( Z t i | P. a ( Z t i ) )
Figure DE102020203370A1_0001

Sei Xt der nicht beobachtbare Zustand zum Zeitpunkt t (inklusive Distorsion zum Zeitpunkt t Dt, Absorption zum Zeitpunkt t At, Bad Weather zum Zeitpunkt t BWt, Bad Environment zum Zeitpunkt t BEt, Tunnel State zum Zeitpunkt t TUt, Interferenz zum Zeitpunkt t It und Gierwinkel zum Zeitpunkt t Yt) und Et die beobachtbare Evidenz bzw. Indikatoren zum Zeitpunkt t (inklusive Lenkindikator zum Zeitpunkt t steert, Thetaso quality zum Zeitpunkt t θt, Phi quality zum Zeitpunkt t φt, Angle Error zum Zeitpunkt t aeit, Angle error variance zum Zeitpunkt t aevit, overground Indikator zum Zeitpunkt t ogt, Tunnel Indikator zum Zeitpunkt t tut, Interference Indikator zum Zeitpunkt t it, Detected Targets Indikator zum Zeitpunkt t dtt, Nbins Indikator zum Zeitpunkt t nbinst, Wiper Indicator zum Zeitpunkt t wt, Temperatur Indikator zum Zeitpunkt t tempt, Reach Range Indikator zum Zeitpunkt t rrit), so ist die Initialverteilung des Bayesschen Netzes für die Blindheitserkennung gegeben durch P ( X 1 | E 1 ) = P ( D 1 1 | B W 1 ) P ( A 1 | B W 1 ) P ( B E 1 | T U 1 ) P ( Y 1 | s t e e r 1 ) P ( T U 1 ) P ( B W 1 ) P ( w 1 | B W 1 ) P ( t e m p 1 | B W 1 ) P ( r r i 1 | A 1 ) P ( s t e e r 1 ) P ( θ 1 | D 1 , B E 1 , I 1 , Y 1 ) P ( φ 1 | D 1 , B E 1 , I 1 , Y 1 ) P ( aei 1 | D 1 , B E 1 , I 1 , Y 1 ) P ( a e v i 1 | D 1 , Y 1 ) P ( d t 1 | D 1 , A 1 ) P ( n b i n s 1 | D 1 ) P ( i 1 | I 1 ) P ( t u 1 | T U 1 ) P ( o g 1 | B E 1 )

Figure DE102020203370A1_0002
Let X t be the unobservable state at time t (including distortion at time t D t , absorption at time t A t , bad weather at time t BW t , bad environment at time t BE t , tunnel state at time t TU t , Interference at time t I t and yaw angle at time t Y t ) and E t the observable evidence or indicators at time t (including steering indicator at time t steer t , Thetaso quality at time t θ t , Phi quality at time t φ t , Angle Error at time t aei t , Angle error variance at time t aevi t , overground indicator at time t og t , Tunnel indicator at time t tu t , Interference indicator at time ti t , Detected Targets indicator at time t dt t , Nbins indicator at time t nbins t , Wiper indicator at time tw t , temperature indicator at time t temp t , reach range indicator at time t rri t ), the initial distribution of the Bayesian network for blindness detection is given by P. ( X 1 | E. 1 ) = P. ( D. 1 1 | B. W. 1 ) P. ( A. 1 | B. W. 1 ) P. ( B. E. 1 | T U 1 ) P. ( Y 1 | s t e e r 1 ) P. ( T U 1 ) P. ( B. W. 1 ) P. ( w 1 | B. W. 1 ) P. ( t e m p 1 | B. W. 1 ) P. ( r r i 1 | A. 1 ) P. ( s t e e r 1 ) P. ( θ 1 | D. 1 , B. E. 1 , I. 1 , Y 1 ) P. ( φ 1 | D. 1 , B. E. 1 , I. 1 , Y 1 ) P. ( aei 1 | D. 1 , B. E. 1 , I. 1 , Y 1 ) P. ( a e v i 1 | D. 1 , Y 1 ) P. ( d t 1 | D. 1 , A. 1 ) P. ( n b i n s 1 | D. 1 ) P. ( i 1 | I. 1 ) P. ( t u 1 | T U 1 ) P. ( O G 1 | B. E. 1 )
Figure DE102020203370A1_0002

Gemäß der Markov'schen Annahme hängt die bedingte Wahrscheinlichkeitsverteilung von Knoten an jedem Zeitpunkt t nur von den aktuellen Knoten (Zeitpunkt t) und vorherigen Knoten zum Zeitpunkt t-1 ab. Die 2TBN Wahrscheinlichkeitsverteilung ergibt sich zu: P ( X t , E t | X t 1 , E t 1 ) = P ( D 1 t | D 1 t 1 , B W t ) P ( A t | A t 1 , B W t ) P ( B E t | B E t 1 , T U 1 ) P ( Y t | s t e e r t ) P ( I t ) P ( T U t ) P ( B W t ) P ( w t | B W t ) P ( t e m p t | B W t ) P ( r r i t | A t ) P ( s t e e r t ) P ( θ t | D t , B E t , I t , Y t ) P ( φ t | D t , B E t , I t , Y t ) P ( aei t | D t , B E t , I t , Y t ) P ( a e v i t | D t , Y t ) P ( d t t | D t , A t ) P ( n b i n s t | D t ) P ( i t | I t ) P ( t u t | T U t ) P ( o g t | B E t )

Figure DE102020203370A1_0003
According to Markov's assumption, the conditional probability distribution of nodes at any point in time t depends only on the current nodes (point in time t) and previous nodes at point in time t-1. The 2TBN probability distribution results from: P. ( X t , E. t | X t - 1 , E. t - 1 ) = P. ( D. 1 t | D. 1 t - 1 , B. W. t ) P. ( A. t | A. t - 1 , B. W. t ) P. ( B. E. t | B. E. t - 1 , T U 1 ) P. ( Y t | s t e e r t ) P. ( I. t ) P. ( T U t ) P. ( B. W. t ) P. ( w t | B. W. t ) P. ( t e m p t | B. W. t ) P. ( r r i t | A. t ) P. ( s t e e r t ) P. ( θ t | D. t , B. E. t , I. t , Y t ) P. ( φ t | D. t , B. E. t , I. t , Y t ) P. ( aei t | D. t , B. E. t , I. t , Y t ) P. ( a e v i t | D. t , Y t ) P. ( d t t | D. t , A. t ) P. ( n b i n s t | D. t ) P. ( i t | I. t ) P. ( t u t | T U t ) P. ( O G t | B. E. t )
Figure DE102020203370A1_0003

Die Inferenz (schließen auf nicht beobachtbare Größen) erfolgt mit Hilfe der Junction-Tree und Forward-/Backward Pass Algorithmen.The inference (inferring from non-observable quantities) takes place with the help of the junction tree and forward / backward pass algorithms.

Für das Einlernen des Netzes werden alle Zustände in den Zeitreihen zunächst gelabelt, d.h. Distortion, Absorption, Yaw, Interference, Bad Environment, Tunnel, Bad Weather werden gelabelt.To teach-in the network, all states in the time series are first labeled, i.e. distortion, absorption, yaw, interference, bad environment, tunnel, bad weather are labeled.

Nach dem Einlernen des Netzes auf Basis einer 5-fachen Cross-Validation können bedingte Wahrscheinlichkeitsverteilungen für aei dargestellt werden. Am Beispiel der Beobachtung aei ist ein Zusammenhang zwischen Distorsionsblindheit (distortion) und hohen bedingten Wahrscheinlichkeiten bei großen Indikatorwerten ersichtlich. Gleichzeitig verschieben aber auch bad env (ungünstige Umgebung) und interference die Verteilung. Yaw (hohe Gierrate) hat schließlich fast den gleichen Einfluss auf die bedingte Wahrscheinlichkeit wie distortion. Das bedeutet, dass allein dieser eine Indikator nicht ausreichen würde um eine Distorsionsblindheit und hohe Gierraten zu unterscheiden. Da im definierten Bayesschen Netz jedoch hohe Gierraten als Beobachtung berücksichtigt sind, werden Fehlerkennungen durch „explaining away“ vermieden.After learning the network on the basis of a 5-fold cross-validation, conditional probability distributions can be displayed for aei. The example of the observation aei shows a connection between distortion and high conditional probabilities with large indicator values. At the same time, however, bad env (unfavorable environment) and interference also shift the distribution. After all, yaw (high yaw rate) has almost the same impact on conditional probability as distortion. This means that this one indicator alone would not be sufficient to differentiate between distortion blindness and high yaw rates. However, since high yaw rates are taken into account as observations in the defined Bayesian network, incorrect identifications through “explaining away” are avoided.

Der Reichweitenindikator rri zeigt einen starken Zusammenhang mit den gelabelten Absorptionszuständen. Die bedingten Wahrscheinlichkeiten für eine hohe Reichweite (hoher Indikatorwert) sind bei einer Absorptionsblindheit groß. Umgekehrt sind die bedingten Wahrscheinlichkeiten für eine kleine Reichweite bei einer Absorptionsblindheit ebenso groß. Damit ist der Indikator prinzipiell geeignet um eine Absorptionsblindheit zu prädizieren.The range indicator rri shows a strong correlation with the labeled absorption states. The conditional probabilities for a long range (high indicator value) are high in the case of absorption blindness. Conversely, the conditional probabilities of a short range in the case of absorption blindness are just as great. The indicator is therefore in principle suitable for predicting absorption blindness.

Das DBN greift auf zusätzliche Indikatoren zurück, wobei speziell die Verwendung von rri (reach range indicator) eine Fehlerkennung vermeiden kann.The DBN uses additional indicators, whereby the use of rri (reach range indicator) in particular can avoid incorrect identification.

In 4 ist eine objektarme Umgebung mit dem zeitlichen Verlauf der Wahrscheinlichkeit für den Zustand Absorption dargestellt.In 4th an environment with few objects is shown with the time course of the probability for the state of absorption.

Links sind drei Indikatoren (Beobachtungen) mit Werten zwischen 0 und 1 dargestellt. Rechts oben ist die Wahrscheinlichkeit für eine Absorptionsblindheit dargestellt. In der dargestellten Szene (Wüste) fallen die beiden Indikatoren „Nbins“ und „Detected Targets“ stark ab, was zu einer erhöhten berechneten Wahrscheinlichkeit für eine Absorptionsblindheit führt. Die hohen Indikatorwerte von rri reduzieren die Wahrscheinlichkeiten für eine Absorptionsblindheit aber wieder und verhindern eine Fehlerkennung.Three indicators (observations) with values between 0 and 1 are shown on the left. The probability of absorption blindness is shown at the top right. In the depicted scene (desert), the two indicators “Nbins” and “Detected Targets” drop sharply, which leads to an increased calculated probability of absorption blindness. The high indicator values of rri reduce the probabilities of absorption blindness again and prevent incorrect identification.

Vorteilhaft ist die berechnete Wahrscheinlichkeit P(Absorption|Evidence) mit der sich der Radarsensor im Zustand Absorptionsblindheit befindet. Diese Wahrscheinlichkeiten können innerhalb eines Degradationssystems - vor allem für Fusionssysteme - berücksichtigt werden. Über einer parametrierbaren Abschaltschwelle von beispielsweise 0,8 kann auch eine binäre Abschaltung einer Funktion erfolgen, z.B. wird ACC über 0,8 deaktivert.The calculated probability P (absorption | evidence) with which the radar sensor is in the absorption blindness state is advantageous. These probabilities can be taken into account within a degradation system - especially for fusion systems. A binary shutdown of a function can also take place via a parameterizable shutdown threshold of 0.8, for example, e.g. ACC is deactivated above 0.8.

Abschließend ist darauf hinzuweisen, dass Begriffe wie „aufweisend“, „umfassend“, etc. keine anderen Elemente oder Schritte ausschließen und Begriffe wie „eine“ oder „ein“ keine Vielzahl ausschließen. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.Finally, it should be pointed out that terms such as “having”, “comprising”, etc. do not exclude any other elements or steps and that terms such as “a” or “an” do not exclude a plurality. Reference signs in the claims are not to be regarded as a restriction.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 102009001265 A1 [0003]DE 102009001265 A1 [0003]

Claims (10)

Verfahren zum Erkennen von Sensorblindheit bei einem Radarsensor (104) eines Fahrzeugs (100), wobei Beobachtungen (122) am Radarsensor (104) und am Fahrzeug (100) als Eingangsgrößen (124) eines Bayes-Netzes (126) verarbeitet werden, und als Ausgangsgrößen (132) des Bayes-Netzes (126) Zustandswahrscheinlichkeiten (128) von verschiedenen Zuständen (130) der Sensorblindheit ausgelesen werden, wobei die Zustände (130) zumindest einen Distorsionszustand des Radarsensors (104) und einen Absorptionszustand des Radarsensors (104) umfassen, wobei die Sensorblindheit erkannt wird, wenn zumindest eine der Zustandswahrscheinlichkeiten (128) größer als ein Schwellenwert (402) ist.Method for detecting sensor blindness in a radar sensor (104) of a vehicle (100), observations (122) on the radar sensor (104) and on the vehicle (100) being processed as input variables (124) of a Bayesian network (126), and as Output variables (132) of the Bayesian network (126) state probabilities (128) of different states (130) of the sensor blindness are read out, the states (130) including at least one distortion state of the radar sensor (104) and an absorption state of the radar sensor (104), wherein the sensor blindness is recognized if at least one of the state probabilities (128) is greater than a threshold value (402). Verfahren gemäß Anspruch 1, bei dem ferner zumindest ein Zustand (130) aus einer Gruppe von Zuständen (130) umfassend Gierrate (224), Tunnel (236), schlechtes Wetter (200) und schlechte Umgebung (230) in dem Bayes-Netz (126) bestimmt wird, wobei der Zustand (130) zum Absichern der Zustandswahrscheinlichkeiten (128) verwendet wird.Procedure according to Claim 1 further comprising determining at least one state (130) from a group of states (130) comprising yaw rate (224), tunnel (236), bad weather (200) and bad environment (230) in the Bayesian network (126) , the state (130) being used to secure the state probabilities (128). Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem ferner eine Zustandswahrscheinlichkeit (128) eines Interferenzzustands ausgelesen wird.Method according to one of the preceding claims, in which a state probability (128) of an interference state is also read out. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem zumindest eine der Ausgangsgrößen (132) aus einer vorhergehenden Verarbeitung im Bayes-Netz (126) als Eingangsgröße (124) für eine nachfolgende Verarbeitung im Bayes-Netz (126) verwendet wird.Method according to one of the preceding claims, in which at least one of the output variables (132) from previous processing in the Bayesian network (126) is used as the input variable (124) for subsequent processing in the Bayesian network (126). Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem zumindest zwei Beobachtungen (122) aus einer Gruppe von Beobachtungen (122) umfassend Steuerung (226), Scheibenwischer (206), Außentemperatur (208), Winkelgüte in horizontaler Richtung (222), Winkelgüte in vertikaler Richtung (220), Plausibilisierung der Winkelschätzung (216), Varianz der Plausibilisierung der Winkelschätzung (218), Anzahl Detektionen (210), Anzahl der Bins die einen Grenzwert überschreiten (212), geschätzte Reichweite (214), Interferenzschätzung (232), Tunnel Indikator (238) und Anzahl der detektierten Radarziele über Grund (234) in dem Bayes-Netz (126) verarbeitet werden.Method according to one of the preceding claims, in which at least two observations (122) from a group of observations (122) comprising control (226), windshield wipers (206), outside temperature (208), angular quality in the horizontal direction (222), angular quality in the vertical Direction (220), plausibility check of the angle estimate (216), variance of the plausibility check of the angle estimate (218), number of detections (210), number of bins that exceed a limit value (212), estimated range (214), interference estimate (232), tunnel Indicator (238) and number of detected radar targets above ground (234) are processed in the Bayesian network (126). Verfahren gemäß Anspruch 5, bei dem die Beobachtungen (122) Steuerung (226), Winkelgüte in horizontaler Richtung (222), Winkelgüte in vertikaler Richtung (220), Plausibilisierung der Winkelschätzung (216), Varianz der Plausibilisierung der Winkelschätzung (218), Anzahl Detektionen (210), Anzahl der Bins die den Grenzwert überschreiten (212), geschätzte Reichweite (214), Interferenzschätzung (232), Anzahl der detektierten Radarziele über Grund (234), Scheibenwischer (206), Außentemperatur (208) und Tunnel Indikator (238) vor dem Verarbeiten auf Wertebereiche von zumindest zwei diskreten Werten diskretisiert werden.Procedure according to Claim 5 , in which the observations (122) control (226), angular quality in the horizontal direction (222), angular quality in the vertical direction (220), plausibility check of the angle estimate (216), variance of the plausibility check of the angle estimate (218), number of detections (210) , Number of bins exceeding the limit value (212), estimated range (214), interference estimate (232), number of detected radar targets above ground (234), windshield wipers (206), outside temperature (208) and tunnel indicator (238) before the Processing to value ranges of at least two discrete values are discretized. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem das Bayes-Netz (126) unter Verwendung von mit zumindest je einer Variante der Sensorblindheit gelabelten Zuständen (130) und/oder Beobachtungen (122) trainiert wird.Method according to one of the preceding claims, in which the Bayesian network (126) is trained using states (130) and / or observations (122) labeled with at least one variant of the sensor blindness each. Vorrichtung (102), wobei die Vorrichtung dazu ausgebildet ist, das Verfahren gemäß einem der vorhergehenden Ansprüche in entsprechenden Einrichtungen auszuführen, umzusetzen und/oder anzusteuern.Device (102), the device being designed to carry out, implement and / or control the method according to one of the preceding claims in corresponding devices. Computerprogrammprodukt, das dazu eingerichtet ist, einen Prozessor bei Ausführung des Computerprogrammprodukts dazu anzuleiten, das Verfahren gemäß einem der Ansprüche 1 bis 7 auszuführen, umzusetzen und/oder anzusteuern.Computer program product which is set up to instruct a processor when executing the computer program product to implement the method according to one of the Claims 1 until 7th execute, implement and / or control. Maschinenlesbares Speichermedium, auf dem das Computerprogrammprodukt gemäß Anspruch 9 gespeichert ist.Machine-readable storage medium on which the computer program product according to Claim 9 is stored.
DE102020203370.6A 2020-03-17 2020-03-17 Method and device for detecting sensor blindness in a radar sensor of a vehicle Pending DE102020203370A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020203370.6A DE102020203370A1 (en) 2020-03-17 2020-03-17 Method and device for detecting sensor blindness in a radar sensor of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020203370.6A DE102020203370A1 (en) 2020-03-17 2020-03-17 Method and device for detecting sensor blindness in a radar sensor of a vehicle

Publications (1)

Publication Number Publication Date
DE102020203370A1 true DE102020203370A1 (en) 2021-09-23

Family

ID=77552676

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020203370.6A Pending DE102020203370A1 (en) 2020-03-17 2020-03-17 Method and device for detecting sensor blindness in a radar sensor of a vehicle

Country Status (1)

Country Link
DE (1) DE102020203370A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009001265A1 (en) 2009-03-02 2010-09-09 Robert Bosch Gmbh Radar sensor with Blinheitserkennungseinrichtung

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009001265A1 (en) 2009-03-02 2010-09-09 Robert Bosch Gmbh Radar sensor with Blinheitserkennungseinrichtung

Similar Documents

Publication Publication Date Title
DE102020124236A1 (en) REUSABLE GHOST IMAGE IN THE VEHICLE RADAR SYSTEM
EP2137042B1 (en) Method for object formation
DE102018104090A1 (en) ADAPTIVE DESCRIPTION OF PROCESS RUSTS FOR IMPROVED KALMAN FILTER TARGET TRACKING
DE102006045115A1 (en) System and method for target tracking using sensor fusion
DE102021102898A1 (en) IMPROVED OBJECT DETECTION WITH CLUSTERING
DE112017000865B4 (en) estimation device
DE102014220537A1 (en) ADVANCE VEHICLE SELECTION DEVICE
DE112008004067T5 (en) Direction of travel vector reliability determination method and direction vector reliability determination device
DE112020003009B4 (en) Targeting device, driving control system and method for calculating a correction value for sensor data
DE102017214531A1 (en) Method and device for operating a motor vehicle in an automated driving operation and motor vehicle
DE102019117769A1 (en) Driving control system for a vehicle
DE102020214203B4 (en) Method for determining the lane-change intention of another motor vehicle located in the immediate vicinity of a motor vehicle, as well as an assistance system
DE102019132150A1 (en) Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device
DE102023110301A1 (en) IMPROVED DOPPLER RADAR RESOLUTION BASED ON A VEHICLE INERTIAL MEASUREMENT UNIT
DE102018222663A1 (en) Method for adaptively determining an integrity area of a parameter estimate
DE102018103551A1 (en) Method for characterizing an object in a surrounding area of a motor vehicle on the basis of previously learned curve parameters, sensor device and driver assistance system
DE112018001947B4 (en) ENVIRONMENTAL SURVEILLANCE RADAR DEVICE
DE102021214763A1 (en) Method and control device for controlling an automated vehicle
DE102020203370A1 (en) Method and device for detecting sensor blindness in a radar sensor of a vehicle
DE102020101823A1 (en) RESOLUTION OF DOPPLER AMBULANCE IN A RADAR SYSTEM BY PURSUITING
DE112020007753T5 (en) Diagnostic device for other-vehicle behavior prediction and diagnostic method for other-vehicle behavior prediction
EP2026095B1 (en) Method and device for recognising the state of a distance sensor attached to a motor vehicle
DE112020001776B4 (en) VEHICLE CONTROL SYSTEM
DE112022006429T5 (en) RANGE ADJUSTMENT DEVICE
DE102021133977A1 (en) Method and system for classifying virtual test scenarios and training methods