DE102023003206A1 - Method and device for detecting a vehicle environment - Google Patents
Method and device for detecting a vehicle environment Download PDFInfo
- Publication number
- DE102023003206A1 DE102023003206A1 DE102023003206.9A DE102023003206A DE102023003206A1 DE 102023003206 A1 DE102023003206 A1 DE 102023003206A1 DE 102023003206 A DE102023003206 A DE 102023003206A DE 102023003206 A1 DE102023003206 A1 DE 102023003206A1
- Authority
- DE
- Germany
- Prior art keywords
- event
- vehicle
- projectile
- images
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Erfassung einer Fahrzeugumgebung, wobei mittels zumindest einer Eventkamera (3.1 bis 3.n) Eventbilder (B1 bis Bn) der Fahrzeugumgebung erfasst werden. Erfindungsgemäß wird zu einer Erkennung eines Beschusses des Fahrzeugs (1) mit einem Projektil eine Auswertung einer zu den erfassten Eventbildern (B1 bis Bn) aggregierten Event-Information (I) mittels eines Steuergeräts (4) des Fahrzeugs (1) und/oder mittels eines gepulsten neuronalen Netzwerks (5) und einer Umgebungsunterdrückung durchgeführt.Die Erfindung betrifft weiterhin eine Vorrichtung (2) zur Erfassung einer Fahrzeugumgebung.The invention relates to a method for recording a vehicle environment, wherein event images (B1 to Bn) of the vehicle environment are captured using at least one event camera (3.1 to 3.n). According to the invention, in order to detect a shelling of the vehicle (1) with a projectile, event information (I) aggregated to the captured event images (B1 to Bn) is evaluated by means of a control device (4) of the vehicle (1) and/or by means of a pulsed neural network (5) and environmental suppression. The invention further relates to a device (2) for detecting a vehicle environment.
Description
Die Erfindung betrifft ein Verfahren zur Erfassung einer Fahrzeugumgebung gemäß dem Oberbegriff des Anspruchs 1.The invention relates to a method for detecting a vehicle environment according to the preamble of claim 1.
Die Erfindung betrifft weiterhin eine Vorrichtung zur Erfassung einer Fahrzeugumgebung gemäß dem Oberbegriff des Anspruchs 3.The invention further relates to a device for detecting a vehicle environment according to the preamble of claim 3.
Aus der
Weiterhin ist aus der
Wie unter anderem in https://en.wikipedia.org/wiki/Event_camera#Algorithms (abgerufen am 14. Juli 2023 um 9:20 Uhr) beschrieben, wird eine Eventkamera auch als neuromorphe Kamera (englisch: neuromorphic camera), Silizium-Netzhaut (englisch: silicon retina) oder dynamischer Bild-Sensor (z. B. Dynamic Vision Sensor, kurz DVS) oder Asynchronous Time-based Image Sensor, kurz ATIS, bezeichnet. Eine solche Eventkamera umfasst einen Bildsensor, der auf lokale Helligkeitsänderungen reagiert. Eventkameras erfassen keine Bilder mit einem Verschluss wie framebasierte Kameras. Stattdessen sind Pixel einer Eventkamera asynchron und unabhängig. Sie bleiben grundsätzlich stumm, reagieren aber unabhängig voneinander auf Helligkeitsänderungen im Umfeld der Eventkamera. Dafür speichert jedes Pixel eine Referenzhelligkeit und vergleicht sie mit einer jeweils neuen Helligkeitsstufe. Wenn ein Helligkeitsunterschied einen Schwellenwert überschreitet, setzt dieses Pixel seinen Referenzpegel auf den neuen Helligkeitswert und generiert ein Ereignis, das so genannte Event. Eventkameras verarbeiten lokale relative Lichtintensitätsänderungen daher direkt und senden Informationspakete als Events an daran angeschlossene Steuergeräte. Hier können diese zeitlich und/oder örtlich zu so genannten Eventbildern aggregiert werden. Eventkameras liefern typischerweise im Gegensatz zu framebasierten Kameras nur binäre Information über relative Lichtintensitätsänderungen, wobei optional noch eine Information einer Änderungsrichtung, das heißt ein Ansteigen oder Absinken der relativen Lichtintensitätsänderungen, als sogenannte Polarität vorliegt, haben aber im Vergleich zu Frame-basierenden Kameras eine tendenziell höhere zeitliche Auflösung und einen typischerweise höheren Dynamikbereich. Dadurch lassen sich beispielsweise Objektbewegungen in ihrem Umfeld sehr genau verfolgen.As described, among other things, in https://en.wikipedia.org/wiki/Event_camera#Algorithms (accessed on July 14, 2023 at 9:20 a.m.), an event camera is also called a neuromorphic camera, silicon Retina (English: silicon retina) or dynamic image sensor (e.g. Dynamic Vision Sensor, DVS for short) or Asynchronous Time-based Image Sensor, ATIS for short. Such an event camera includes an image sensor that reacts to local changes in brightness. Event cameras do not capture images with a shutter like frame-based cameras. Instead, event camera pixels are asynchronous and independent. They generally remain silent, but react independently to changes in brightness in the area around the event camera. To do this, each pixel saves a reference brightness and compares it with a new brightness level. When a brightness difference exceeds a threshold, that pixel sets its reference level to the new brightness value and generates an event, called an event. Event cameras therefore process local relative light intensity changes directly and send information packets as events to control devices connected to them. Here these can be aggregated in time and/or location to form so-called event images. In contrast to frame-based cameras, event cameras typically only provide binary information about relative light intensity changes, with optional information about a direction of change, i.e. an increase or decrease in the relative light intensity changes, as so-called polarity, but tend to have a higher polarity than frame-based cameras temporal resolution and a typically higher dynamic range. This allows, for example, object movements in their surroundings to be tracked very precisely.
Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren und eine neuartige Vorrichtung zur Erfassung einer Fahrzeugumgebung anzugeben.The invention is based on the object of specifying a novel method and a novel device for detecting a vehicle environment.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist, und durch eine Vorrichtung, welche die im Anspruch 3 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method which has the features specified in claim 1, and by a device which has the features specified in claim 3.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.
In einem Verfahren zur Erfassung einer Fahrzeugumgebung werden mittels zumindest einer Eventkamera Eventbilder der Fahrzeugumgebung erfasst. Erfindungsgemäß wird zu einer Erkennung eines Beschusses des Fahrzeugs mit einem Projektil eine Auswertung einer zu den erfassten Eventbildern aggregierten Event-Information mittels eines Steuergeräts des Fahrzeugs und/oder mittels eines gepulsten neuronalen Netzwerks, auch als Spiking Neural Network bezeichnet, und einer Umgebungsunterdrückung, auch als Surround Suspression bezeichnet, durchgeführt.In a method for capturing a vehicle environment, event images of the vehicle environment are captured using at least one event camera. According to the invention, in order to detect a bombardment of the vehicle with a projectile, an evaluation of event information aggregated to the captured event images is carried out by means of a control device of the vehicle and/or by means of a pulsed neural network, also referred to as a spiking neural network, and an environmental suppression, also referred to as Surround Supression is carried out.
Es existieren Fahrzeuge, welche für einen Beschuss aus einem Sturmgewehr mit entsprechender Stahlhartkern-Munition derart ausgelegt sind, dass sowohl eine Karosserie als auch Fensterscheiben einem solchen Beschuss standhalten. Diese Fahrzeuge erfüllen dabei beispielsweise Anforderungen der höchsten zivilen Schutzklasse VR10 nach der Richtlinie VPAM BRV Fassung 3 (Bullet Resistant Vehicles). There are vehicles that are designed to withstand fire from an assault rifle with appropriate hard-core steel ammunition in such a way that both the body and window panes can withstand such fire. For example, these vehicles meet the requirements of the highest civil protection class VR10 according to the VPAM BRV version 3 (Bullet Resistant Vehicles) guideline.
Bei derartigen Fahrzeugen können weitere Schutzmaßnahmen, wie z. B. Fluchtmanöver etc., erst dann durch einen Fahrer oder Nutzer des Fahrzeugs ergriffen werden, sobald ein solcher Beschuss, beispielsweise durch Einschlag eines Projektils auf der Karosserie oder Scheibe, festgestellt wird. Ein Fluggeräusch des Projektils ist im inneren des Fahrzeugs aufgrund der Panzerung nicht oder nur schwer wahrnehmbar.Such vehicles may require additional protective measures, such as: E.g. escape maneuvers etc., can only be taken by a driver or user of the vehicle as soon as such fire, for example due to the impact of a projectile on the body or window, is detected. Due to the armor, the projectile's flying noise is hardly or not perceptible inside the vehicle.
Mittels des vorliegenden Verfahrens ist es möglich, in einfacher und zuverlässiger Weise automatisch einen Beschuss eines Fahrzeugs mit einem Projektil zu detektieren, ohne dass ein Einschlag eines Projektils auf der Karosserie oder Scheibe des Fahrzeugs stattfinden muss. Somit können schnellstmöglich weitere Schutzmaßnamen ergriffen werden. Auch ist eine automatische Ausgabe einer Warnung an Fahrzeuginsassen bei Erfassung eines Projektils möglich. Dabei zeichnet sich die verwendete Eventkamera durch eine besonders hohe zeitliche Auflösung auf, so dass in der Umgebung des Fahrzeugs sich mit hoher Geschwindigkeit bewegende Projektile sicher und zuverlässig erfasst werden können.Using the present method, it is possible to automatically detect a vehicle being shot at with a projectile in a simple and reliable manner, without a projectile impacting the body or window of the vehicle must take place. This means that further protective measures can be taken as quickly as possible. It is also possible to automatically issue a warning to vehicle occupants when a projectile is detected. The event camera used has a particularly high temporal resolution, so that projectiles moving at high speeds in the area surrounding the vehicle can be recorded safely and reliably.
Werden Projektile in der Fahrzeugumgebung erkannt, so können Fahrzeuginsassen neben der Warnung auch über eine Richtung eines Angriffs und/oder über eine Art des Angriffs (beispielsweise Pistole oder Gewehr) informiert werden. Auch ist es möglich, das Fahrzeug in einen automatischen Verteidigungsmodus zu versetzen, in welchem, beispielsweise je nach Gelände, ein Fahrwerk abgesenkt wird, um einem Beschuss auszuweichen (vergleichbar mit einem Abducken), oder angehoben wird, um eine Flucht im Gelände zu ermöglichen. Auch können Fensterscheiben automatisch verdunkelt oder zusätzlich gehärtet werden. Auch können eine Geschwindigkeit und Trajektorie des Fahrzeugs automatisch generisch geändert werden, um beispielsweise so genanntes Hakenschlagen und Beschleunigen zu ermöglichen. Die Geschwindigkeit und Trajektorie des Fahrzeugs können auch automatisch entsprechend der zumindest approximierten Schützenposition geändert werden.If projectiles are detected in the vehicle's surroundings, vehicle occupants can, in addition to the warning, also be informed about the direction of an attack and/or about a type of attack (e.g. pistol or rifle). It is also possible to put the vehicle into an automatic defense mode in which, for example, depending on the terrain, a chassis is lowered to avoid fire (comparable to ducking) or raised to enable escape in the terrain. Window panes can also be automatically darkened or additionally hardened. The speed and trajectory of the vehicle can also be automatically and generically changed, for example to enable so-called hooking and acceleration. The speed and trajectory of the vehicle can also be changed automatically according to the at least approximated shooter position.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Exemplary embodiments of the invention are explained in more detail below with reference to drawings.
Dabei zeigen:
-
1 schematisch ein Fahrzeug mit einer Vorrichtung zur Erfassung einer Fahrzeugumgebung, -
2 schematisch ein Blockschaltbild der Vorrichtung gemäß1 und -
3 schematisch eine Verarbeitung von erfassten Eventbildern mittels eines gepulsten neuronalen Netzwerks.
-
1 schematically a vehicle with a device for detecting a vehicle environment, -
2 schematically a block diagram of the device according to1 and -
3 schematically a processing of captured event images using a pulsed neural network.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference numbers in all figures.
In
Das Fahrzeug 1 kann beispielsweise ein Kraftfahrzeug, zum Beispiel ein Personenkraftwagen oder Lastkraftwagen, ein Bus oder Minibus oder ein Luftfahrzeug, Wasserfahrzeug, Einsatzfahrzeug, eine Baumaschine, ein landwirtschaftliches oder militärisches Fahrzeug, beispielsweise ein Schützenpanzer oder Kampfpanzer, sein.The vehicle 1 can be, for example, a motor vehicle, for example a passenger car or truck, a bus or minibus, or an aircraft, watercraft, emergency vehicle, a construction machine, an agricultural or military vehicle, for example an armored personnel carrier or battle tank.
Die Vorrichtung 2 umfasst mehrere Eventkameras 3.1 bis 3.n und ein mit diesen gekoppeltes Steuergerät 4, wobei mittels der Vorrichtung 2 ein Verfahren zur Erfassung einer Fahrzeugumgebung ausgeführt wird.The
Mittels der Eventkameras 3.1 bis 3.n werden Eventbilder B1 bis Bn der Fahrzeugumgebung erfasst. Die Eventkameras 3.1 bis 3.n weisen dabei eine geringe Latenz auf, insbesondere ist eine Latenz eines Einzelpixels auf Intensitätsänderungen kleiner oder gleich 1 µs. Weiterhin weisen die Eventkameras 3.1 bis 3.n eine hohe Zeitauflösung auf, welche beispielsweise eine 1 µs beträgt. In realistischen Anwendungen kann die Zeitauflösung unter Berücksichtigung von technischen Limitationen, wie beispielsweise dem so genannten „timestamping-during-readout scheme“ oder Rauschen, ungefähr 10 µs bis 100 µs betragen. Ferner zeichnen sich die Eventkameras 3.1 bis 3.n durch einen vergleichsweise hohen dynamischen Bereich aus, so dass Aufnahmen bei sehr hohen und sehr schwachen Lichtintensitäten möglich sind. Weiterhin weisen die Eventkameras 3.1 bis 3.n eine Adaptationsmöglichkeit an sich ändernde Lichtverhältnisse und einen vergleichsweise geringen Energieverbrauch auf.Event images B1 to Bn of the vehicle surroundings are captured using the event cameras 3.1 to 3.n. The event cameras 3.1 to 3.n have a low latency, in particular a latency of an individual pixel to changes in intensity is less than or equal to 1 µs. Furthermore, the event cameras 3.1 to 3.n have a high time resolution, which is, for example, 1 µs. In realistic applications, the time resolution can be approximately 10 µs to 100 µs, taking into account technical limitations such as the so-called “timestamping-during-readout scheme” or noise. Furthermore, the event cameras 3.1 to 3.n are characterized by a comparatively high dynamic range, so that recordings are possible at very high and very weak light intensities. Furthermore, the event cameras 3.1 to 3.n have the ability to adapt to changing lighting conditions and a comparatively low energy consumption.
Die Eventkameras 3.1 bis 3.n verarbeiten lokale relative Lichtintensitätsänderungen direkt und senden daraus erzeugte Informationspakete als Events E1 bis Em an eine gekoppelte, zeitlich asynchron informationsverarbeitende Hardware, beispielsweise eine neuromorphe Hardware analog zu gepulsten neuronalen Netzwerken 5 etc. Alternativ werden die Events E1 bis Em in Eventbildern B1 bis Bn aggregiert und ein einer digitalen Hardware ausgewertet.The event cameras 3.1 to 3.n process local relative light intensity changes directly and send the information packets generated therefrom as events E1 to Em to a coupled, temporally asynchronous information processing hardware, for example neuromorphic hardware analogous to pulsed
Zu einer Erkennung eines Beschusses des Fahrzeugs 1 mit einem Projektil wird eine Auswertung einer zu den erfassten Eventbildern B1 bis Bn aggregierten Event-Information I mit Events E1 bis Em mittels des Steuergeräts 4 des Fahrzeugs 1 und mittels eines gepulsten neuronalen Netzwerks 5 und einer Umgebungsunterdrückung durchgeführt.To detect a bombardment of the vehicle 1 with a projectile, an evaluation of event information I aggregated to the captured event images B1 to Bn with events E1 to Em is carried out by means of the
Hierzu werden die durch Striche dargestellten und die Event-Information I bildenden Events E1 bis Em von den Eventkameras 3.1 bis 3.n direkt an das Steuergerät 4 gesendet und dort mittels des gepulsten neuronalen Netzwerks 5 verarbeitet.For this purpose, the events E1 to Em, represented by dashes and forming the event information I, are sent from the event cameras 3.1 to 3.n directly to the
Alternativ oder zusätzlich wird aus den Event-Informationen I zumindest ein Eventbild B1 bis Bn generiert und an das Steuergerät 4 gesendet.Alternatively or additionally, at least one event image B1 to Bn is generated from the event information I and sent to the
Auch ist es möglich, dass die Events E1 bis Em an das Steuergerät 4 gesendet werden und zumindest ein Eventbild B1 bis Bn mittels des Steuergeräts 4 erzeugt wird.It is also possible for the events E1 to Em to be sent to the
Projektile können aufgrund ihrer außergewöhnlich hohen und gleichzeitig je nach Art einer das Projektil abfeuernden Waffe charakteristischen Geschwindigkeitsbereiche in den Event-Informationen I der Eventkameras 3.1 bis 3.n detektiert werden. Hierzu sind in dem gepulsten neuronalen Netzwerk 5 mit Umgebungsunterdrückung zu erwartende charakteristische Geschwindigkeitsbereiche entsprechend parametrisiert.Projectiles can be detected in the event information I of the event cameras 3.1 to 3.n due to their exceptionally high and at the same time characteristic speed ranges depending on the type of weapon firing the projectile. For this purpose, characteristic speed ranges to be expected in the pulsed
Hierbei kann beispielsweise von einer Geschwindigkeit von 500 m/s, beispielsweise bei einer 9 mm-Pistole, bis 1000 m/s, beispielsweise bei einem Sturmgewehr, ausgegangen werden. Somit können Projektile mit einer Geschwindigkeit im Bereich von 0,5 m/ms bis 1 m/ms in einer Bildebene der jeweiligen Eventkamera 3.1 bis 3.n oder mit einem kleinen Winkel zur Bildebene der jeweiligen Eventkamera 3.1 bis 3.m aufgezeichnet werden. Sobald das Projektil in den Erfassungsbereich der jeweiligen Eventkamera 3.1 bis 3.n, auch als Field of View (kurz: FOV) bezeichnet, eintritt, werden Events E1 bis Em detektiert, die einer zumindest approximativen geradlinig gleichförmigen Bewegung folgend über die Bildebene wandern. Hierbei kann davon ausgegangen werden, dass das Projektil relativ klein ist und in der Regel nur wenige Pixel der jeweiligen Eventkamera 3.1 bis 3.n aktiv werden.For example, a speed of 500 m/s, for example for a 9 mm pistol, to 1000 m/s, for example for an assault rifle, can be assumed. Projectiles can thus be recorded at a speed in the range of 0.5 m/ms to 1 m/ms in an image plane of the respective event camera 3.1 to 3.n or at a small angle to the image plane of the respective event camera 3.1 to 3.m. As soon as the projectile enters the detection range of the respective event camera 3.1 to 3.n, also referred to as the field of view (FOV for short), events E1 to Em are detected, which move across the image plane following an at least approximately rectilinear, uniform movement. It can be assumed that the projectile is relatively small and that usually only a few pixels of the respective event camera 3.1 to 3.n become active.
Bei einer Geschwindigkeit von 0,5 m/ms bis 1 m/ms werden von den Eventkameras 3.1 bis 3.n bei einer beispielhaften Strecke des Projektils durch den Erfassungsbereich der jeweiligen Event-Kamera 3.1 bis 3.n von 10 m und einer beispielhaften zeitlichen Auflösung von 100 µs 100 bis 200 Events E1 bis Em detektiert, wenn das Projektil hierbei nur jeweils ein Pixel einnimmt. Eine höhere zeitliche Auflösung und mehr aktivierte Pixel, beispielsweise, weil sich das Projektil mit geringerem Abstand an der Event-Kamera 3.1 bis 3.n vorbeibewegt, würde zu entsprechend mehr, eine kleinere Wegstrecke zu entsprechend weniger Events E1 bis Em führen.At a speed of 0.5 m/ms to 1 m/ms, the event cameras 3.1 to 3.n are used for an exemplary distance of the projectile through the detection range of the respective event camera 3.1 to 3.n of 10 m and an exemplary time Resolution of 100 µs 100 to 200 events E1 to Em detected if the projectile only takes up one pixel at a time. A higher temporal resolution and more activated pixels, for example because the projectile moves past the event camera 3.1 to 3.n at a smaller distance, would lead to correspondingly more events, while a smaller distance would lead to correspondingly fewer events E1 to Em.
Wird mittels des gepulsten neuronalen Netzwerks 5 bzw. des Steuergeräts 4 in den Event-Informationen I bzw. in dem zumindest einen Eventbild B1 bis Bn ein Projektil erkannt, wird eine Warnung W im Fahrzeuginnenraum ausgegeben und/oder eine Schutzfunktion des Fahrzeugs 1 aktiviert.If a projectile is detected in the event information I or in the at least one event image B1 to Bn by means of the pulsed
In
Zu dieser Verarbeitung werden die Events E1 bis Em der Eventkameras 3.1 bis 3.n an einzelne Elemente bzw. Neuronen N1 bis Nz einer ersten Schicht S des gepulsten neuronalen Netzwerks 5 gesendet.For this processing, the events E1 to Em of the event cameras 3.1 to 3.n are sent to individual elements or neurons N1 to Nz of a first layer S of the pulsed
Jedes ankommende Event E1 bis Em wird hierbei von einem zur Position des Pixels in Querrichtung y und Längsrichtung x der Bildebene der jeweiligen Eventkamera 3.1 bis 3.n eindeutig zugeordneten Neuron Nxy verarbeitet, wobei ein Neuron Nxy auch die Informationen mehrerer Pixel der jeweiligen Eventkamera 3.1 bis 3.n aufnehmen kann oder ein Pixel mehreren Neuronen Nxy zugeordnet sein kann.Each incoming event E1 to Em is processed by a neuron Nxy that is uniquely assigned to the position of the pixel in the transverse direction y and longitudinal direction x of the image plane of the respective event camera 3.1 to 3.n, with a neuron Nxy also containing the information from several pixels of the respective event camera 3.1 to 3.n can record or a pixel can be assigned to several neurons Nxy.
Tritt nun ein Event E1 bis Em zu einem Zeitpunkt t0 auf (symbolisiert als Stern), wird ein Neuron Nxy von seinem Pixel über eine Intensitätsänderung an der Position (x, y) informiert und somit angeregt bzw. aktiviert (dargestellt durch Neuronen N1 bis Nz mit gepunkteter Linie). Erfolgt die Anregung über einen Schwellwert, so werden die anderen Neurone Nij (mit i, j ungleich x, y) in der Umgebung des Neurons Nxy entweder in einen angeregten Zustand versetzt (dargestellt durch Pfeile und Neuronen N1 bis Nz mit Strich-Punkt-Linie) oder in einen gehemmten Zustand versetzt (dargestellt durch Pfeile und Neuronen N1 bis Nz mit unterbrochener Strich-Linie), wobei eine Stärke und Orientierung (angeregt/gehemmt) von einer Distanz des Neurons Nij zu dem Neuron Nxy abhängt. Hierdurch kann die Umgebungsunterdrückung realisiert werden. Hierzu sind die Neurone N1 bis Nz stark rekurrent verbunden.If an event E1 to Em occurs at a time t0 (symbolized as a star), a neuron Nxy is informed by its pixel about a change in intensity at position (x, y) and is thus excited or activated (represented by neurons N1 to Nz with dotted line). If the excitation occurs above a threshold value, the other neurons Nij (with i, j not equal to x, y) in the vicinity of the neuron Nxy are either put into an excited state (represented by arrows and neurons N1 to Nz with a dash-dot line ) or put into an inhibited state (represented by arrows and neurons N1 to Nz with a broken dashed line), whereby a strength and orientation (excited/inhibited) depends on a distance of the neuron Nij to the neuron Nxy. This allows ambient suppression to be realized. For this purpose, the neurons N1 to Nz are strongly connected in a recurrent manner.
Zu einem späteren Zeitpunkt t1 > t0 befindet sich das Projektil an einem anderen Ort und ein anderes Neuron N1 bis Nz wird mit den Events E1 bis Em der jeweiligen Eventkamera 3.1 bis 3.n aktiviert (gepunktete Umrandung). Vor kurzem aktive Neurone N1 bis Nz befinden sich in einem zeitweise deaktivierten Zustand bzw. einer Refraktärzeit (schraffiert dargestellt).At a later time t1 > t0, the projectile is in a different location and another neuron N1 to Nz is activated with the events E1 to Em of the respective event camera 3.1 to 3.n (dotted border). Recently active neurons N1 to Nz are in a temporarily deactivated state or a refractory period (shown hatched).
Befindet sich ein Neuron Nij in einem angeregten Zustand, so kann ein Event E1 bis Em an einer Position ij der jeweiligen Eventkamera 3.1 bis 3.n einfacher und schneller eine Antwort bzw. ein Spike des Neurons Nij auslösen.If a neuron Nij is in an excited state, an event E1 to Em at a position ij of the respective event camera 3.1 to 3.n can trigger a response or a spike from the neuron Nij more easily and quickly.
Befindet sich ein Neuron in Nij einem gehemmten Zustand, so kann ein Event E1 bis Em an einer Position ij der jeweiligen Eventkamera 3.1 bis 3.n keine Antwort bzw. kein Spike des Neurons Nij auslösen.If a neuron in Nij is in an inhibited state, an event E1 to Em at a position ij of the respective event camera 3.1 to 3.n cannot trigger a response or a spike from the neuron Nij.
Hierbei werden durch die Umgebungsunterdrückung alle Neurone N1 bis Nz gehemmt, außer solchen, welche bei der Detektion eines Projektils in der Zukunft aktiv werden könnten. Hierdurch wird eine Hyperaktivität des gepulsten neuronalen Netzwerks 5 verhindert und die Detektion selektiv auf Objekte in hohen Geschwindigkeitsbereichen oder einer bestimmten Geschwindigkeit gerichtet. Somit ergibt sich ein zeitlich-räumliches Muster M mit den Koordinaten Querrichtung y und Längsrichtung x der Bildebene und der Zeit t in der ersten Schicht S des gepulsten neuronalen Netzwerks 5, welches durch eine weitere Schicht oder Schichten ausgewertet werden kann.Due to the ambient suppression, all neurons N1 to Nz are inhibited, except for those that could become active in the future when a projectile is detected. This causes hyperactivity of the pulsed
Im einfachsten Fall wird ein Koinzidenzdetektor in einer zweiten Schicht verwendet, welcher eine verzögerte Aktivitätspropagation in der ersten Schicht S erkennen kann. Das heißt, ein solcher Koinzidenzdetektor erkennt das charakteristische zeitlich verzögerte Auftreten von mehreren Events E1 bis Em der ersten Schicht S, welches von der Geschwindigkeit des Projektils abhängt. Somit wird die Bewegung eines Projektils in der Bildebene der jeweiligen Eventkamera 3.1 bis 3.n detektiert.In the simplest case, a coincidence detector is used in a second layer, which can detect delayed activity propagation in the first layer S. This means that such a coincidence detector detects the characteristic time-delayed occurrence of several events E1 to Em of the first layer S, which depends on the speed of the projectile. The movement of a projectile is thus detected in the image plane of the respective event camera 3.1 to 3.n.
Eine Parametrisierung der Umgebungsunterdrückung wird im Hinblick auf eine Stärke und Distanz sowie die Anregung und Hemmung bzw. allgemein auf die zweidimensionale Funktion, welche die Stärke der Anregung und Hemmung von jedem Neuron Nij aus beschreibt, durch die zu erwartende Projektilgeschwindigkeit bestimmt.A parameterization of the surrounding suppression is determined by the expected projectile speed with regard to a strength and distance as well as the excitation and inhibition or generally to the two-dimensional function which describes the strength of the excitation and inhibition from each neuron Nij.
Auch eine Parametrisierung des zeitlich verzögerten Koinzidenzdetektors im Hinblick auf unterschiedliche synaptische Verzögerungen, welche von der Distanz der verknüpften Neurone Nij abhängt, wird durch die zu erwartende Projektilgeschwindigkeit bestimmtA parameterization of the time-delayed coincidence detector with regard to different synaptic delays, which depends on the distance of the connected neurons Nij, is also determined by the expected projectile speed
Alternativ oder zusätzlich können die Event-Informationen I, wie bereits beschrieben, in dem Steuergerät 4 direkt zu Eventbildern B1 bis Bn zeitlich aggregiert bzw. in so genannte „discretized event streams“ umgewandelt werden, wobei hierzu in verschiedenen Verfahren, beispielsweise Histogramme, binäre Histogramme, Eventvolumen etc., verwendet werden können. Diese Eventbilder B1 bis Bn können mit hoher zeitlicher Auflösung gleichsam einer Frame-Kamera mit hoher Bildfrequenz erzeugt und mit dem bekannten Verfahren des computergestützten Sehens (Computer Vision), beispielsweisen künstlichen neuronalen Netzwerken im Steuergerät 4, ausgewertet werden. Im Besonderen werden solche künstlichen neuronalen Netzwerke antrainiert, so dass diese Projektile in den Eventbildern B1 bis Bn erkennen können.Alternatively or additionally, the event information I, as already described, can be temporally aggregated directly in the
Zusätzlich kann durch eine Information, welche der Eventkameras 3.1 bis 3.n das Projektil detektiert hat, und welche Flugrichtung erkannt wurde, eine Position eines Schützen im Steuergerät 4 zumindest approximiert werden.In addition, a position of a shooter in the
Zusätzlich kann eine Information über eine Art des Beschusses aus der Geschwindigkeit des Projektils ermittelt werden und somit eine Art der Bedrohung im Steuergerät 4 zumindest approximiert werden. Hierzu können parallel unterschiedliche gepulste Auswertungsnetzwerke mit unterschiedlichen Parametrisierungen entsprechend der zu detektierten Geschwindigkeit verwendet werden.In addition, information about a type of fire can be determined from the speed of the projectile and thus a type of threat can be at least approximated in the
In einer möglichen Ausgestaltung kann das verwendete künstliche neuronale Netzwerk auch als Anomalieerkenner ausgebildet sein, da Projektile aufgrund von Merkmalen, wie beispielsweise einer Größe, Form und vor allem ihrer Geschwindigkeit, nicht im normalen Straßenverkehr auftreten.In a possible embodiment, the artificial neural network used can also be designed as an anomaly detector, since projectiles do not occur in normal road traffic due to characteristics such as size, shape and, above all, their speed.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- GB 2605675 A [0003]GB 2605675 A [0003]
- EP 3293681 A1 [0004]EP 3293681 A1 [0004]
Claims (3)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023003206.9A DE102023003206A1 (en) | 2023-08-03 | 2023-08-03 | Method and device for detecting a vehicle environment |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023003206.9A DE102023003206A1 (en) | 2023-08-03 | 2023-08-03 | Method and device for detecting a vehicle environment |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102023003206A1 true DE102023003206A1 (en) | 2023-10-19 |
Family
ID=88191901
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102023003206.9A Pending DE102023003206A1 (en) | 2023-08-03 | 2023-08-03 | Method and device for detecting a vehicle environment |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102023003206A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102023004655A1 (en) | 2023-11-16 | 2025-05-22 | Mercedes-Benz Group AG | Hybrid stereo vision with event and frame cameras in one vehicle |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3293681A1 (en) | 2016-09-13 | 2018-03-14 | Sap Se | Spatio-temporal spiking neural networks in neuromorphic hardware systems |
| GB2605675A (en) | 2020-11-25 | 2022-10-12 | Kenig Noam | Event-based aerial detection vision system |
-
2023
- 2023-08-03 DE DE102023003206.9A patent/DE102023003206A1/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3293681A1 (en) | 2016-09-13 | 2018-03-14 | Sap Se | Spatio-temporal spiking neural networks in neuromorphic hardware systems |
| GB2605675A (en) | 2020-11-25 | 2022-10-12 | Kenig Noam | Event-based aerial detection vision system |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102023004655A1 (en) | 2023-11-16 | 2025-05-22 | Mercedes-Benz Group AG | Hybrid stereo vision with event and frame cameras in one vehicle |
| DE102023004655B4 (en) | 2023-11-16 | 2025-08-07 | Mercedes-Benz Group AG | Hybrid stereo vision with event and frame cameras in one vehicle |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102015205369A1 (en) | Method for operating a suspension system | |
| DE102023003206A1 (en) | Method and device for detecting a vehicle environment | |
| DE102020103503A1 (en) | ADAPTIVE CONTROL OF AUTOMATIC LANE CHANGE IN THE VEHICLE | |
| EP2166489B1 (en) | Method and device for detecting vehicles in the dark | |
| EP3677019B1 (en) | Method and device for predictable exposure control of at least one first vehicle camera | |
| EP0310869A2 (en) | Method for automatic target classification by land and water combat vehicles, and apparatus therefor | |
| DE102011119480A1 (en) | Method and device for tracking a moving target | |
| DE102011009459A1 (en) | Method and device for averting an attacking missile | |
| DE102015012809A1 (en) | Image recording device for a motor vehicle and method for operating such an image recording device | |
| DE102019207916A1 (en) | Method for the automated braking of a vehicle | |
| WO2016087115A1 (en) | System and a method for locating and combatting threats, in particular in asymmetric threat situations | |
| EP3839567B1 (en) | Missile warning and a method for issuing a warning about a missile | |
| DE19747515C1 (en) | Device for protecting mobile objects, in particular armored vehicles, against the impact of a projectile | |
| EP3139347B1 (en) | Method for determining an alignment of an object | |
| DE102019007515B4 (en) | Image processing method for determining guidance commands for control wings of a guided missile | |
| DE102012016865A1 (en) | Improved alpha blending of images of a camera system of a motor vehicle | |
| EP2120002B1 (en) | Method for classifying incoming RAM-projectiles | |
| DE102016006567A1 (en) | Method and device for increasing traffic safety, especially in the event of a rear impact | |
| DE102021000644A1 (en) | Method for the detection of an unauthorized or illegal attachment of undesired goods to a vehicle combination and a vehicle | |
| EP3260808B1 (en) | Method for offset correction of a weapon system | |
| DE102010005198A1 (en) | Missile and method for detecting a target | |
| DE102024105312B4 (en) | Operating procedure for operating a cleaning system of a vehicle | |
| DE102012014025B4 (en) | Method and device for protecting vehicle occupants in the event of a vehicle colliding with an obstacle | |
| DE102012014050B4 (en) | Method and device for protecting vehicle occupants in the event of a vehicle colliding with an obstacle | |
| DE102009053395B4 (en) | System and method for monitoring target objects |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R230 | Request for early publication |