[go: up one dir, main page]

DE102023207294A1 - Storage-efficient device and storage-efficient method for determining measurement information - Google Patents

Storage-efficient device and storage-efficient method for determining measurement information Download PDF

Info

Publication number
DE102023207294A1
DE102023207294A1 DE102023207294.7A DE102023207294A DE102023207294A1 DE 102023207294 A1 DE102023207294 A1 DE 102023207294A1 DE 102023207294 A DE102023207294 A DE 102023207294A DE 102023207294 A1 DE102023207294 A1 DE 102023207294A1
Authority
DE
Germany
Prior art keywords
processing unit
designed
timestamps
feature
feature groups
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102023207294.7A
Other languages
German (de)
Inventor
Gongbo CHEN
Manuel Ligges
Roman Burkard
Andre Henschke
Burkhard Heidemann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Univ Duisburg Essen Koerperschaft Des Oeffentlichen Rechts
Universitat Duisburg-Essen Korperschaft Des Offentlichen Rechts
Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV
Original Assignee
Univ Duisburg Essen Koerperschaft Des Oeffentlichen Rechts
Universitat Duisburg-Essen Korperschaft Des Offentlichen Rechts
Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Univ Duisburg Essen Koerperschaft Des Oeffentlichen Rechts, Universitat Duisburg-Essen Korperschaft Des Offentlichen Rechts, Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV filed Critical Univ Duisburg Essen Koerperschaft Des Oeffentlichen Rechts
Priority to DE102023207294.7A priority Critical patent/DE102023207294A1/en
Publication of DE102023207294A1 publication Critical patent/DE102023207294A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Eine Vorrichtung zur Distanzbestimmung gemäß einer Ausführungsform wird bereitgestellt. Die Vorrichtung umfasst eine Empfangsschnittstelle (110) zum Empfangen einer Mehrzahl von Zeitstempeln einer LiDAR Detektion. Ferner umfasst die Vorrichtung eine Verarbeitungseinheit (120) zur Durchführung von ein oder mehreren Verarbeitungsoperationen. Die Verarbeitungseinheit (120) ist ausgebildet, abhängig von den ein oder mehreren Verarbeitungsoperationen eine Distanz zu bestimmen. Die Verarbeitungseinheit (120) ist ausgebildet, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die Mehrzahl von Zeitstempeln derart zu gruppieren, dass zwei oder mehr Zeitstempel der Mehrzahl von Zeitstempeln werden; und/oder die Verarbeitungseinheit (120) ist ausgebildet, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen ein oder mehrere Zusatzdaten mehr als einem Zeitstempel der Mehrzahl von Zeitstempeln zuzuordnen.

Figure DE102023207294A1_0000
A device for determining distance according to an embodiment is provided. The device comprises a receiving interface (110) for receiving a plurality of timestamps of a LiDAR detection. The device further comprises a processing unit (120) for carrying out one or more processing operations. The processing unit (120) is designed to determine a distance depending on the one or more processing operations. The processing unit (120) is designed to group the plurality of timestamps when carrying out the one or more processing operations such that two or more timestamps become the plurality of timestamps; and/or the processing unit (120) is designed to assign one or more additional data to more than one timestamp of the plurality of timestamps when carrying out the one or more processing operations.
Figure DE102023207294A1_0000

Description

Die Anmeldung betrifft eine speichereffiziente Vorrichtung und ein speichereffizientes Verfahren zur Bestimmung einer Messinformation und ein entsprechendes LiDAR Gerät.The application relates to a memory-efficient device and a memory-efficient method for determining measurement information and a corresponding LiDAR device.

Im Bereich der Light Detection and Ranging -Technologie (LiDAR; deutsch: Lichtdetektion und Entfernungsbestimmung) ist das Direct time-of-flight (TOF) -Messprinzip (deutsch: Lautzeit-Messprinzip) mit Single Photon Avalanche Diode (SPAD)-Detektoren aufgrund seiner Einfachheit und Effektivität weit verbreitet. Mit der Technologie wird die Laufzeit eines Laserpulses in Zeitstempel zur Entfernungsmessung transformiert. Die Entfernung wird aus den Zeitstempeln und der Lichtgeschwindigkeit berechnet. Ein einzelner Zeitstempel ist jedoch aufgrund von Rauschen und falschen Auslöseereignissen nicht zuverlässig. Um diese Einflüsse zu reduzieren, akkumulieren die meisten solcher LiDAR-Systeme eine große Anzahl dieser Zeitstempel in einem sogenannten zeitkorrelierten Histogramm.In the field of light detection and ranging (LiDAR) technology, the direct time-of-flight (TOF) measurement principle with single photon avalanche diode (SPAD) detectors is widely used due to its simplicity and effectiveness. The technology transforms the flight time of a laser pulse into timestamps for distance measurement. The distance is calculated from the timestamps and the speed of light. However, a single timestamp is not reliable due to noise and false trigger events. To reduce these influences, most such LiDAR systems accumulate a large number of these timestamps in a so-called time-correlated histogram.

2 zeigt ein Beispiel für ein zeitkorreliertes Histogramm eines LIDAR Systems. Insbesondere zeigt 2 ein Beispiel für ein Histogramm mit einer Reichweite von 0 - 60 m (400 ns) und einer TDC-Auflösungvon 312,5 ps, mit einer Anzahl der Laserpulse pro Histogramm von 400 und einer Hintergrundphotonrate von 5 MHz. Die x-Achse in 2 entspricht der Ankunftszeit der Photonen. Sie ist diskret und die Auflösung (auch als BinBreite in einem Histogramm bezeichnet) entspricht der Auflösung des verwendeten Zeit-Digital-Umsetzers (TDC). Jeder Zeitstempel kann NB = 1280 unterschiedliche Werte annehmen (400 ns / 312,5 ps). Damit das komplette Histogramm gebildet werden kann, wird für jeden dieser Werte ein zusätzlicher Zähler benötigt, dessen Bit-Breite von der Anzahl der durchgeführten Einzelmessungen abhängig ist. Die y-Achse ist der Zählwert der angibt, wie viele Zeitstempel sich in dem entsprechenden Bin befinden. Werden, wie im zuvor genannten Beispiel, 400 Einzelmessungen durchgeführt, so benötigt jeder dieser Zähler mindestens eine Bit-Breite von NZ = [log2400] = 9 Bit. 2 shows an example of a time-correlated histogram of a LIDAR system. In particular, 2 an example of a histogram with a range of 0 - 60 m (400 ns) and a TDC resolution of 312.5 ps, with a number of laser pulses per histogram of 400 and a background photon rate of 5 MHz. The x-axis in 2 corresponds to the arrival time of the photons. It is discrete and the resolution (also called bin width in a histogram) corresponds to the resolution of the time-to-digital converter (TDC) used. Each time stamp can assume N B = 1280 different values (400 ns / 312.5 ps). In order to form the complete histogram, an additional counter is required for each of these values, the bit width of which depends on the number of individual measurements carried out. The y-axis is the count value that indicates how many time stamps are in the corresponding bin. If, as in the example mentioned above, 400 individual measurements are carried out, each of these counters requires at least a bit width of N Z = [log 2 400] = 9 bits.

Zur Verbesserung der Zuverlässigkeit der Entfernungsmessung eines LiDAR-Systems werden häufig Rauschunterdrückung, Interpolation und andere Algorithmen auf das gemessene Histogramm angewendet. Für die Speicherung eines einzelnen Histogramms muss bereits ein großer Speicherplatz vorgehalten werden, was große Herausforderungen an den Speicherplatz und die Übertragungsbandbreite beispielsweise für ein eingebettetes System stellt. Werden darüber hinaus Algorithmen verwendet, welche Informationen aus aufeinanderfolgenden Histogrammen verwenden, steigen die Anforderungen an die eingebetteten Systeme derart, dass diese von den meisten aktuellen Systemen nicht mehr erfüllt werden können.To improve the reliability of the distance measurement of a LiDAR system, noise reduction, interpolation and other algorithms are often applied to the measured histogram. Storing a single histogram already requires a large amount of storage space, which poses major challenges in terms of storage space and transmission bandwidth, for example for an embedded system. In addition, if algorithms are used that use information from consecutive histograms, the demands on the embedded systems increase to such an extent that most current systems can no longer meet them.

Betrachtet man 2 als Beispiel mit der Annahme, dass ein LiDAR-Sensor Npix = 12000 Pixel besitzt, jeder Zählwert in NZ = 9 Bit gespeichert wird, und pro Sekunde NFPS = 25 Tiefbilder generiert werden, so beträgt die Gesamtdatenmenge mit einem Faktor von FS = 1,3 als angenommene Sicherheitsmarge: M H i s t = F S N F P S N p i x N B N Z 4,18   G b i t / s

Figure DE102023207294A1_0001
If you look at 2 As an example, assuming that a LiDAR sensor has N pix = 12000 pixels, each count is stored in N Z = 9 bits, and N FPS = 25 deep images are generated per second, the total amount of data with a factor of F S = 1.3 as an assumed safety margin is: M H i s t = F S N F P S N p i x N B N Z 4,18   G b i t / s
Figure DE102023207294A1_0001

Da die Anzahl der Pixel, die Auflösung und die Reichweite künftiger LiDAR Systeme noch zunehmen werden, wird dieses Problem noch gravierender.As the number of pixels, resolution and range of future LiDAR systems increase, this problem will become even more serious.

Die von einem LiDAR-System generierten großen Datenmengen können damit auf einem eingebetteten System nicht gespeichert und auch nicht in Echtzeit übertragen werden.The large amounts of data generated by a LiDAR system cannot be stored on an embedded system or transmitted in real time.

Bisher wird dieses Problem hauptsächlich auf drei Arten gelöst:So far, this problem has been solved mainly in three ways:

Eine Möglichkeit, das Problem zu adressieren, liegt in der Erstellung von Teilhistogrammen: Bei diesem Ansatz wird der Abstand durch die Erstellung von Teilhistogrammen mit unterschiedlichen Auflösungen in mehreren Messschritten ermittelt.One way to address the problem is to create partial histograms: In this approach, the distance is determined by creating partial histograms with different resolutions in several measurement steps.

Eine Variante der Vorrichtung und Verfahrens der Erstellung von Teilhistogrammen wird in [1] vorgestellt. Diese Variante umfasst mehrere Messstufen. Die Messungen in der ersten Stufe beginnen mit einer geringen Distanzauflösung und der vollen Reichweite. Anschließend wird entsprechend dem Ergebnis der letzten Stufe eine Teilreichweite ausgewählt und die Bereichsauflösung wird erhöht. Nach mehreren Wiederholungsrunden erreicht das Verfahren schließlich die maximale Auflösung nur in einem kleinen Teilbereich. Der Ansatz kann die zu speichernde Datenmenge im Vergleich zur Speicherung des vollständigen Histogramms mit voller Auflösung verringern.A variant of the device and method for creating partial histograms is presented in [1]. This variant includes several measurement stages. The measurements in the first stage start with a low distance resolution and the full range. Then, according to the result of the last stage, a partial range is selected and the range resolution is increased. After several iterations, the method finally reaches the maximum resolution only in a small sub-range. The approach can reduce the amount of data to be stored compared to storing the complete histogram with full resolution.

Eine weitere Variante der Erstellung von Teilhistogrammen wird in [2] als eine Vorrichtung vorgestellt. Die Vorrichtung enthält einen Fenster-Manager und einen Controller, die für das Time-Gating der SPADs und die Erzeugung von Teilhistogrammen zuständig ist. Der Prozess kann in zwei Schritte unterteilt werden: In einer Groberfassungsphase tastet der Controller zunächst das Time-Gating-Intervall (Gating: deutsch: Gatter) über den Erfassungszeitraum ab und sammelt die Informationen aus verschiedenen Gating-Intervallen. Mit diesen Informationen wird der Abstand mit grober Auflösung und das optimale Erfassungsfenster ermittelt. In der Feinerfassungsphase detektiert der Sensor dann nur das Signal innerhalb des vorgegebenen Zeitfensters mit hoher Auflösung und der Feinabstand wird entsprechend bestimmt. Im Vergleich zur ersten Variante, die im ersten Schritt die gesamte Reichweite misst, erfasst diese Variante in beiden Schritten nur die Teilreichweite. Somit könnte die Variante eine bessere Rauschtoleranz aufweisen, da sie die Distanzauflösung nicht wesentlich reduzieren muss, um eine vielversprechende Datenreduktionsrate zu erreichen. Ein Nachteil ist darin zu sehen, dass die Steuerung des Time-Gating-Schemas komplex ist. Darüber hinaus ist die Framerate niedrig, da auch hier mehrere Zyklen zur Bestimmung einer Distanz erforderlich sind.Another variant of generating partial histograms is presented in [2] as a device. The device contains a window manager and a controller that is responsible for time gating the SPADs and generating partial histograms. The process can be divided into two steps: In a coarse detection phase, the controller first samples the time gating interval (gating) over the detection period and collects the information from different gating intervals. With this information, the distance with coarse resolution and the optimal detection window are determined. In the fine detection phase, the sensor then only detects the signal within the specified time window with high resolution and the fine distance is determined accordingly. Compared to the first variant, which measures the entire range in the first step, this variant only measures the partial range in both steps. Thus, the variant could have better noise tolerance, since it does not have to significantly reduce the distance resolution to achieve a promising data reduction rate. A disadvantage is that the control of the time gating scheme is complex. In addition, the frame rate is low because several cycles are required to determine a distance.

Eine weitere Möglichkeit, das obige Problem zu adressieren, sind Compressive single-photon histograms (CSPH; deutsch: komprimierte Einzelphoton-Histogramme). Bei diesem Konzept werden die Zeitstempel mithilfe einer Kodierungsmatrix in eine kodierte Datenform in drei Schritten umgewandelt:Another way to address the above problem is compressive single-photon histograms (CSPH). In this concept, the timestamps are converted into an encoded data form using an encoding matrix in three steps:

In einem ersten Schritt wird eine Umwandlung des Zeitstempels TTS in einen One-Hot-Key A durchgeführt: A = { A 1 , A i , A N }   m i t   N = T R e s ,

Figure DE102023207294A1_0002
wobei T die Reichweite bezeichnet und Res die Auflösung von TDCs bezeichnet. Das Element Ai ist berechnet durch A i = { 1, i = T T S R e s 0, s o n s t ,
Figure DE102023207294A1_0003
In a first step, the timestamp T TS is converted into a one-hot key A: A = { A 1 , A i , A N }   m i t   N = T R e s ,
Figure DE102023207294A1_0002
where T is the range and Res is the resolution of TDCs. The element A i is calculated by A i = { 1, i = T T S R e s 0, s o n s t ,
Figure DE102023207294A1_0003

In einem Schritt wird die Kodierung durch: B = C × A

Figure DE102023207294A1_0004
durchgeführt, wobei B eine kodierte Darstellung eines Zeitstempels bezeichnet und C eine M × N Kodierungsmatrix bezeichnet.In one step, the coding is done by: B = C × A
Figure DE102023207294A1_0004
where B denotes an encoded representation of a timestamp and C denotes an M × N encoding matrix.

In einem dritten Schritt erfolgt eine Akkumulation durch: B ^ = j = 0 N r B j ,

Figure DE102023207294A1_0005
wobei NT die Anzahl der Zeitstempel bezeichnet. Die Standard-Histogrammisierung kann als ein spezielles CSPH betrachtet werden, wobei C eine N × N Einheitsmatrix ist. Eine vielversprechende Kodierungsmatrix muss mit einem kleinen M eine gute Rauschtoleranz haben und die gewünschte Abstandsinformation beibehalten. Ein Konstruktionsbeispiel mit einer auf Gray-Coding (deutsch: Gray-Kodierung) basierenden Kodierungsmatrix wird in [3] vorgestellt.In a third step, accumulation occurs through: B ^ = j = 0 N r B j ,
Figure DE102023207294A1_0005
where N T is the number of timestamps. The standard histogramization can be considered as a special CSPH, where C is an N × N identity matrix. A promising coding matrix must have a good noise tolerance with a small M and preserve the desired distance information. A design example with a coding matrix based on Gray coding is presented in [3].

Schließlich liegt eine weitere Variante, das obige Problem zu adressieren, in der Speicherung von Teilpixeln: Bei diesem Konzept werden die Daten reduziert, indem die Anzahl der Pixel pro Bild verringert wird.Finally, another way to address the above problem is to store subpixels: This concept reduces data by reducing the number of pixels per image.

Bei der Bildung von Makro-Pixeln werden die Informationen der benachbarten Pixel kombiniert und nur ein Abstandswert wird ausgegeben. In diesem Fall ist die Datenreduktionsrate umgekehrt proportional zur räumlichen Auflösung des LiDAR-Systems, und es liegt nur eine geringe räumliche Auflösung vor.When forming macro pixels, the information of the neighboring pixels is combined and only one distance value is output. In this case, the data reduction rate is inversely proportional to the spatial resolution of the LiDAR system, and there is only a low spatial resolution.

Bei dem Teil-field-of-view (FOV; deutsch: Sichtfeld) erfasst das System in jedem Frame nur einen Teil des FOVs, wobei jedoch in einer dynamischen Messumgebung dieser Ansatz große Asynchronität verursachen kann.With partial field-of-view (FOV), the system captures only a portion of the FOV in each frame, but in a dynamic measurement environment this approach can cause large asynchrony.

In [4], DE 10 2020 203 796 A1 , „Verfahren und Vorrichtung zum Bestimmen einer Messinformation und LiDAR-Gerät“ wird ein Verfahren zum Bestimmen einer Messinformation basierend auf einer Vielzahl von Messwerten aus einem Messwertbereich bereitgestellt. Die Methode reduziert die Datenmenge, die für die Abstandsbestimmung verwendet wird, durch Merkmalsextraktion. Allerdings handelt es sich dabei um ein Verfahren zur Verarbeitung von Balkendiagrammen, was bedeutet, dass das verwendete System immer noch über den nötigen Speicherplatz für das vollständige Balkendiagramm verfügen muss.In [4], DE 10 2020 203 796 A1 , "Method and apparatus for determining measurement information and LiDAR device" provides a method for determining measurement information based on a plurality of measurement values from a measurement value range. The method reduces the amount of data used for distance determination by feature extraction. However, this is a bar chart processing method, which means that the system used must still have the necessary storage space for the complete bar chart.

Eine Vorrichtung zur Distanzbestimmung gemäß einer Ausführungsform wird bereitgestellt. Die Vorrichtung umfasst eine Empfangsschnittstelle zum Empfangen einer Mehrzahl von Zeitstempeln einer LiDAR Detektion. Ferner umfasst die Vorrichtung eine Verarbeitungseinheit zur Durchführung von ein oder mehreren Verarbeitungsoperationen. Die Verarbeitungseinheit ist ausgebildet, abhängig von den ein oder mehreren Verarbeitungsoperationen eine Distanz zu bestimmen. Die Verarbeitungseinheit ist ausgebildet, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die Mehrzahl von Zeitstempeln derart zu gruppieren, dass zwei oder mehr Zeitstempel der Mehrzahl von Zeitstempeln aggregiert werden; und/oder die Verarbeitungseinheit ist ausgebildet, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen ein oder mehrere Zusatzdaten mehr als einem Zeitstempel der Mehrzahl von Zeitstempeln zuzuordnen.A device for determining distance according to one embodiment is provided. The device comprises a receiving interface for receiving a plurality of timestamps of a LiDAR detection. The device further comprises a processing unit for carrying out one or more processing operations. The processing unit is designed to determine a distance depending on the one or more processing operations. When carrying out the one or more processing operations, the processing unit is designed to group the plurality of timestamps such that two or more timestamps of the plurality of timestamps are aggregated; and/or the processing unit is designed to assign one or more additional data to more than one timestamp of the plurality of timestamps when carrying out the one or more processing operations.

Des Weiteren wird ein Verfahren zur Distanzbestimmung gemäß einer Ausführungsform bereitgestellt. Das Verfahren umfasst:

  • - Empfangen einer Mehrzahl von Zeitstempeln einer LiDAR Detektion,
  • - Durchführung von ein oder mehrerer Verarbeitungsoperationen durch eine Verarbeitungseinheit. Und:
  • - Bestimmen einer Distanz abhängig von den ein oder mehreren Verarbeitungsoperationen durch die Verarbeitungseinheit.
Furthermore, a method for determining distance according to an embodiment is provided. The method comprises:
  • - Receiving a plurality of timestamps of a LiDAR detection,
  • - Execution of one or more processing operations by a processing unit. And:
  • - Determining a distance depending on the one or more processing operations by the processing unit.

Die Verarbeitungseinheit gruppiert bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die Mehrzahl von Zeitstempeln derart, dass zwei oder mehr Zeitstempel der Mehrzahl von Zeitstempeln aggregiert werden. Und/oder die Verarbeitungseinheit ordnet bei der Durchführung der ein oder mehreren Verarbeitungsoperationen ein oder mehrere Zusatzdaten mehr als einem Zeitstempel der Mehrzahl von Zeitstempeln zu.When performing the one or more processing operations, the processing unit groups the plurality of timestamps such that two or more timestamps of the plurality of timestamps are aggregated. And/or when performing the one or more processing operations, the processing unit assigns one or more additional data to more than one timestamp of the plurality of timestamps.

Des Weiteren wird ein Computerprogramm gemäß einer Ausführungsform mit einem Programmcode zur Durchführung des oben beschriebenen Verfahrens bereitgestellt.Furthermore, a computer program according to an embodiment is provided with a program code for carrying out the method described above.

Nachfolgend werden bevorzugte Ausführungsformen der Erfindung unter Bezugnahme auf die Zeichnungen beschrieben.Preferred embodiments of the invention are described below with reference to the drawings.

In den Zeichnungen ist dargestellt:

  • 1 zeigt eine Vorrichtung zur Distanzbestimmung gemäß einer Ausführungsform.
  • 2 zeigt ein Beispiel für ein zeitkorreliertes Histogramm eines LIDAR Systems.
  • 3 zeigt Ausführungsvarianten der LiDAR Datenverarbeitung gemäß bestimmter Ausführungsbeispiele.
  • 4 zeigt eine Sortierung von Zeitstempeln in aufsteigender Reihenfolge und eine Erweiterung um Zusatzwissen gemäß einem Ausführungsbeispiel.
  • 5 zeigt einen Prozess der Erstellung neuer Merkmale bei der ersten Stufe der Selbstgruppierung gemäß einer Ausführungsform.
  • 6 zeigt ein Verfahren der Aktualisierung einer bestehenden Merkmalsgruppe bei der ersten Stufe der Selbstgruppierung gemäß einer Ausführungsform.
  • 7 zeigt ein Verfahren der Erstellung weiterer Merkmale bei der ersten Stufe der Selbstgruppierung gemäß einer Ausführungsform.
  • 8 zeigt das Verfahren der Anwendung einer weiteren Aktualisierungsregel bei der ersten Stufe der Selbstgruppierung gemäß Ausführungsformen.
  • 9 zeigt einen Prozess der zweiten Stufe der Selbstgruppierung gemäß einer Ausführungsform.
  • 10 zeigt einen Aufbau und das Training eines stacked-FNN gemäß einer Ausführungsform.
The drawings show:
  • 1 shows a device for determining distance according to an embodiment.
  • 2 shows an example of a time-correlated histogram of a LIDAR system.
  • 3 shows variants of LiDAR data processing according to certain embodiments.
  • 4 shows a sorting of timestamps in ascending order and an extension with additional knowledge according to an embodiment.
  • 5 shows a process of creating new features at the first stage of self-grouping according to one embodiment.
  • 6 shows a method of updating an existing feature group at the first stage of self-grouping according to one embodiment.
  • 7 shows a method of creating additional features in the first stage of self-grouping according to one embodiment.
  • 8 shows the method of applying another update rule to the first stage of self-grouping according to embodiments.
  • 9 shows a second stage self-grouping process according to one embodiment.
  • 10 shows a structure and training of a stacked FNN according to an embodiment.

1 zeigt eine erfindungsgemäße Vorrichtung, die zur Distanzbestimmung gemäß einer Ausführungsform geeignet ist. 1 shows a device according to the invention which is suitable for distance determination according to an embodiment.

Die Vorrichtung umfasst eine Empfangsschnittstelle 110 zum Empfangen einer Mehrzahl von Zeitstempeln einer LiDAR Detektion.The device comprises a receiving interface 110 for receiving a plurality of timestamps of a LiDAR detection.

Ferner umfasst die Vorrichtung eine Verarbeitungseinheit 120 zur Durchführung von ein oder mehreren Verarbeitungsoperationen.Furthermore, the device comprises a processing unit 120 for performing one or more processing operations.

Die Verarbeitungseinheit 120 ist ausgebildet, abhängig von den ein oder mehreren Verarbeitungsoperationen eine Distanz zu bestimmen.The processing unit 120 is configured to determine a distance depending on the one or more processing operations.

Die Verarbeitungseinheit 120 ist ausgebildet, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die Mehrzahl von Zeitstempeln derart zu gruppieren, dass zwei oder mehr Zeitstempel der Mehrzahl von Zeitstempeln werden; und/oder die Verarbeitungseinheit 120 ist ausgebildet, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen ein oder mehrere Zusatzdaten mehr als einem Zeitstempel der Mehrzahl von Zeitstempeln zuzuordnen.The processing unit 120 is configured to group the plurality of timestamps such that two or more timestamps become the plurality of timestamps when performing the one or more processing operations; and/or the processing unit 120 is configured to assign one or more additional data to more than one timestamp of the plurality of timestamps when performing the one or more processing operations.

Die nachfolgenden Ausführungsformen betreffen Datenintegration gemäß besonderer Ausführungsformen:

  • Gemäß einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die Mehrzahl von Zeitstempeln umzusortieren, um eine Mehrzahl umsortierter Zeitstempel zu erhalten, und eine Datenstruktur zu erzeugen, in der die Mehrzahl umsortierter Zeitstempel in ihrer umsortierten Reihenfolge angeordnet sind. Dabei kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, die Distanz unter Verwendung der Datenstruktur zu bestimmen.
The following embodiments relate to data integration according to particular embodiments:
  • According to one embodiment, the processing unit 120 can be designed, for example, to reorder the plurality of timestamps when performing the one or more processing operations in order to obtain a plurality of reordered timestamps and to generate a data structure in which the plurality of reordered timestamps are arranged in their reordered order. In this case, the processing unit 120 can be designed, for example, to determine the distance using the data structure.

In einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die ein oder mehrere Zusatzdaten der Mehrzahl von Zeitstempeln zuzuordnen. Dabei kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, die Datenstruktur so zu erzeugen, dass die Datenstruktur die ein oder mehreren Zusatzdaten umfasst.In one embodiment, the processing unit 120 can be designed, for example, to assign the one or more additional data to the plurality of time stamps when carrying out the one or more processing operations. The processing unit 120 can be designed, for example, to generate the data structure such that the data structure includes the one or more additional data.

Gemäß einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, die Datenstruktur so zu erzeugen, dass die ein oder mehreren Zusatzdaten erst hinter der Mehrzahl aller umsortierter Zeitstempel in der Datenstruktur angeordnet sind, oder aber vor der Mehrzahl aller umsortierter Zeitstempel in der Datenstruktur angeordnet sind.According to one embodiment, the processing unit 120 can, for example, be designed to generate the data structure such that the one or more additional data are arranged only after the majority of all rearranged time stamps in the data structure, or are arranged before the majority of all rearranged time stamps in the data structure.

In einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, für die Distanzschätzung ein maschinelles Lernverfahren einzusetzen, und die Datenstruktur als Eingabe des maschinellen Lernverfahrens einzusetzen.In one embodiment, the processing unit 120 may, for example, be configured to use a machine learning method for the distance estimation and to use the data structure as input of the machine learning method.

Gemäß einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die ein oder mehreren Zusatzdaten der Mehrzahl von Zeitstempeln zuzuordnen, wobei die ein oder mehreren Zusatzdaten z.B. eine Hintergrundintensität und/oder eine Distanzbestimmung eines vorherigen Frames und/oder einen Temperaturwert und/oder Kalibrierungsdaten und/oder eine Photonenrate und/oder einen Abstand zu vorherigen Bildern und/oder ein oder mehrere Merkmale von Nachbarpixeln umfassen können.According to one embodiment, the processing unit 120 may, for example, be configured to assign the one or more additional data to the plurality of timestamps when performing the one or more processing operations, wherein the one or more additional data may, for example, comprise a background intensity and/or a distance determination of a previous frame and/or a temperature value and/or calibration data and/or a photon rate and/or a distance to previous images and/or one or more features of neighboring pixels.

Die nachfolgenden Ausführungsformen betreffen eine erste Stufe der Selbstgruppierung gemäß besonderer Ausführungsformen:

  • In einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die Mehrzahl von Zeitstempeln derart zu gruppieren,
    • - dass ein erster Zeitstempel der Mehrzahl von Zeitstempeln eine erste Merkmalsgruppe von ein oder mehreren Merkmalsgruppen bildet, und
    • - dass ein oder mehrere weitere Zeitstempel der Mehrzahl von Zeitstempeln entweder einer der ein oder mehreren Merkmalsgruppen zugeordnet werden oder eine weitere Merkmalsgruppe der ein oder mehreren Merkmalsgruppen bilden.
The following embodiments relate to a first stage of self-grouping according to particular embodiments:
  • In one embodiment, the processing unit 120 may be configured, for example, to group the plurality of timestamps when performing the one or more processing operations such that
    • - that a first time stamp of the plurality of time stamps forms a first feature group of one or more feature groups, and
    • - that one or more further time stamps of the plurality of time stamps are either assigned to one of the one or more feature groups or form a further feature group of the one or more feature groups.

Gemäß einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, für jede Merkmalsgruppe der ein oder mehreren Merkmalsgruppen einen Zählwert zu bestimmen, der davon abhängt, wie viele Zeitstempel der Mehrzahl von Zeitstempeln dieser Merkmalsgruppe zugewiesen wurden.According to one embodiment, the processing unit 120 may, for example, be configured to determine a count value for each feature group of the one or more feature groups, which count value depends on how many timestamps of the plurality of timestamps have been assigned to this feature group.

In einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, für jede Merkmalsgruppe der ein oder mehreren Merkmalsgruppen einen Zentralpunkt zu bestimmen, dessen Wert von denjenigen Zeitstempeln der Mehrzahl von Zeitstempeln abhängt, die dieser Merkmalsgruppe zugewiesen wurden, und/oder dessen Wert von abgeleiteten Werten abhängt, wobei jeder der abgeleiteten Werte von einem der Zeitstempel abhängt, die dieser Merkmalsgruppe zugewiesen wurden (z.B. kann ein Distanzwert für einen Zeitstempel von einem Zeitwert des Zeitstempels abhängen).In one embodiment, the processing unit 120 may, for example, be configured to determine for each feature group of the one or more feature groups a central point whose value depends on those timestamps of the plurality of timestamps assigned to this feature group and/or whose value depends on derived values, wherein each of the derived values depends on one of the timestamps assigned to this feature group (e.g., a distance value for a timestamp may depend on a time value of the timestamp).

Gemäß einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, für jede Merkmalsgruppe der ein oder mehreren Merkmalsgruppen den Zentralpunkt so zu bestimmen, dass sich der Zentralpunkt aus einer Kombination der Werte derjenigen Zeitstempel ergibt, die dieser Merkmalsgruppe zugeordnet sind, oder so zu bestimmen, dass sich der Zentralpunkt aus einer Kombination der abgeleiteten Werte derjenigen Zeitstempel ergibt, die dieser Merkmalsgruppe zugeordnet sind.According to one embodiment, the processing unit 120 can be designed, for example, to determine the central point for each feature group of the one or more feature groups such that the central point results from a combination of the values of those time stamps that are assigned to this feature group, or to determine it such that the central point results from a combination of the derived values of those time stamps that are assigned to this feature group.

In einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die Mehrzahl von Zeitstempeln derart zu gruppieren, dass die ein weiterer Zeitstempel der Mehrzahl von Zeitstempeln genau dann weitere Merkmalsgruppe der ein oder mehreren Merkmalsgruppen bilden, wenn ein Betrag einer Differenz des Werts des Zentralpunkts und eines Werts des einen weiteren Zeitstempels größer als ein Schwellwert ist, oder wenn ein Betrag einer Differenz des Werts des Zentralpunkts und eines abgeleiteten Werts des einen weiteren Zeitstempels größer als ein Schwellwert ist.In one embodiment, the processing unit 120 can be configured, for example, to group the plurality of timestamps when performing the one or more processing operations such that the one further timestamp of the plurality of timestamps forms a further feature group of the one or more feature groups if and only if an amount of a difference between the value of the central point and a value of the one further timestamp is greater than a threshold value, or if an amount of a difference between the value of the central point and a derived value of the one further timestamp is greater than a threshold value.

Gemäß einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, wenn eine Anzahl der ein oder mehreren Merkmalsgruppen eine vordefinierte Obergrenze erreicht, keine weiteren neuen Merkmalsgruppen mehr anzulegen.According to one embodiment, the processing unit 120 can be designed, for example, to no longer create any new feature groups when a number of the one or more feature groups reaches a predefined upper limit.

In einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, wenn eine Anzahl der ein oder mehreren Merkmalsgruppen eine vordefinierte Obergrenze erreicht, eine weniger signifikante Merkmalsgruppe der ein oder mehreren Merkmalsgruppen zu überschreiben.In one embodiment, the processing unit 120 may, for example, be configured to overwrite a less significant feature group of the one or more feature groups when a number of the one or more feature groups reaches a predefined upper limit.

Die nachfolgenden Ausführungsformen betreffen ein Clustering mit Makro-Bins gemäß besonderer Ausführungsformen:

  • Gemäß einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen jeden der Mehrzahl von Zeitstempeln genau einem Cluster von ein oder mehreren Clustern zuzuordnen.
The following embodiments relate to clustering with macro bins according to particular embodiments:
  • According to one embodiment, the processing unit 120 may, for example, be configured to assign each of the plurality of timestamps to exactly one cluster of one or more clusters when performing the one or more processing operations.

In einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, bei Zuweisung eines weiteren Zeitstempels zu einem Cluster der ein oder mehreren Cluster, dem bereits ein Zeitstempel zugewiesen wurde, einen Zählwert zu erhöhen, der diesem Cluster zugeordnet ist.In one embodiment, the processing unit 120 may, for example, be configured to increment a count value associated with a cluster when assigning another timestamp to a cluster of the one or more clusters to which a timestamp has already been assigned.

Gemäß einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, bei Zuweisung des eines weiteren Zeitstempels zu dem Cluster, dem bereits ein Zeitstempel zugewiesen wurde, außer der Erhöhung des Zählwerts dieses Clusters, keine sonstigen Werte oder Eigenschaften zu verändern, die diesem Cluster zugewiesen sind. According to one embodiment, the processing unit 120 may, for example, be configured, when assigning a further timestamp to the cluster to which a timestamp has already been assigned, to not change any other values or properties assigned to this cluster other than increasing the count value of this cluster.

Die nachfolgenden Ausführungsformen betreffen eine zweite Stufe der Selbstgruppierung gemäß besonderer Ausführungsformen:

  • In einer Ausführungsform kann z.B. die ein oder mehreren Merkmalsgruppen wenigstens zwei Merkmalsgruppen aufweisen. Dabei kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, die wenigstens zwei Merkmalsgruppen zu einer geringeren Anzahl Merkmalsgruppen abhängig von einer Eigenschaft der wenigstens zwei Merkmalsgruppen zusammenzufassen.
The following embodiments relate to a second stage of self-grouping according to particular embodiments:
  • In one embodiment, the one or more feature groups may comprise at least two feature groups. The processing unit 120 may be designed to, for example, to combine two feature groups into a smaller number of feature groups depending on a property of at least two feature groups.

Gemäß einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, die wenigstens zwei Merkmalsgruppen zu der geringeren Anzahl Merkmalsgruppen abhängig von Differenzen zwischen den Zentralpunkten der wenigstens zwei Merkmalsgruppen zusammenzufassen.According to one embodiment, the processing unit 120 can, for example, be designed to combine the at least two feature groups into the smaller number of feature groups depending on differences between the center points of the at least two feature groups.

In einer Ausführungsform kann die ein oder mehreren Cluster wenigstens zwei Cluster aufweisen. Dabei kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, die wenigstens zwei Cluster zu einer geringeren Anzahl Cluster abhängig von einer Eigenschaft der wenigstens zwei Cluster zusammenzufassen.In one embodiment, the one or more clusters can have at least two clusters. The processing unit 120 can, for example, be designed to combine the at least two clusters into a smaller number of clusters depending on a property of the at least two clusters.

Die nachfolgenden Ausführungsformen betreffen die Distanzbestimmung gemäß besonderer Ausführungsformen:

  • Gemäß einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, abhängig von den ein oder mehreren Verarbeitungsoperationen unter Einsatz eines maschinellen Lernverfahrens die Distanz zu bestimmen.
The following embodiments concern the distance determination according to special embodiments:
  • According to one embodiment, the processing unit 120 may, for example, be configured to determine the distance depending on the one or more processing operations using a machine learning method.

In einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, als maschinelles Lernverfahren ein neuronales Netz einzusetzen.In one embodiment, the processing unit 120 may, for example, be configured to use a neural network as a machine learning method.

Gemäß einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, das neuronale Netz als Regressor zu verwenden.According to one embodiment, the processing unit 120 may, for example, be configured to use the neural network as a regressor.

In einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, das neuronale Netz als Klassifikator zu verwenden.In one embodiment, the processing unit 120 may, for example, be configured to use the neural network as a classifier.

Gemäß einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, die Datenstruktur als die Eingabe des maschinellen Lernverfahrens zu verwenden.According to one embodiment, the processing unit 120 may, for example, be configured to use the data structure as the input of the machine learning method.

In einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, Informationen über die ein oder mehreren Merkmalsgruppen als Eingabe des maschinellen Lernverfahrens zu verwenden; oder die Verarbeitungseinheit 120 kann z.B. ausgebildet sein, Informationen über die ein oder mehreren Cluster als Eingabe des maschinellen Lernverfahrens zu verwenden.In one embodiment, the processing unit 120 may, for example, be configured to use information about the one or more feature groups as input to the machine learning method; or the processing unit 120 may, for example, be configured to use information about the one or more clusters as input to the machine learning method.

Gemäß einer Ausführungsform kann die Verarbeitungseinheit 120 z.B. ausgebildet sein, abhängig von den ein oder mehreren Verarbeitungsoperationen ohne Einsatz eines maschinellen Lernverfahrens die Distanz zu bestimmen.According to one embodiment, the processing unit 120 may, for example, be configured to determine the distance depending on the one or more processing operations without using a machine learning method.

Nachfolgend werden spezielle Ausführungsbeispiele der Erfindung beschrieben.Specific embodiments of the invention are described below.

Die Verarbeitung von SPAD-basierten LiDAR-Daten umfasst in der Regel drei Datenformen: Zeitstempel, Histogramme und Punktwolken. Histogramm-Daten benötigen dabei eine große Menge an Speicherplatz, was bei eingebetteten Systemen eine große Herausforderung darstellt. Um dieses Problem zu lösen, wird in Ausführungsformen eine neue Art der Bearbeitung von Zeitstempeln ohne die Berücksichtigung der Histogramme bereitgestellt. Die Datenverarbeitung kann dabei in bestimmten Ausführungsformen in die Bereiche „Konvertierung der Zeitstempel“ und „Distanzbestimmung“ unterteilt werden.The processing of SPAD-based LiDAR data typically involves three forms of data: timestamps, histograms and point clouds. Histogram data requires a large amount of storage space, which is a major challenge in embedded systems. To solve this problem, embodiments provide a new way of processing timestamps without taking histograms into account. In certain embodiments, the data processing can be divided into the areas of "conversion of timestamps" and "distance determination".

3 stellt dabei fünf Ausführungsvarianten der LiDAR Datenverarbeitung dar. Andere Ausführungsvarianten sind möglich. 3 represents five variants of LiDAR data processing. Other variants are possible.

Bei Ausführungsvariante 1 erfolgt die Konvertierung der Zeitstempel mittels Datenintegration, und die Distanzbestimmung erfolgt mittels KI-Regressor.In variant 1, the timestamps are converted using data integration and the distance is determined using an AI regressor.

Bei Ausführungsvariante 2 erfolgt die Konvertierung der Zeitstempel mittels einer ersten Stufe Selbstgruppierung, und die Distanzbestimmung erfolgt mittels digitaler Verarbeitung oder mittels KI-Regressor oder mittels Kl-Klassifikator.In variant 2, the conversion of the timestamps is carried out by means of a first stage of self-grouping, and the distance determination is carried out by means of digital processing or by means of an AI regressor or by means of an AI classifier.

Bei Ausführungsvariante 3 erfolgt die Konvertierung der Zeitstempel mittels einer ersten Stufe der Selbstgruppierung und einer zweiten Stufe der Selbstgruppierung, und die Distanzbestimmung erfolgt mittels digitaler Verarbeitung oder mittels KI-Regressor oder mittels Kl-Klassifikator.In variant 3, the conversion of the timestamps is carried out by means of a first stage of self-grouping and a second stage of self-grouping, and the distance determination is carried out by means of digital processing or by means of an AI regressor or by means of an AI classifier.

Bei Ausführungsvariante 4 erfolgt die Konvertierung der Zeitstempel mittels eines Clusterings (deutsch: Gruppierung) mit Makro-Bins, und die Distanzbestimmung erfolgt mittels digitaler Verarbeitung oder mittels KI-Regressor oder mittels Kl-Klassifikator.In variant 4, the conversion of the timestamps is carried out by means of clustering with macro bins, and the distance determination is carried out by means of digital processing or by means of an AI regressor or by means of an AI classifier.

Bei Ausführungsvariante 5 erfolgt die Konvertierung der Zeitstempel mittels eines Clusterings mit Makro-Bins und dann mittels einer zweiten Stufe der Selbstgruppierung, und die Distanzbestimmung erfolgt mittels digitaler Verarbeitung oder mittels KI-Regressor oder mittels Kl-Klassifikator.In variant 5, the conversion of the timestamps is carried out by means of clustering with macro bins and then by means of a second stage of self-grouping, and the distance determination is carried out by means of digital processing or by means of an AI regressor or by means of an AI classifier.

Im Folgenden wird die Konvertierung von Zeitstempeln gemäß spezieller Ausführungsbeispiele beschrieben.The conversion of timestamps according to specific embodiments is described below.

Ziel der Konvertierung von Zeitstempeln ist die Erstellung eines effizienten Datenformats anstelle des Histogramms. Das Datenformat soll alle wichtigen Informationen der Originaldaten so weit wie möglich beibehalten. Außerdem sollte der Konvertierungsprozess angesichts der begrenzten Ressourcen von eingebetteten Systemen effizient sein. Nachfolgend werden die vier Blöcke (Datenintegration, 1. / 2. Stufe der Selbstgruppierung und Clustering mit Makro-Bins) im Detail vorgestellt. Beispiele für mögliche Kombinationen dieser vier Blöcke im Rahmen der Ausführungsvarianten sind der 3 zu entnehmen und oben bereits beschrieben. Weitere Ausführungsvarianten sind möglich.The aim of converting timestamps is to create an efficient data format instead of the histogram. The data format should retain all important information of the original data as far as possible. In addition, the conversion process should be efficient given the limited resources of embedded systems. The four blocks (data integration, 1st / 2nd level of self-grouping and clustering with macro bins) are presented in detail below. Examples of possible combinations of these four blocks within the scope of the implementation variants are the 3 and already described above. Other design variants are possible.

Zunächst wird Datenintegration gemäß einer speziellen Ausführungsform beschrieben.First, data integration according to a specific embodiment is described.

Zunächst erfolgt bei der Datenintegration mancher Ausführungsformen eine Sortierung. Die Zeitstempel sind in zufälliger Reihenfolge angeordnet. Dieser Zufallsfaktor behindert die spätere Abstandsvorhersage. Eine Sortierung wird auf die Zeitstempel angewendet. Die Sortierung kann beispielsweise entweder aufsteigend oder beispielsweise absteigend erfolgen.First, in some embodiments, data integration is carried out by sorting. The time stamps are arranged in a random order. This random factor hinders the subsequent distance prediction. A sorting is applied to the time stamps. The sorting can be either ascending or descending, for example.

Dann erfolgt bei der Datenintegration bestimmter Ausführungsformen eine Erweiterung mit Zusatzwissen. Bei LiDAR-Messungen gibt es außer den Zeitstempeln zusätzliche Informationen, die für die Distanzbestimmung von Vorteil sein könnten:

  • Zu diesen zusätzlichen Information zählen beispielsweise ein oder mehrere der folgenden Informationen:
    • - Hintergrundintensität: Sie wird durch die Photonenrate dargestellt, die neben den Messungen der Zeitstempel aufgezeichnet wird. Dieser Wert ist positiv mit der Wahrscheinlichkeit einer falschen Zeitstempelgenerierung korreliert. In bestimmten Ausführungsformen wird der Wert daher beispielsweise normalisiert als zusätzlicher Parameter verwendet.
    • - Temporäre Informationen: Da die Zeit zwischen zwei Frames der LiDAR-Aufnahme sehr kurz ist (< 0,04s) wird davon ausgegangen, dass ein entdecktes Objekt seine Position allmählich ändert und nicht plötzlich in eine andere zufällige Entfernung springt. Daher wird in bestimmten Ausführungsformen beispielsweise die Distanzbestimmung des vorherigen Frames als weiterer zusätzlicher Parameter verwendet. Und/oder, es werden Merkmale von Nachbarpixeln als zusätzliche Informationen verwendet.
    • - In bestimmten Ausführungsformen werden beispielsweise weitere/andere Informationen wie Temperaturwerte und Kalibrierungsdaten (ebenfalls) berücksichtigt.
Then, when integrating data in certain embodiments, additional knowledge is added. In LiDAR measurements, there is additional information in addition to the time stamps that could be beneficial for determining distances:
  • This additional information includes, for example, one or more of the following information:
    • - Background intensity: It is represented by the photon rate recorded alongside the timestamp measurements. This value is positively correlated with the probability of false timestamp generation. In certain embodiments, the value is therefore used, for example, normalized as an additional parameter.
    • - Temporary information: Since the time between two frames of the LiDAR recording is very short (< 0.04s), it is assumed that a discovered object changes its position gradually and does not suddenly jump to another random distance. Therefore, in certain embodiments, for example, the distance determination of the previous frame is used as another additional parameter. And/or, features of neighboring pixels are used as additional information.
    • - In certain embodiments, for example, additional/other information such as temperature values and calibration data are (also) taken into account.

Die endgültige Datenform nach der Zusammenstellung der Daten gemäß einer bestimmten Ausführungsform ist in 4 dargestellt.The final data form after the data has been compiled according to a particular embodiment is 4 shown.

So zeigt 4 eine Sortierung von Zeitstempeln in aufsteigender Reihenfolge und eine Erweiterung um Zusatzwissen gemäß einem Ausführungsbeispiel. Speziell zeigt 4 als die neue Konstruktion sieben Zeitstempel, einen Wert für die Hintergrund Photonenrate und einen Abstand zu vorherigen Bildern in Nanosekunden.This shows 4 a sorting of timestamps in ascending order and an extension with additional knowledge according to an embodiment. In particular, 4 The new design includes seven timestamps, a value for the background photon rate, and a distance to previous images in nanoseconds.

Die in 4 gezeigte Form F kann in einer Ausführungsform beispielsweise als Eingabe für ein maschinelles Lernverfahren (z. B. ein neuronales Netz) verwendet werden.The in 4 The shape F shown can, in one embodiment, be used, for example, as input to a machine learning method (e.g., a neural network).

Mit der Definition, dass ND die erforderliche Anzahl von Bit für jedes Element in F ist, ergibt sich die Gesamtdatenmenge MIntegration aus M I n t e g r a t i o n = F S N F P S N p i x ( N T + N l ) N D ,

Figure DE102023207294A1_0006
wobei NI die Anzahl der Zusatzwissen(-Elemente) bezeichnet.With the definition that N D is the required number of bits for each element in F, the total data set M integration results from M I n t e g r a t i o n = F S N F P S N p i x ( N T + N l ) N D ,
Figure DE102023207294A1_0006
where N I denotes the number of additional knowledge (elements).

Es sind:

  • NT = Anzahl der Zeitstempel
  • Npix = Pixel des LiDAR Sensors
  • NZ = Anzahl Bits, in denen ein Zählwert gespeichert wird
  • NFPS = Anzahl der Tiefbilder pro Sekunde.
There are:
  • N T = number of timestamps
  • N pix = pixels of the LiDAR sensor
  • N Z = Number of bits in which a count value is stored
  • N FPS = number of deep frames per second.

Die Datenreduktionsrate RIntegration-Hist ist dann gegeben durch R H i s t I n t e g r a t i o n = N B N Z ( N T + N I ) N D .

Figure DE102023207294A1_0007
The data reduction rate R Integration-Hist is then given by R H i s t I n t e g r a t i o n = N B N Z ( N T + N I ) N D .
Figure DE102023207294A1_0007

Da ND und NZ in der Regel bei den meisten LiDAR-Systemen nicht verändert werden können, ist RHist-Integration umgekehrt proportional zu (NT + NI).Since N D and N Z typically cannot be changed in most LiDAR systems, R Hist integration is inversely proportional to (N T + N I ).

Aus diesem Grund eignet sich die Datenintegration besonders für die Systeme die ein kleines NT besitzen, wie zum Beispiel Scanning-LiDAR-Systeme.For this reason, data integration is particularly suitable for systems that have a small N T , such as scanning LiDAR systems.

Als nächstes wird die erste Stufe der Selbstgruppierung gemäß besonderer Ausführungsformen beschrieben.Next, the first stage of self-grouping according to particular embodiments is described.

Dabei berechnet beispielsweise ein Algorithmus der „Selbstgruppierung“ wichtige Merkmale bzw. aktualisiert diese, wenn ein neuer Zeitstempel kommt.For example, a “self-grouping” algorithm calculates important features or updates them when a new timestamp arrives.

Beispielsweise kann bei der Erstellung neuer Merkmale das Ergebnis der Selbstgruppierung eine Liste von Merkmalsgruppen sein. Jede Merkmalsgruppe bezieht sich auf ein Datenpaar, das einen Zentralpunkt (Distanzwert) und einen entsprechenden Zählwert umfasst. In der Initialisierungsphase kann, z.B. die maximale Anzahl der Merkmalsgruppen M festgelegt werden und somit auch z.B. der erforderliche Speicherplatz definiert werden. Wenn die Liste leer ist, wird ein generierter Zeitstempel aus Laseremission und Echodetektion direkt als zentraler Punkt mit Zählwert 1 in die Liste eingetragen. Das Verfahren ist in 5 dargestellt.For example, when creating new features, the result of self-grouping can be a list of feature groups. Each feature group refers to a data pair that includes a central point (distance value) and a corresponding count value. In the initialization phase, the maximum number of feature groups M can be specified, for example, and thus the required storage space can also be defined. If the list is empty, a generated timestamp from laser emission and echo detection is entered directly into the list as a central point with a count value of 1. The procedure is described in 5 shown.

So zeigt 5 ein Verfahren der Erstellung neuer Merkmale bei der ersten Stufe der Selbstgruppierung gemäß einer Ausführungsform.This shows 5 a method of creating new features at the first stage of self-grouping according to an embodiment.

So wird in 5 beispielsweise ein erster Zeitstempel empfangen, der einem (z.B. Abstands-) Wert von 5,00 m entspricht. Es wird eine neue, erste Merkmalsgruppe mit dem Zentralpunkt 5,00 m und dem Zählwert 1 angelegt.This is how 5 For example, a first time stamp is received that corresponds to a (e.g. distance) value of 5.00 m. A new, first feature group is created with the central point 5.00 m and the count value 1.

Bei der Aktualisierung der Merkmale wird beispielsweise, wenn es mindestens eine Merkmalsgruppe in der Liste gibt, ein neu generierter Zeitstempel zunächst mit den in der Liste enthaltenen Zentralpunkte verglichen. Wenn die Differenz zwischen dem Zeitstempel und einem der Zentralpunkte kleiner als ein bestimmtes Intervall dE ist, wird die diesem Zentralpunkt entsprechende Merkmalsgruppe aktualisiert. Die Aktualisierungsregel kann beispielsweise wie folgt aufgebaut sein:

  1. 1. Der neue Zentralpunkt wird durch D = f 1 ( D , Z , T T S )
    Figure DE102023207294A1_0008
    berechnet, wobei D' den neuen Zentralpunkt angibt, D den alten Zentralpunkt angibt, TTS die eingehenden Zeitstempel angibt und Z den Zählwert angibt. Ein Beispiel für f1 könnte ein gewichteter Durchschnitt sein wie f 1 ( D , Z , T S ) = D Z + T T S Z + 1 .
    Figure DE102023207294A1_0009
  2. 2. Der entsprechende Zählwert Z' wird aktualisiert durch Z = f 2 ( D , Z , T T S ) .
    Figure DE102023207294A1_0010
    Ein einfaches Beispiel für f2 ist: f 2 ( Z ) = Z + 1.
    Figure DE102023207294A1_0011
    Das Verfahren ist in 6 dargestellt.
When updating the features, for example, if there is at least one feature group in the list, a newly generated timestamp is first compared with the central points contained in the list. If the difference between the timestamp and one of the central points is smaller than a certain interval d E , the feature group corresponding to this central point is updated. The update rule can, for example, be structured as follows:
  1. 1. The new central point is D = f 1 ( D , Z , T T S )
    Figure DE102023207294A1_0008
    where D' indicates the new center point, D indicates the old center point, T TS indicates the incoming timestamps and Z indicates the count value. An example of f 1 could be a weighted average like f 1 ( D , Z , T S ) = D Z + T T S Z + 1 .
    Figure DE102023207294A1_0009
  2. 2. The corresponding count value Z' is updated by Z = f 2 ( D , Z , T T S ) .
    Figure DE102023207294A1_0010
    A simple example for f 2 is: f 2 ( Z ) = Z + 1.
    Figure DE102023207294A1_0011
    The procedure is in 6 shown.

So zeigt 6 ein Verfahren der Aktualisierung einer bestehenden Merkmalsgruppe bei der ersten Stufe der Selbstgruppierung gemäß einer Ausführungsform. So existiert eine Merkmalsgruppe mit einem Zentralpunkt 5,00 m und einem Zählwert 1. Ein neuer Zeitstempel wird empfangen, der einem (z.B. Abstands-) Wert von 5,05 m entspricht. Der Wert dieses weiteren Zeitstempels liegt hinreichend nahe an dem bisherigen Zentralpunkt 5,00 m, für der den Zählerwert 1 aufweist. Damit wird ein neuer Zentralpunkt: 5,025 m = 1 * 5,00 m + 1 * 5,05 m gebildet, der den neuen Zählerwert 2 aufweist. Das Verfahren wird entsprechend für weitere Zeitstempel fortgesetzt.This shows 6 a method of updating an existing feature group in the first stage of self-grouping according to one embodiment. Thus, a feature group exists with a central point of 5.00 m and a count value of 1. A new time stamp is received which corresponds to a (e.g. distance) value of 5.05 m. The value of this further time stamp is sufficiently close to the previous central point of 5.00 m, for which the count value is 1. This forms a new central point: 5.025 m = 1 * 5.00 m + 1 * 5.05 m, which has the new count value of 2. The method is continued accordingly for further time stamps.

Bei der ersten Stufe der Selbstgruppierung kann es auch zur Erstellung weiterer Merkmale kommen. Wenn z.B. die Differenz zwischen dem Zeitstempel und alle Zentralpunkte in der Liste größer als ein bestimmtes Intervall dE ist, kann z.B. eine neue Merkmalsgruppe hinzugefügt werden.The first stage of self-grouping can also result in the creation of additional features. For example, if the difference between the timestamp and all the center points in the list is greater than a certain interval d E , a new feature group can be added.

So können D und Z z.B. nach dem in 7 dargestellten Verfahren bestimmt werden, wobei 7 den Prozess der Erstellung weiterer Merkmale bei der ersten Stufe der Selbstgruppierung gemäß einer Ausführungsform zeigt.For example, D and Z can be written according to the 7 described method, whereby 7 shows the process of creating additional features in the first stage of self-grouping according to one embodiment.

So ist in 7 das Eintreffen eines neuen Zeitstempels gezeigt, der 3,02 m entspricht. Der bisherige Zentralpunkt weist einen Wert von 5,025 m auf. Da 3,02 m außerhalb des Intervals dE um den bisherigen Zentralpunkt liegt, wird ein neues Merkmal mit dem Zentralpunkt 3,02 m und dem Zählwert 1 angelegt.So in 7 the arrival of a new time stamp is shown, which corresponds to 3.02 m. The previous central point has a value of 5.025 m. Since 3.02 m lies outside the interval d E around the previous central point, a new feature is created with the central point 3.02 m and the count value 1.

Zusätzlich zu den oben genannten Regeln, sind weitere Aktualisierungsregeln wie folgt möglich, die beispielsweise Vorgehensweisen definieren, wenn die Merkmalsgruppe voll ist.In addition to the rules mentioned above, further update rules are possible as follows, which, for example, define procedures when the feature group is full.

Wenn die Anzahl der Merkmale die Obergrenze M erreicht, wird danach beispielsweise keine neue Merkmalgruppe weiter hinzufügt.For example, if the number of features reaches the upper limit M, no new feature group will be added thereafter.

Ein neuer, hinzukommender Zeitstempel, der als neue Merkmalsgruppe gespeichert werden soll, könnte in einer Ausführungsform beispielsweise verworfen werden.For example, a new, added timestamp that is to be stored as a new feature group could be discarded in one embodiment.

Oder aber, ein neuer, hinzukommender Zeitstempel könnte beispielsweise die am wenigsten signifikante Merkmalsgruppe überschreiben. Die Signifikanz S für jede Merkmalsgruppe kann beispielsweise durch S = f 3 ( D , Z )

Figure DE102023207294A1_0012
berechnet werden. Als Beispiel könnte f3 durch f 3 ( Z ) = Z
Figure DE102023207294A1_0013
definiert werden.Or, a new, added timestamp could, for example, overwrite the least significant feature group. The significance S for each feature group can, for example, be determined by S = f 3 ( D , Z )
Figure DE102023207294A1_0012
As an example, f 3 could be calculated by f 3 ( Z ) = Z
Figure DE102023207294A1_0013
be defined.

8 zeigt die hier beschriebenen Verfahren der Anwendung einer weiteren Aktualisierungsregel bei der ersten Stufe der Selbstgruppierung gemäß Ausführungsformen, die eine ausführungsgemäße Strategie anwendet, wenn die Merkmalsgruppe voll ist. 8 shows the methods described herein of applying another update rule to the first stage of self-grouping according to embodiments that applies an implementation-specific strategy when the feature group is full.

Die Gesamtdatenmenge MSG ergibt sich aus M S G = F S N F P S N p i x M ( N D + N Z ) .

Figure DE102023207294A1_0014
The total data volume M SG results from M S G = F S N F P S N p i x M ( N D + N Z ) .
Figure DE102023207294A1_0014

Die Datenreduktionsrate RHist-SG ist somit gegeben durch R H i s t S G = N B N Z M ( N D + N Z ) .

Figure DE102023207294A1_0015
The data reduction rate R Hist-SG is thus given by R H i s t S G = N B N Z M ( N D + N Z ) .
Figure DE102023207294A1_0015

Im Vergleich zu dem Konzept der Konvertierung der Zeitstempel wird RHist-SG nicht direkt von NT beeinflusst. Daher ist die Selbstgruppierung ein vielversprechendes Datenreduktionsverfahren für LiDAR Systeme insbesondere mit großem NT, wie z. B. dem Flash-LiDAR-System. Es ist jedoch zu beachten, dass der Algorithmus in der Regel jedes Mal ausgeführt wird, wenn ein Zeitstempel eintrifft. Wenn das Zeitintervall zwischen dem Eintreffen der beiden Zeitstempel kürzer ist, als die Verarbeitungszeit des Algorithmus, würde dies zu einer zusätzlichen Zeitverzögerung führen.Compared to the concept of timestamp conversion, R Hist-SG is not directly affected by N T . Therefore, self-grouping is a promising data reduction method for LiDAR systems, especially with large N T , such as the Flash LiDAR system. However, it should be noted that the algorithm is usually executed every time a timestamp arrives. If the time interval between the arrival of the two timestamps is shorter than the processing time of the algorithm, this would lead to an additional time delay.

Nachfolgend wird Clustering mit Makro-Bins gemäß spezieller Ausführungsformen beschrieben. Anstatt die Zeitstempel in voller Auflösung zu speichern und den Zentralpunkt zu aktualisieren, kann ein derartiges Makro-Bin-Verfahren angewandt werden, um weiteren Speicherplatz und Operationen bei geringerer Entfernungsgenauigkeit einzusparen.Clustering with macro-bins according to specific embodiments is described below. Instead of storing the timestamps in full resolution and updating the center point, such a macro-bin method can be applied to save further storage space and operations at lower distance accuracy.

Die Idee hinter diesem Konzept ist es, nur eine begrenzte Anzahl von Histogramm-Bins anzulegen. Es wird ein neuer Cluster angelegt, sobald ein Zeitstempel aufgenommen wird, der noch nicht abgelegt ist. Die Bittiefe pro Zeitstempel (Auflösung des TDC) wird dabei nicht zwangsläufig reduziert.The idea behind this concept is to create only a limited number of histogram bins. A new cluster is created as soon as a timestamp is recorded that has not yet been stored. The bit depth per timestamp (resolution of the TDC) is not necessarily reduced.

Ein Zeitstempel belegt ld ( t Hist t Bin ) Bits .

Figure DE102023207294A1_0016
A timestamp occupies ld ( t Hist t Bin ) Bits .
Figure DE102023207294A1_0016

Zu jedem Eintrag gehört ein Zähler mit Tiefe NZ, in dem die erfolgreichen Detektionen abgelegt werden können.Each entry has a counter with depth N Z in which the successful detections can be stored.

Bei Erstellung des Histogramms werden maximal kBin Histogramm-Einträge angelegt. Die gesamte Datenmenge für einen Pixel beträgt B Pix = k Bin ld ( N Z ) = t Hist t Bin ld ( N Z ) .

Figure DE102023207294A1_0017
When creating the histogram, a maximum of k bin histogram entries are created. The total amount of data for one pixel is B Pix = k Bin ld ( N Z ) = t Hist t Bin ld ( N Z ) .
Figure DE102023207294A1_0017

Somit ergibt sich für das gesamte Datenaufkommen des Histogramms B Hist = N Pix k Bin ld ( N Z )

Figure DE102023207294A1_0018
This results in the total data volume of the histogram B Hist = N Pix k Bin ld ( N Z )
Figure DE102023207294A1_0018

Wird der Self-Clustering Ansatz genutzt, reduziert sich dieses Datenaufkommen auf B Cluster = N Pix k Cluster ( ld ( N Cluster ) + ld ( N Z ) )

Figure DE102023207294A1_0019
mit kCluster < kBin.If the self-clustering approach is used, this data volume is reduced to B Cluster = N Pix k Cluster ( ld ( N Cluster ) + ld ( N Z ) )
Figure DE102023207294A1_0019
with k clusters < k bins .

Dabei beschreibt NCıuster die Menge der quantisierten Zeiten, die sich durch reduzierende Zusammenfassung von NR der ursprünglichen Binbreite zu der Breite eines Makrobins ergeben. N Cluster = t Hist t Cluster = t Hist N R t Bin < t Hist t Bin

Figure DE102023207294A1_0020
Here, N Cıuster describes the set of quantized times resulting from the reduction of N R of the original bin width to the width of a macrobin. N Cluster = t Hist t Cluster = t Hist N R t Bin < t Hist t Bin
Figure DE102023207294A1_0020

Der einzelne Cluster erhält also einen Index iCluster mit dem über die Quantisierungsbreite der Cluster tCluster die zugehörige, abgebildete Zeit des Clusters errechenbar ist: t F = i Cluster t Cluster .

Figure DE102023207294A1_0021
The individual cluster is given an index i cluster with which the corresponding mapped time of the cluster can be calculated using the quantization width of the cluster t cluster : t F = i Cluster t Cluster .
Figure DE102023207294A1_0021

Angenommen, dass die Höhe der Zählwerte im Falle der Cluster und Bins gleich ist, kann eine Datenreduktion um den folgenden Faktor erzielt werden: r = k Bin ld ( N Z ) k Cluster ( ld ( N Cluster ) + ld ( N Z ) ) .

Figure DE102023207294A1_0022
Assuming that the height of the counts is the same in the case of clusters and bins, a data reduction by the following factor can be achieved: r = k Bin ld ( N Z ) k Cluster ( ld ( N Cluster ) + ld ( N Z ) ) .
Figure DE102023207294A1_0022

Sind alle Cluster belegt, kann ein einlaufender neuer Zeitstempel nicht direkt abgelegt werden.If all clusters are occupied, an incoming new timestamp cannot be stored directly.

Eine Logik um diesen Fall abzufangen kann beinhalten, alle Cluster so lange zu dekrementieren bis ein Cluster den Zählwert 0 erreicht. Dann werden alle Cluster mit Zählwert 0 entfernt und stehen zur Neubelegung zur Verfügung.Logic to handle this case may include decrementing all clusters until a cluster reaches a count of 0. Then all clusters with a count of 0 are removed and are available for reassignment.

Alternativ kann, da dieser Zustand auf eine Verteilung mit hoher Varianz hinweist, die durch starke Hintergrundlichteinstrahlung verursacht sein kann, ein Indikatorbit für eine Fehlmessung gesetzt werden.Alternatively, since this condition indicates a distribution with high variance, which may be caused by strong background light, a mismeasurement indicator bit can be set.

Weiterhin kann der Cluster mit dem geringsten Zählwert entfernt werden, um neuen Platz für die Ablage weiterer Cluster zur Verfügung zu stellen.Furthermore, the cluster with the lowest count can be removed to provide new space for storing additional clusters.

Beispielsweise kann das Clustering mit Marko Bins derart implementiert werden, dass die Größe eines Clusters vorabdefiniert wird. Beispielsweise kann definiert sein, dass die (Abstands-) Werte in einem Intervall von 20 cm demselben Cluster zugeordnet werden. So kann z.B. vorab definiert werden, dass Zeitstempel mit einem (Abstands-) Wert von:

  • 0 cm bis 20 cm; 20,1 cm bis 40 cm; 40,1 cm bis 60 cm; 60,1 cm bis 80 cm, usw.
jeweils demselben Cluster zugeordnet werden. Geht beispielsweise ein erster Zeitstempel mit dem entsprechenden Abstandswert 45 cm ein, so wird ein erster Cluster mit Zählwert 1 gebildet. Dieser Cluster kann dann den Zentralpunkt 45 cm dauerhaft aufweisen (da dies der Wert des ersten, eingegangenen Zeitstempels ist oder aber er weist den ca. Mittelwert des Intervalls auf, hier 50 cm als Mittelwert des Intervalls 40,1 cm bis 60 cm.For example, clustering with Marko Bins can be implemented in such a way that the size of a cluster is predefined. For example, it can be defined that the (distance) values in an interval of 20 cm are assigned to the same cluster. For example, it can be defined in advance that timestamps with a (distance) value of:
  • 0 cm to 20 cm; 20.1 cm to 40 cm; 40.1 cm to 60 cm; 60.1 cm to 80 cm, etc.
are each assigned to the same cluster. For example, if a first time stamp is received with the corresponding distance value 45 cm, a first cluster with a count value of 1 is formed. This cluster can then have the central point 45 cm permanently (since this is the value of the first time stamp received) or it can have the approximate mean value of the interval, here 50 cm as the mean value of the interval 40.1 cm to 60 cm.

Weitere eingehende Zeitstempel dieses Cluster-Intervalls von 40,1 cm bis 60 cm erhöhen dann z.B. nur den Zählwert des Clusters; eine Neuberechnung des Zentralpunkts findet dann z.B. nicht statt.Further incoming timestamps of this cluster interval from 40.1 cm to 60 cm then only increase the count value of the cluster; a recalculation of the central point then does not take place.

Im Folgenden wird die zweite Stufe der Selbstgruppierung beschrieben. Die zweite Stufe der Selbstgruppierung ist in jedem Fall optional. Ferner ergänzt die zweite Stufe der Selbstintegration in vielen Ausführungsformen die vorherigen Konzepte.The second stage of self-grouping is described below. The second stage of self-grouping is optional in any case. Furthermore, the second stage of self-integration complements the previous concepts in many embodiments.

So kann der Prozess der (z.B. ersten Stufe der) Selbstgruppierung eine Vielzahl von Merkmalsgruppen hervorbringen, deren Zentralpunkte sehr nahe beieinander liegen. Diese Merkmalsgruppen stammen sehr wahrscheinlich von demselben Objekt. Daher wird die zweite Gruppierung (z.B. die zweite Stufe der Selbstgruppierung) als Option angewandt, die diese Merkmalsgruppen zusammenfasst. Beispielsweise kann die Zusammenfassung erfolgen durch: D = f 4 ( D 1 , Z 1 , , D n , Z n )

Figure DE102023207294A1_0023
und Z = f 5 ( D 1 , Z 1 , , D n , Z n ) .
Figure DE102023207294A1_0024
Thus, the process of (eg first stage of) self-grouping can produce a large number of feature groups whose central points are very close to each other. These feature groups are very likely to originate from the same object. Therefore, the second grouping (eg second stage of self-grouping) is applied as an option, which summarizes these feature groups. For example, the summary can be done by: D = f 4 ( D 1 , Z 1 , , D n , Z n )
Figure DE102023207294A1_0023
and Z = f 5 ( D 1 , Z 1 , , D n , Z n ) .
Figure DE102023207294A1_0024

Beispielweise kann f4 durch f 4 ( D 1 , Z 1 , D 2 , Z 2 ) = D 1 Z 1 + D 2 Z 2 Z 1 + Z 2 , | D 1 D 2 | < Δ d

Figure DE102023207294A1_0025
und f5 durch f 5 ( Z 1 , Z 2 ) = Z 1 + Z 2 | D 1 D 2 | < Δ d
Figure DE102023207294A1_0026
definiert werden, wobei Δd die zulässige Differenz zwischen den Zentralpunkten ist.For example, f 4 can be f 4 ( D 1 , Z 1 , D 2 , Z 2 ) = D 1 Z 1 + D 2 Z 2 Z 1 + Z 2 , | D 1 D 2 | < Δ d
Figure DE102023207294A1_0025
and f 5 by f 5 ( Z 1 , Z 2 ) = Z 1 + Z 2 | D 1 D 2 | < Δ d
Figure DE102023207294A1_0026
where Δd is the allowable difference between the central points.

Ein Beispiel für die zweite Gruppierung (die zweite Stufe der Selbstgruppierung) ist in 9 dargestellt.An example of the second grouping (the second stage of self-grouping) is in 9 shown.

Nach dem Selbstgruppierungsalgorithmus werden M Merkmalsgruppen berechnet. Diese Merkmalsgruppen können immer noch redundante oder unwichtige Informationen enthalten.According to the self-grouping algorithm, M feature groups are calculated. These feature groups may still contain redundant or unimportant information.

Daher wird eine Merkmalsextraktion als Option durchgeführt, um K Merkmalsgruppen aus M Merkmalsgruppen zu extrahieren, wobei K < M. Die Extraktion kann z.B. erfolgen durch: { ( D 1 , Z 1 ) , ( D K , ( Z 1 ) ) } = f 6 ( ( D 1 , Z 1 ) , ( D M , Z M ) ) .

Figure DE102023207294A1_0027
Therefore, feature extraction is performed as an option to extract K feature groups from M feature groups, where K < M. The extraction can be done e.g. by: { ( D 1 , Z 1 ) , ( D K , ( Z 1 ) ) } = f 6 ( ( D 1 , Z 1 ) , ( D M , Z M ) ) .
Figure DE102023207294A1_0027

Ein Beispiel für f6 lautet: D k = a r g m a x Z i ( D i ) ,

Figure DE102023207294A1_0028
mit D Min + ( D Max D Min ) ( k 1 ) K < D i < D Min + ( D Max D Min ) k K ,
Figure DE102023207294A1_0029
wobei
i∈M, k∈K und DMin und DMax
der minimale bzw. maximale Erfassungsabstand sind.An example for f 6 is: D k = a r g m a x Z i ( D i ) ,
Figure DE102023207294A1_0028
with D Min + ( D Max D Min ) ( k 1 ) K < D i < D Min + ( D Max D Min ) k K ,
Figure DE102023207294A1_0029
where
i∈M, k∈K and D Min and D Max
the minimum and maximum detection distances respectively.

Im Folgenden werden Konzepte der Distanzbestimmung gemäß Ausführungsformen beschrieben.In the following, concepts of distance determination according to embodiments are described.

Gemäß Ausführungsformen konvertieren die oben genannten Varianten die Zeitstempel in mehrere Merkmale. Anschließend werden diese Merkmale mit den nachfolgenden Datenverarbeitungsmethoden zur Distanzbestimmung weiterverarbeitet:

  • Zur Distanzbestimmung können beispielsweise eingesetzt werden:
    • - Klassische digitale Verarbeitung
    • - Neuronales Netz als Regressor
    • - Neuronales Netz als Klassifikator.
According to embodiments, the above-mentioned variants convert the timestamps into several features. These features are then further processed using the following data processing methods to determine distance:
  • For example, the following can be used to determine distance:
    • - Classic digital processing
    • - Neural network as regressor
    • - Neural network as classifier.

Zunächst werden Konzepte der klassischen digitalen Verarbeitung beschrieben, die mit den obigen Ausführungsbeispielen kombiniert werden können.First, concepts of classical digital processing are described, which can be combined with the above embodiments.

So kann die Distanzauswertung mit bewährten Methoden durchgeführt werden. Dazu kann z.B. eine einfache Modus-Detektion gehören oder eine Interpolation von benachbarten gefüllten Clustern, um eine Sub-Cluster Auflösung zu erreichen.The distance evaluation can be carried out using proven methods. This can include, for example, a simple mode detection or an interpolation of neighboring filled clusters to achieve a sub-cluster resolution.

Bei der Modus-Detektion wird der häufigste Zählwert ausgewertet. Zuerst muss der Cluster mit dem größten Zählwert identifiziert werden a = argmax ( N c ) .

Figure DE102023207294A1_0030
In mode detection, the most frequent count is evaluated. First, the cluster with the largest count must be identified a = argmax ( N c ) .
Figure DE102023207294A1_0030

Diese Information kann dann genutzt werden, um die Flugzeit (Time-of-Flight) des zugehörigen Clusters auszulesen.This information can then be used to read the time-of-flight of the associated cluster.

Die Bestimmungsgleichung für die Distanz wird bei dieser Detektionsmodus wie folgt ausgedrückt d = c t ToF = c argmax ( N c ) .

Figure DE102023207294A1_0031
The equation for determining the distance in this detection mode is expressed as follows d = c t ToF = c argmax ( N c ) .
Figure DE102023207294A1_0031

Durch Interpolation lässt sich, besonders bei Lage der rückgestrahlten Laserinformation zwischen zwei Makro-Bins, eine höhere Tiefenauflösung erzeugen. Dieser Ansatz ist bei Verwendung der Clusterung etwas weniger performant als bei der Vollerfassung von Histogrammen, da durch die begrenzte Anzahl von Clustern nicht garantiert werden kann, dass Makro-Bins mit niedrigem Füllstand in die Erfassung mit einbezogen werden. Um weiterhin die Einführung von Fehlern durch nicht aufgezeichnete Makro-Bins zu vermeiden, sollte der Ansatz außerdem mit einer Modus-Findung kombiniert werden. Die bestimmte Distanz errechnet sich dann nach d = c i = a r g m a x ( N C l u s t e r s ) 1 a r g m a x ( N C l u s t e r s ) + 1 N C , i N t C l u s t e r ( i C l u s t e r + 1 2 ) i = a r g m a x ( N C l u s t e r s ) 1 a r g m a x ( N C l u s t e r s ) + 1 N C , i N

Figure DE102023207294A1_0032
Interpolation can be used to generate a higher depth resolution, especially when the reflected laser information is located between two macro bins. This approach is somewhat less efficient when using clustering than when fully capturing histograms, since the limited number of clusters means that it cannot be guaranteed that macro bins with a low fill level are included in the capture. To further avoid the introduction of errors due to unrecorded macro bins, the approach should also be combined with a mode finding. The determined distance is then calculated according to d = c i = a r g m a x ( N C l u s t e r s ) 1 a r g m a x ( N C l u s t e r s ) + 1 N C , i N t C l u s t e r ( i C l u s t e r + 1 2 ) i = a r g m a x ( N C l u s t e r s ) 1 a r g m a x ( N C l u s t e r s ) + 1 N C , i N
Figure DE102023207294A1_0032

Nun wird ein Einsatz eines neuronalen Netzes als Regressor gemäß spezieller Ausführungsformen beschrieben.Now, a use of a neural network as a regressor according to specific embodiments is described.

Eine neuronale Netzstruktur wird hier z.B. als ein Regressor eingesetzt. Die Eingangsdaten des Netzes könnte F aus der oben beschriebenen Datenintegration sein, oder eine Kombination aus D und Z (ggf. mit Vorverarbeitung, z. B. Normalisierung) aus der oben beschriebenen ersten Stufe der Selbstgruppierung, aus dem oben beschriebenen Clustering mit Makro-Bins oder aus der oben beschriebenen zweiten Stufe der Selbstgruppierung sein.A neural network structure is used here, for example, as a regressor. The input data of the network could be F from the data integration described above, or a combination of D and Z (possibly with preprocessing, e.g. normalization) from the first stage of self-grouping described above, from the clustering with macro bins described above, or from the second stage of self-grouping described above.

Beispielweise können ein oder mehrere der folgenden drei Netzstrukturen verwendet werden:

  1. 1. Fully-connect feed-forwarded neural network (FNN; deutsch: vollständig verbundenes, vorwärts einspeisendes, neuronales Netzwerk)
  2. 2. Stacked-FNN: Ein stacked-FNN (deutsch: gestapeltes FNN) bezieht sich auf zwei einzelne FNNs. Das erste FNN übernimmt z.B. die Daten aus der oben beschriebenen Datenintegration als Eingabe, während das zweite FNN die Ausgabe des ersten FNN als Eingabe übernimmt. Der Aufbau und das Training eines stacked-FNN gemäß einer Ausführungsform ist in 10 dargestellt. Der Zweck dieser Struktur besteht darin, aus zwei schwach Lernenden einen stark Lernenden zu machen, indem man sie hintereinanderschaltet. Als Sonderfall könnte das zweite FNN auch ein Duplikat des ersten FNN sein. In diesem Fall werden nur die Parameter des ersten FNN auf einem eingebetteten System gespeichert.
  3. 3. Recurrent neural network (RNN, deutsch: rekursives neuronales Netzwerk): Hier kann ein Simple-RNN oder ein LSTM (long short term memory; deutsch: Lang-Kurzzeit-Speicher) verwendet werden.
For example, one or more of the following three network structures can be used:
  1. 1. Fully-connect feed-forwarded neural network (FNN)
  2. 2. Stacked FNN: A stacked FNN refers to two individual FNNs. The first FNN takes the data from the data integration described above as input, while the second FNN takes the output of the first FNN as input. The construction and training of a stacked FNN according to one embodiment is described in 10 The purpose of this structure is to make one strong learner out of two weak learners by connecting them in series. As a special case, the second FNN could also be a duplicate of the first FNN. In this case, only the parameters of the first FNN are stored on an embedded system.
  3. 3. Recurrent neural network (RNN): A simple RNN or an LSTM (long short term memory) can be used here.

Die Ausgabepräzision eines Regressors hängt von der Anzahl der Ziffern ab, ist aber unabhängig von der Sensorauflösung. Das bedeutet, dass ein Regressor das Potenzial hat, eine höhere Präzision zu erreichen als die Auflösung des Sensors. Ein Regressor ist daher für kurze Reichweite, geringes Rauschen und hohe Präzisionsanforderungen geeignet.The output precision of a regressor depends on the number of digits but is independent of the sensor resolution. This means that a regressor has the potential to achieve higher precision than the resolution of the sensor. A regressor is therefore suitable for short range, low noise and high precision requirements.

Nachfolgend wird ein neuronales Netz als Klassifikator gemäß spezieller Ausführungsformen beschrieben.In the following, a neural network as a classifier according to specific embodiments is described.

Diese Methode ähnelt denen, die in [4] erwähnt wurden. Allerdings basiert der in [4] erwähnte Ansatz noch auf Histogrammen. Daher sollte der Einsatz des maschinellen Lernens leicht modifiziert und angepasst werden.This method is similar to those mentioned in [4]. However, the approach mentioned in [4] is still based on histograms. Therefore, the use of machine learning should be slightly modified and adapted.

Ein FNN wird als Klassifikator konstruiert und verwendet die Ausgabe aus der oben beschriebenen Datenintegration als Eingabe. Entsprechend werden K Ausgangsneuronen (Klassen) konstruiert. Schließlich wird das Ergebnis mit O H = a r g m a x k ( O k ) ,

Figure DE102023207294A1_0033
wobei Ok für den k-ten Ausgangswert und OH für den höchste Ausgangswert des FNN steht. Der Objektdistanz ist dann der entsprechende DH.An FNN is constructed as a classifier and uses the output from the data integration described above as input. Accordingly, K output neurons (classes) are constructed. Finally, the result is O H = a r g m a x k ( O k ) ,
Figure DE102023207294A1_0033
where O k is the k-th output value and O H is the highest output value of the FNN. The object distance is then the corresponding D H .

Ein Klassifikator berücksichtigt mehrere mögliche Distanzwerte und weist jeder Distanz eine entsprechende Güte zu. Die Ausgabeauflösung entspricht dabei der Sensorauflösung. Daher ist diese Vorgehensweise geeignet für große Reichweiten, hohes Rauschen, geringere Präzisionsanforderungen und den Fall von Mehrfachreflexionen.A classifier takes several possible distance values into account and assigns a corresponding quality to each distance. The output resolution corresponds to the sensor resolution. This approach is therefore suitable for long ranges, high noise, lower precision requirements and the case of multiple reflections.

In anderen Ausführungsformen können andere Algorithmen des maschinellen Lernens, binäres-FNN, SVM, Bayes Klassifikatoren, Decision Tree (deutsch: Entscheidungsbäume) oder Random Forest (deutsch: Zufalllswald) zur Distanzschätzung eingesetzt werden.In other embodiments, other machine learning algorithms, binary FNN, SVM, Bayes classifiers, decision tree or random forest can be used for distance estimation.

Ausführungsformen können beispielsweise für ein Entfernungsmesssystem auf der Grundlage des Time-of-Flight Prinzips (z.B. LiDAR-Systeme), oder für LiDAR-Anwendungen, z. B. im Automobilbereich, die eine Verarbeitung der Daten in Echtzeit auf eingebetteten Systemen erfordern, oder für Anwendungen im Industriebereich, z.B. eigenständige Überwachungssysteme für die Objekterkennung und -verfolgung, eingesetzt werden.Embodiments can be used, for example, for a distance measuring system based on the time-of-flight principle (e.g. LiDAR systems), or for LiDAR applications, e.g. in the automotive sector, which require real-time processing of the data on embedded systems, or for applications in the industrial sector, e.g. stand-alone monitoring systems for object detection and tracking.

Bestimmte Ausführungsformen zeichnen sich insbesondere durch zwei Vorteile aus.Certain embodiments are characterized by two particular advantages.

Ein erster Vorteil liegt in der Datenreduktion: Die Menge der LiDAR-Daten kann reduziert werden, so dass diese auf eingebetteten Systemen mit begrenzten Ressourcen verarbeitet werden können. Um einen groben Eindruck von verschiedenen Varianten zu vermitteln, werden zwei konkrete Szenarien angenommen, die in Tabelle 1 dargestellt sind. Die entsprechenden Datenmengen, die bei verschiedenen Varianten gespeichert werden müssen, sind in Tabelle 2 aufgeführt. Es zeigt sich, dass Ausführungsformen in Szenario 1 und Szenario 2 eine ähnliche Genauigkeit und Präzision wie bei der klassischen Histogrammisierung und Verarbeitung erreichen. A first advantage is data reduction: The amount of LiDAR data can be reduced so that it can be processed on embedded systems with limited resources. To give a rough impression of different variants, two concrete scenarios are assumed, which are shown in Table 1. The corresponding data volumes that must be stored for different variants are listed in Table 2. It can be seen that embodiments in Scenario 1 and Scenario 2 achieve a similar level of accuracy and precision as with classical histogramization and processing.

Tabelle 1 zeigt eine Parameterkonfiguration für zwei konkrete Szenarien: Tabelle 1 Scenario 1 Scenario 2 Anzahl der Zeitstempel für eine Distanzbestimmung ≤ 10 ≤ 400 Reichweite / m 0-8 0-60 TDC Auflösung / m 0,0468 0,0468 Anzahl Tiefenbilder pro Sekunde 25 25 Faktor der Sicherheitsmarge 1,3 1,3 Anzahl der Merkmalsgruppen (oder Cluster) 10 32 Anzahl der Bits für einen Zeitstempel 8 11 Anzahl der Zusatzwissen 2 2 Anzahl von Bits für Macro-Binbreite 4 7 Anzahl von Bits für einen Zählwert 4 9 Reduktionsfaktor Bintiefe Clustering 16 16 Anzahl der Pixel 12000 12000 Table 1 shows a parameter configuration for two concrete scenarios: Table 1 Scenario 1 Scenario 2 Number of timestamps for a distance determination ≤ 10 ≤ 400 range / m 0-8 0-60 TDC resolution / m 0.0468 0.0468 number of depth images per second 25 25 safety margin factor 1.3 1.3 number of feature groups (or clusters) 10 32 number of bits for a timestamp 8 11 number of additional knowledge 2 2 Number of bits for macro bin width 4 7 number of bits for a count value 4 9 reduction factor bin depth clustering 16 16 number of pixels 12,000 12,000

Tabelle 2 zeigt die Menge der zu speichernden Daten bei verschiedenen Varianten: Tabelle 2 Datenmange / Gbits Scenario 1 Scenario 2 Histogrammisierung 0,25 4,18 Datenintegration 0,03 - Selbstgruppierung 0,04 0,23 Clustering 0,03 0,19 Table 2 shows the amount of data to be stored for different variants: Table 2 data volume / Gbits Scenario 1 Scenario 2 histogramization 0.25 4.18 data integration 0.03 - self-grouping 0.04 0.23 clustering 0.03 0.19

Klassische digitale Verarbeitungsmethoden, die auf Histogrammen basieren, sind effektiv, aber rechenintensiv. Die meisten von ihnen können nicht auf einem eingebetteten System implementiert werden. Daher ist die am häufigsten verwendete Methode der globalen Maximum-Erkennung, die zwar recht einfach ist, in Bezug auf Präzision, Genauigkeit und Robustheit komplexeren Verfahren hinter Ausführungsformen zurückbleibt. Ein weiterer Vorteil mancher Ausführungsformen kann somit darin gesehen werden, dass die bereitgestellten Algorithmen relativ einfach und effizient sind. Daher besteht es die Möglichkeit, dass Ausführungsformen auf einem eingebetteten System implementiert werden können.Classical digital processing methods based on histograms are effective but computationally intensive. Most of them cannot be implemented on an embedded system. Therefore, the most commonly used method is global maximum detection, which, although quite simple lags behind more complex methods in terms of precision, accuracy and robustness. A further advantage of some embodiments can thus be seen in the fact that the algorithms provided are relatively simple and efficient. Therefore, there is the possibility that embodiments can be implemented on an embedded system.

Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch einen Hardware-Apparat (oder unter Verwendung eines Hardware-Apparats), wie zum Beispiel einen Mikroprozessor, einen programmierbaren Computer oder einer elektronischen Schaltung durchgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigsten Verfahrensschritte durch einen solchen Apparat ausgeführt werden.Although some aspects have been described in the context of a device, it is to be understood that these aspects also represent a description of the corresponding method, so that a block or component of a device can also be understood as a corresponding method step or as a feature of a method step. Analogously, aspects described in the context of or as a method step also represent a description of a corresponding block or detail or feature of a corresponding device. Some or all of the method steps can be performed by a hardware apparatus (or using a hardware apparatus), such as a microprocessor, a programmable computer, or an electronic circuit. In some embodiments, some or more of the key method steps can be performed by such an apparatus.

Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software oder zumindest teilweise in Hardware oder zumindest teilweise in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer BluRay Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein.Depending on particular implementation requirements, embodiments of the invention may be implemented in hardware or in software, or at least partially in hardware or at least partially in software. The implementation may be carried out using a digital storage medium, for example a floppy disk, a DVD, a BluRay disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or a FLASH memory, a hard disk or another magnetic or optical memory on which electronically readable control signals are stored that can interact or interact with a programmable computer system in such a way that the respective method is carried out. Therefore, the digital storage medium may be computer readable.

Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.Some embodiments according to the invention thus comprise a data carrier having electronically readable control signals capable of interacting with a programmable computer system such that one of the methods described herein is carried out.

Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft.In general, embodiments of the present invention may be implemented as a computer program product having a program code, wherein the program code is operable to perform one of the methods when the computer program product is run on a computer.

Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.The program code can, for example, also be stored on a machine-readable medium.

Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist. Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.Other embodiments include the computer program for carrying out one of the methods described herein, wherein the computer program is stored on a machine-readable medium. In other words, an embodiment of the method according to the invention is thus a computer program that has a program code for carrying out one of the methods described herein when the computer program runs on a computer.

Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist. Der Datenträger oder das digitale Speichermedium oder das computerlesbare Medium sind typischerweise greifbar und/oder nicht flüchtig.A further embodiment of the methods according to the invention is thus a data carrier (or a digital storage medium or a computer-readable medium) on which the computer program for carrying out one of the methods described herein is recorded. The data carrier or the digital storage medium or the computer-readable medium is typically tangible and/or non-transitory.

Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.A further embodiment of the method according to the invention is thus a data stream or a sequence of signals which represents or represents the computer program for carrying out one of the methods described herein. The data stream or the sequence of signals can, for example, be configured to be transferred via a data communication connection, for example via the Internet.

Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.A further embodiment comprises a processing device, for example a computer or a programmable logic device, which is configured or adapted to carry out one of the methods described herein.

Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.A further embodiment comprises a computer on which the computer program for carrying out one of the methods described herein is installed.

Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vorrichtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen.A further embodiment according to the invention comprises a device or a system which is designed to transmit a computer program for carrying out at least one of the methods described herein to a recipient. The transmission can be carried out electronically or optically, for example. The recipient can be, for example, a computer, a mobile device, a storage device or a similar device. The device or system can, for example, comprise a file server for transmitting the computer program to the recipient.

Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.In some embodiments, a programmable logic device (e.g., a field programmable gate array, an FPGA) may be used to perform some or all of the functionality of the methods described herein. In some embodiments, a field programmable gate array may interact with a microprocessor to perform any of the methods described herein. In general, in some embodiments, the methods are performed by any hardware device. This may be general-purpose hardware such as a computer processor (CPU) or hardware specific to the method such as an ASIC.

Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.The embodiments described above are merely illustrative of the principles of the present invention. It is understood that modifications and variations of the arrangements and details described herein will be apparent to others skilled in the art. Therefore, it is intended that the invention be limited only by the scope of the following claims and not by the specific details presented in the description and explanation of the embodiments herein.

Literatur:Literature:

  1. [1] C. Zhang, S. Lindner, I. M. Antolovic, J. Mata Pavia, M. Wolf, and E. Charbon, „A 30-frames/s, 252×144 SPAD Flash LiDAR With 1728 Dual-Clock 48.8-ps TDCs, and Pixel-Wise Integrated Histogramming“, IEEE J. Solid-State Circuits, vol. 54, no. 4, pp. 1137-1151, 2019, doi: 10.1109/JSSC.2018.2883720 .[1] C. Zhang, S. Lindner, IM Antolovic, J. Mata Pavia, M. Wolf, and E. Charbon, “A 30-frames/s, 252×144 SPAD Flash LiDAR With 1728 Dual-Clock 48.8-ps TDCs, and Pixel-Wise Integrated Histogramming,” IEEE J. Solid-State Circuits, vol. 54, no. 4, pp. 1137-1151, 2019, doi: 10.1109/JSSC.2018.2883720 .
  2. [2] Anup K. Sharma, Arnaud Laflaquière, Gennadiy A. Agranov, Gershon Rosenblum, and Shingo Mandai, „SPAD array with gated histogram construction “, US 2017/0052065 , veröffentlicht: 2017.[2] Anup K. Sharma, Arnaud Laflaquière, Gennadiy A. Agranov, Gershon Rosenblum, and Shingo Mandai, “SPAD array with gated histogram construction “, US 2017/0052065 , published: 2017.
  3. [3] F. Gutierrez-Barragan, A. Ingle, T. Seets, M. Gupta, and A. Velten, „Compressive Single-Photon 3D Cameras“, 2022 .[3] F. Gutierrez-Barragan, A. Ingle, T. Seets, M. Gupta, and A. Velten, “Compressive Single-Photon 3D Cameras,” 2022 .
  4. [4] „ Verfahren und Vorrichtung zum Bestimmen einer Messinformation und LiDAR-Gerät “, DE 10 2020 203 796 A1 , veröffentlicht: 2021.[4] " Method and device for determining measurement information and LiDAR device “, DE 10 2020 203 796 A1 , published: 2021.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA accepts no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 10 2020 203 796 A1 [0018, 0152]DE 10 2020 203 796 A1 [0018, 0152]
  • US 2017/0052065 [0152]US 2017/0052065 [0152]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • C. Zhang, S. Lindner, I. M. Antolovic, J. Mata Pavia, M. Wolf, and E. Charbon, „A 30-frames/s, 252×144 SPAD Flash LiDAR With 1728 Dual-Clock 48.8-ps TDCs, and Pixel-Wise Integrated Histogramming“, IEEE J. Solid-State Circuits, vol. 54, no. 4, pp. 1137-1151, 2019, doi: 10.1109/JSSC.2018.2883720 [0152]C. Zhang, S. Lindner, I. M. Antolovic, J. Mata Pavia, M. Wolf, and E. Charbon, “A 30-frames/s, 252×144 SPAD Flash LiDAR With 1728 Dual-Clock 48.8-ps TDCs, and Pixel-Wise Integrated Histogramming,” IEEE J. Solid-State Circuits, vol. 54, no. 4, pp. 1137-1151, 2019, doi: 10.1109/JSSC.2018.2883720 [0152]
  • Anup K. Sharma, Arnaud Laflaquière, Gennadiy A. Agranov, Gershon Rosenblum, and Shingo Mandai, „SPAD array with gated histogram construction [0152]Anup K. Sharma, Arnaud Laflaquière, Gennadiy A. Agranov, Gershon Rosenblum, and Shingo Mandai, “SPAD array with gated histogram construction [0152]
  • F. Gutierrez-Barragan, A. Ingle, T. Seets, M. Gupta, and A. Velten, „Compressive Single-Photon 3D Cameras“, 2022 [0152]F. Gutierrez-Barragan, A. Ingle, T. Seets, M. Gupta, and A. Velten, “Compressive Single-Photon 3D Cameras,” 2022 [0152]
  • Verfahren und Vorrichtung zum Bestimmen einer Messinformation und LiDAR-Gerät [0152]Method and device for determining measurement information and LiDAR device [0152]

Claims (28)

Vorrichtung zur Distanzbestimmung, wobei die Vorrichtung umfasst: eine Empfangsschnittstelle (110) zum Empfangen einer Mehrzahl von Zeitstempeln einer LiDAR Detektion, eine Verarbeitungseinheit (120) zur Durchführung von ein oder mehreren Verarbeitungsoperationen, wobei die Verarbeitungseinheit (120) ausgebildet ist, abhängig von den ein oder mehreren Verarbeitungsoperationen eine Distanz zu bestimmen, wobei die Verarbeitungseinheit (120) ausgebildet ist, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die Mehrzahl von Zeitstempeln derart zu gruppieren, dass zwei oder mehr Zeitstempel der Mehrzahl von Zeitstempeln aggregiert werden; und/oder wobei die Verarbeitungseinheit (120) ausgebildet ist, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen ein oder mehrere Zusatzdaten mehr als einem Zeitstempel der Mehrzahl von Zeitstempeln zuzuordnen.Device for determining distance, the device comprising: a receiving interface (110) for receiving a plurality of timestamps of a LiDAR detection, a processing unit (120) for carrying out one or more processing operations, wherein the processing unit (120) is designed to determine a distance depending on the one or more processing operations, wherein the processing unit (120) is designed to group the plurality of timestamps when carrying out the one or more processing operations such that two or more timestamps of the plurality of timestamps are aggregated; and/or wherein the processing unit (120) is designed to assign one or more additional data to more than one timestamp of the plurality of timestamps when carrying out the one or more processing operations. Vorrichtung nach Anspruch 1, wobei die Verarbeitungseinheit (120) ausgebildet ist, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die Mehrzahl von Zeitstempeln umzusortieren, um eine Mehrzahl umsortierter Zeitstempel zu erhalten, und eine Datenstruktur zu erzeugen, in der die Mehrzahl umsortierter Zeitstempel in ihrer umsortierten Reihenfolge angeordnet sind, wobei die Verarbeitungseinheit (120) ausgebildet ist, die Distanz unter Verwendung der Datenstruktur zu bestimmen.device according to claim 1 , wherein the processing unit (120) is configured to reorder the plurality of timestamps when performing the one or more processing operations in order to obtain a plurality of reordered timestamps and to generate a data structure in which the plurality of reordered timestamps are arranged in their reordered order, wherein the processing unit (120) is configured to determine the distance using the data structure. Vorrichtung nach Anspruch 2, wobei die Verarbeitungseinheit (120) ausgebildet ist, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die ein oder mehrere Zusatzdaten der Mehrzahl von Zeitstempeln zuzuordnen, wobei die Verarbeitungseinheit (120) ausgebildet ist, die Datenstruktur so zu erzeugen, dass die Datenstruktur die ein oder mehreren Zusatzdaten umfasst.device according to claim 2 , wherein the processing unit (120) is designed to assign the one or more additional data to the plurality of time stamps when carrying out the one or more processing operations, wherein the processing unit (120) is designed to generate the data structure such that the data structure comprises the one or more additional data. Vorrichtung nach Anspruch 3, wobei die Verarbeitungseinheit (120) ausgebildet ist, die Datenstruktur so zu erzeugen, dass die ein oder mehreren Zusatzdaten erst hinter der Mehrzahl aller umsortierter Zeitstempel in der Datenstruktur angeordnet sind, oder aber vor der Mehrzahl aller umsortierter Zeitstempel in der Datenstruktur angeordnet sind.device according to claim 3 , wherein the processing unit (120) is designed to generate the data structure such that the one or more additional data are only arranged behind the majority of all rearranged time stamps in the data structure, or are arranged before the majority of all rearranged time stamps in the data structure. Vorrichtung nach einem der Ansprüche 2 bis 4, wobei die Verarbeitungseinheit (120) ausgebildet ist, für die Distanzschätzung ein maschinelles Lernverfahren einzusetzen, und die Datenstruktur als Eingabe des maschinellen Lernverfahrens einzusetzen.Device according to one of the Claims 2 until 4 , wherein the processing unit (120) is designed to use a machine learning method for the distance estimation and to use the data structure as input of the machine learning method. Vorrichtung nach einem der vorherigen Ansprüche, wobei die Verarbeitungseinheit (120) ausgebildet ist, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die ein oder mehreren Zusatzdaten der Mehrzahl von Zeitstempeln zuzuordnen, wobei die ein oder mehreren Zusatzdaten eine Hintergrundintensität und/oder eine Distanzbestimmung eines vorherigen Frames und/oder einen Temperaturwert und/oder Kalibrierungsdaten und/oder eine Photonenrate und/oder einen Abstand zu vorherigen Bildern und/oder ein oder mehrere Merkmale von Nachbarpixeln umfassen.Device according to one of the preceding claims, wherein the processing unit (120) is designed to assign the one or more additional data to the plurality of time stamps when carrying out the one or more processing operations, wherein the one or more additional data comprise a background intensity and/or a distance determination of a previous frame and/or a temperature value and/or calibration data and/or a photon rate and/or a distance to previous images and/or one or more features of neighboring pixels. Vorrichtung nach Anspruch 1, wobei die Verarbeitungseinheit (120) ausgebildet ist, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die Mehrzahl von Zeitstempeln derart zu gruppieren, dass ein erster Zeitstempel der Mehrzahl von Zeitstempeln eine erste Merkmalsgruppe von ein oder mehreren Merkmalsgruppen bildet, und dass ein oder mehrere weitere Zeitstempel der Mehrzahl von Zeitstempeln entweder einer der ein oder mehreren Merkmalsgruppen zugeordnet werden oder eine weitere Merkmalsgruppe der ein oder mehreren Merkmalsgruppen bilden.device according to claim 1 , wherein the processing unit (120) is designed to group the plurality of time stamps when carrying out the one or more processing operations such that a first time stamp of the plurality of time stamps forms a first feature group of one or more feature groups, and that one or more further time stamps of the plurality of time stamps are either assigned to one of the one or more feature groups or form a further feature group of the one or more feature groups. Vorrichtung nach Anspruch 7, wobei die Verarbeitungseinheit (120) ausgebildet ist, für jede Merkmalsgruppe der ein oder mehreren Merkmalsgruppen einen Zählwert zu bestimmen, der davon abhängt, wie viele Zeitstempel der Mehrzahl von Zeitstempeln dieser Merkmalsgruppe zugewiesen wurden.device according to claim 7 , wherein the processing unit (120) is designed to determine a count value for each feature group of the one or more feature groups, which count value depends on how many timestamps of the plurality of timestamps have been assigned to this feature group. Vorrichtung nach Anspruch 7 oder 8, wobei die Verarbeitungseinheit (120) ausgebildet ist, für jede Merkmalsgruppe der ein oder mehreren Merkmalsgruppen einen Zentralpunkt zu bestimmen, dessen Wert von denjenigen Zeitstempeln der Mehrzahl von Zeitstempeln abhängt, die dieser Merkmalsgruppe zugewiesen wurden, und/oder dessen Wert von abgeleiteten Werten abhängt, wobei jeder der abgeleiteten Werte von einem der Zeitstempel abhängt, die dieser Merkmalsgruppe zugewiesen wurden (z.B. kann ein Distanzwert für einen Zeitstempel von einem Zeitwert des Zeitstempels abhängen).device according to claim 7 or 8 , wherein the processing unit (120) is designed to determine a central point for each feature group of the one or more feature groups, the value of which depends on those time stamps of the plurality of time stamps assigned to this feature group. sen, and/or whose value depends on derived values, where each of the derived values depends on one of the timestamps assigned to this feature group (e.g. a distance value for a timestamp may depend on a time value of the timestamp). Vorrichtung nach Anspruch 9, wobei die Verarbeitungseinheit (120) ausgebildet ist, für jede Merkmalsgruppe der ein oder mehreren Merkmalsgruppen den Zentralpunkt so zu bestimmen, dass sich der Zentralpunkt aus einer Kombination der Werte derjenigen Zeitstempel ergibt, die dieser Merkmalsgruppe zugeordnet sind, oder so zu bestimmen, dass sich der Zentralpunkt aus einer Kombination der abgeleiteten Werte derjenigen Zeitstempel ergibt, die dieser Merkmalsgruppe zugeordnet sind.device according to claim 9 , wherein the processing unit (120) is designed to determine the central point for each feature group of the one or more feature groups such that the central point results from a combination of the values of those time stamps that are assigned to this feature group, or to determine it such that the central point results from a combination of the derived values of those time stamps that are assigned to this feature group. Vorrichtung nach Anspruch 9 oder 10, wobei die Verarbeitungseinheit (120) ausgebildet ist, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die Mehrzahl von Zeitstempeln derart zu gruppieren, dass die ein weiterer Zeitstempel der Mehrzahl von Zeitstempeln genau dann weitere Merkmalsgruppe der ein oder mehreren Merkmalsgruppen bilden, wenn ein Betrag einer Differenz des Werts des Zentralpunkts und eines Werts des einen weiteren Zeitstempels größer als ein Schwellwert ist, oder wenn ein Betrag einer Differenz des Werts des Zentralpunkts und eines abgeleiteten Werts des einen weiteren Zeitstempels größer als ein Schwellwert ist.device according to claim 9 or 10 , wherein the processing unit (120) is designed to group the plurality of time stamps when carrying out the one or more processing operations such that the one further time stamp of the plurality of time stamps forms a further feature group of the one or more feature groups if and only if an amount of a difference between the value of the central point and a value of the one further time stamp is greater than a threshold value, or if an amount of a difference between the value of the central point and a derived value of the one further time stamp is greater than a threshold value. Vorrichtung nach einem der Ansprüche 7 bis 11, wobei die Verarbeitungseinheit (120) ausgebildet ist, wenn eine Anzahl der ein oder mehreren Merkmalsgruppen eine vordefinierte Obergrenze erreicht, keine weiteren neuen Merkmalsgruppen mehr anzulegen.Device according to one of the Claims 7 until 11 , wherein the processing unit (120) is designed to no longer create any new feature groups when a number of the one or more feature groups reaches a predefined upper limit. Vorrichtung nach einem der Ansprüche 7 bis 11, wobei die Verarbeitungseinheit (120) ausgebildet ist, wenn eine Anzahl der ein oder mehreren Merkmalsgruppen eine vordefinierte Obergrenze erreicht, eine weniger signifikante Merkmalsgruppe der ein oder mehreren Merkmalsgruppen zu überschreiben.Device according to one of the Claims 7 until 11 , wherein the processing unit (120) is designed to overwrite a less significant feature group of the one or more feature groups when a number of the one or more feature groups reaches a predefined upper limit. Vorrichtung nach Anspruch 1, wobei die Verarbeitungseinheit (120) ausgebildet ist, bei der Durchführung der ein oder mehreren Verarbeitungsoperationen jeden der Mehrzahl von Zeitstempeln genau einem Cluster von ein oder mehreren Clustern zuzuordnen.device according to claim 1 , wherein the processing unit (120) is designed to assign each of the plurality of timestamps to exactly one cluster of one or more clusters when carrying out the one or more processing operations. Vorrichtung nach Anspruch 14, wobei die Verarbeitungseinheit (120) ausgebildet ist, bei Zuweisung eines weiteren Zeitstempels zu einem Cluster der ein oder mehreren Cluster, dem bereits ein Zeitstempel zugewiesen wurde, einen Zählwert zu erhöhen, der diesem Cluster zugeordnet ist.device according to claim 14 , wherein the processing unit (120) is designed to increase a count value associated with a cluster when assigning a further time stamp to a cluster of the one or more clusters to which a time stamp has already been assigned. Vorrichtung nach Anspruch 15, wobei die Verarbeitungseinheit (120) ausgebildet ist, bei Zuweisung des eines weiteren Zeitstempels zu dem Cluster, dem bereits ein Zeitstempel zugewiesen wurde, außer der Erhöhung des Zählwerts dieses Clusters, keine sonstigen Werte oder Eigenschaften zu verändern, die diesem Cluster zugewiesen sind.device according to claim 15 , wherein the processing unit (120) is designed, when assigning a further timestamp to the cluster to which a timestamp has already been assigned, not to change any other values or properties assigned to this cluster other than increasing the count value of this cluster. Vorrichtung nach einem der Ansprüche 7 bis 13, wobei die ein oder mehreren Merkmalsgruppen wenigstens zwei Merkmalsgruppen aufweisen, und wobei die Verarbeitungseinheit (120) ausgebildet ist, die wenigstens zwei Merkmalsgruppen zu einer geringeren Anzahl Merkmalsgruppen abhängig von einer Eigenschaft der wenigstens zwei Merkmalsgruppen zusammenzufassen.Device according to one of the Claims 7 until 13 , wherein the one or more feature groups have at least two feature groups, and wherein the processing unit (120) is designed to combine the at least two feature groups into a smaller number of feature groups depending on a property of the at least two feature groups. Vorrichtung nach Anspruch 17, wobei die Verarbeitungseinheit (120) ausgebildet ist, die wenigstens zwei Merkmalsgruppen zu der geringeren Anzahl Merkmalsgruppen abhängig von Differenzen zwischen den Zentralpunkten der wenigstens zwei Merkmalsgruppen zusammenzufassen.device according to claim 17 , wherein the processing unit (120) is designed to combine the at least two feature groups into the smaller number of feature groups depending on differences between the central points of the at least two feature groups. Vorrichtung nach einem der Ansprüche 14 bis 16, wobei die ein oder mehreren Cluster wenigstens zwei Cluster aufweisen, und wobei die Verarbeitungseinheit (120) ausgebildet ist, die wenigstens zwei Cluster zu einer geringeren Anzahl Cluster abhängig von einer Eigenschaft der wenigstens zwei Cluster zusammenzufassen.Device according to one of the Claims 14 until 16 , wherein the one or more clusters comprise at least two clusters, and wherein the processing unit (120) is configured to combine the at least two clusters into a smaller number of clusters depending on a property of the at least two clusters. Vorrichtung nach einem der vorherigen Ansprüche, wobei die Verarbeitungseinheit (120) ausgebildet ist, abhängig von den ein oder mehreren Verarbeitungsoperationen unter Einsatz eines maschinellen Lernverfahrens die Distanz zu bestimmen.Device according to one of the preceding claims, wherein the processing unit (120) is designed to determine the distance depending on the one or more processing operations using a machine learning method. Vorrichtung nach Anspruch 20, wobei die Verarbeitungseinheit (120) ausgebildet ist, als maschinelles Lernverfahren ein neuronales Netz einzusetzen.device according to claim 20 , wherein the processing unit (120) is designed to use a neural network as a machine learning method. Vorrichtung nach Anspruch 21, wobei die Verarbeitungseinheit (120) ausgebildet ist, das neuronale Netz als Regressor zu verwenden.device according to claim 21 , wherein the processing unit (120) is designed to use the neural network as a regressor. Vorrichtung nach Anspruch 21, wobei die Verarbeitungseinheit (120) ausgebildet ist, das neuronale Netz als Klassifikator zu verwenden.device according to claim 21 , wherein the processing unit (120) is designed to use the neural network as a classifier. Vorrichtung nach einem der Ansprüche 20 bis 23, wobei die Vorrichtung des Weiteren von Anspruch 5 abhängt, und die Verarbeitungseinheit (120) ausgebildet ist, die Datenstruktur als die Eingabe des maschinellen Lernverfahrens zu verwenden.Device according to one of the Claims 20 until 23 , wherein the device is further claim 5 and the processing unit (120) is configured to use the data structure as the input of the machine learning method. Vorrichtung nach einem der Ansprüche 20 bis 23, wobei die Vorrichtung des Weiteren von Anspruch 7 abhängt, und die Verarbeitungseinheit (120) ausgebildet ist, Informationen über die ein oder mehreren Merkmalsgruppen als Eingabe des maschinellen Lernverfahrens zu verwenden; oder wobei die Vorrichtung des Weiteren von Anspruch 14 abhängt, und die Verarbeitungseinheit (120) ausgebildet ist, Informationen über die ein oder mehreren Cluster als Eingabe des maschinellen Lernverfahrens zu verwenden.Device according to one of the Claims 20 until 23 , wherein the device is further claim 7 and the processing unit (120) is designed to use information about the one or more feature groups as input of the machine learning method; or wherein the device is further comprised of claim 14 and the processing unit (120) is configured to use information about the one or more clusters as input to the machine learning method. Vorrichtung nach einem der vorherigen Ansprüche, wobei die Verarbeitungseinheit (120) ausgebildet ist, abhängig von den ein oder mehreren Verarbeitungsoperationen ohne Einsatz eines maschinellen Lernverfahrens die Distanz zu bestimmen.Device according to one of the preceding claims, wherein the processing unit (120) is designed to determine the distance depending on the one or more processing operations without using a machine learning method. Verfahren zur Distanzbestimmung, wobei das Verfahren umfasst: Empfangen einer Mehrzahl von Zeitstempeln einer LiDAR Detektion, Durchführung von ein oder mehrerer Verarbeitungsoperationen durch eine Verarbeitungseinheit (120), und Bestimmen einer Distanz abhängig von den ein oder mehreren Verarbeitungsoperationen durch die Verarbeitungseinheit (120), wobei die Verarbeitungseinheit (120) bei der Durchführung der ein oder mehreren Verarbeitungsoperationen die Mehrzahl von Zeitstempeln derart gruppiert, dass zwei oder mehr Zeitstempel der Mehrzahl von Zeitstempeln aggregiert werden; und/oder wobei die Verarbeitungseinheit (120) bei der Durchführung der ein oder mehreren Verarbeitungsoperationen ein oder mehrere Zusatzdaten mehr als einem Zeitstempel der Mehrzahl von Zeitstempeln zuordnet.Method for determining distance, the method comprising: receiving a plurality of timestamps of a LiDAR detection, performing one or more processing operations by a processing unit (120), and determining a distance depending on the one or more processing operations by the processing unit (120), wherein the processing unit (120) groups the plurality of timestamps in such a way that two or more timestamps of the plurality of timestamps are aggregated when performing the one or more processing operations; and/or wherein the processing unit (120) assigns one or more additional data to more than one timestamp of the plurality of timestamps when performing the one or more processing operations. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 27.Computer program with a program code for carrying out the method according to claim 27 .
DE102023207294.7A 2023-07-31 2023-07-31 Storage-efficient device and storage-efficient method for determining measurement information Pending DE102023207294A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102023207294.7A DE102023207294A1 (en) 2023-07-31 2023-07-31 Storage-efficient device and storage-efficient method for determining measurement information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023207294.7A DE102023207294A1 (en) 2023-07-31 2023-07-31 Storage-efficient device and storage-efficient method for determining measurement information

Publications (1)

Publication Number Publication Date
DE102023207294A1 true DE102023207294A1 (en) 2025-02-06

Family

ID=94277467

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023207294.7A Pending DE102023207294A1 (en) 2023-07-31 2023-07-31 Storage-efficient device and storage-efficient method for determining measurement information

Country Status (1)

Country Link
DE (1) DE102023207294A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050243323A1 (en) * 2003-04-18 2005-11-03 Hsu Stephen C Method and apparatus for automatic registration and visualization of occluded targets using ladar data
EP1522870B1 (en) * 2003-10-06 2013-07-17 Triple-IN Holding AG Distance measurement
US20170052065A1 (en) 2015-08-20 2017-02-23 Apple Inc. SPAD array with gated histogram construction
EP3370080A1 (en) * 2017-03-01 2018-09-05 STMicroelectronics (Grenoble 2) SAS Range and parameter extraction using processed histograms generated from a time of flight sensor - parameter extraction
DE102017217844A1 (en) * 2017-10-06 2019-04-11 Robert Bosch Gmbh Method and a machine learning system for classifying objects
DE102020203796A1 (en) 2020-03-24 2021-09-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Method and device for determining measurement information and LiDAR device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050243323A1 (en) * 2003-04-18 2005-11-03 Hsu Stephen C Method and apparatus for automatic registration and visualization of occluded targets using ladar data
EP1522870B1 (en) * 2003-10-06 2013-07-17 Triple-IN Holding AG Distance measurement
US20170052065A1 (en) 2015-08-20 2017-02-23 Apple Inc. SPAD array with gated histogram construction
EP3370080A1 (en) * 2017-03-01 2018-09-05 STMicroelectronics (Grenoble 2) SAS Range and parameter extraction using processed histograms generated from a time of flight sensor - parameter extraction
DE102017217844A1 (en) * 2017-10-06 2019-04-11 Robert Bosch Gmbh Method and a machine learning system for classifying objects
DE102020203796A1 (en) 2020-03-24 2021-09-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Method and device for determining measurement information and LiDAR device

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Anup K. Sharma, Arnaud Laflaquière, Gennadiy A. Agranov, Gershon Rosenblum, and Shingo Mandai, „SPAD array with gated histogram construction
C. Zhang, S. Lindner, I. M. Antolovic, J. Mata Pavia, M. Wolf, and E. Charbon, „A 30-frames/s, 252×144 SPAD Flash LiDAR With 1728 Dual-Clock 48.8-ps TDCs, and Pixel-Wise Integrated Histogramming", IEEE J. Solid-State Circuits, vol. 54, no. 4, pp. 1137-1151, 2019, doi: 10.1109/JSSC.2018.2883720
F. Gutierrez-Barragan, A. Ingle, T. Seets, M. Gupta, and A. Velten, „Compressive Single-Photon 3D Cameras", 2022
Verfahren und Vorrichtung zum Bestimmen einer Messinformation und LiDAR-Gerät

Similar Documents

Publication Publication Date Title
EP3418767B1 (en) Optoelectronic sensor and method for measuring the distance to an object
DE102020203796B4 (en) Method and device for determining measurement information and LiDAR device
DE102017207317B4 (en) Device for determining a distance to an object and a corresponding method
EP3185038B1 (en) Optoelectronic sensor and method for measuring a distance
DE102017202353A1 (en) DEVICE FOR DETERMINING A DEPOSIT FOR AN OBJECT AND CORRESPONDING METHOD
DE112010003752T5 (en) DYNAMIC REAL-TIME REFERENCE GENERATION FOR A DISTANCE IMAGING SYSTEM
DE102017113674A1 (en) Optoelectronic sensor and method for measuring the distance to an object
DE102020115145A1 (en) Point cloud processing
DE102019207741B4 (en) A LIDAR system, a method for a LIDAR system, and a receiver for a LIDAR system having first and second conversion elements
DE102020103575A1 (en) Feature point detection apparatus and method for detecting feature points in image data
DE102018222800A1 (en) Locating and / or classifying objects from radar data with improved reliability at different distances
DE102021205484B4 (en) LASER DISTANCE MEASURING DEVICE METHOD OF OPERATING A LASER DISTANCE MEASURING DEVICE
DE112012004847T5 (en) Dynamic line detection system for processors with limited internal memory
DE102023207294A1 (en) Storage-efficient device and storage-efficient method for determining measurement information
EP3663881A1 (en) Method for controlling an autonomous vehicle on the basis of estimated movement vectors
DE102019202459A1 (en) Laser measuring device for measuring distances and methods of operating a laser measuring device for measuring distances
DE102017220774A1 (en) Apparatus and method for determining a distance to an object
EP3655920B1 (en) Method and device for analysing image sections for a correspondence calculation
DE112022004619T5 (en) TIME-DIGITAL TRANSFORMATION
EP3663800B1 (en) Method for detecting objects using a 3d camera
DE112021007178T5 (en) CONTROL METHOD FOR A LIDAR AND LIDAR
DE102021111602A1 (en) Computer-implemented method for correcting artifacts in measurement data generated by a time-of-flight 3D sensor, a corresponding computer program, a corresponding computer-readable medium and a PMD detector
DE102019201739A1 (en) Device and method for time-gating in time-based distance measurement
WO2005055429A1 (en) Digitizing a papillary structure
DE10148063A1 (en) Object recognition and following system for use in road vehicle has laser scanner connected to data processing computer selecting image points chosen for speed and height above ground

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication