DE102021006248A1 - object detection method - Google Patents
object detection method Download PDFInfo
- Publication number
- DE102021006248A1 DE102021006248A1 DE102021006248.5A DE102021006248A DE102021006248A1 DE 102021006248 A1 DE102021006248 A1 DE 102021006248A1 DE 102021006248 A DE102021006248 A DE 102021006248A DE 102021006248 A1 DE102021006248 A1 DE 102021006248A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- radar
- point cloud
- cloud data
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 36
- 238000010801 machine learning Methods 0.000 claims abstract description 6
- 230000002123 temporal effect Effects 0.000 claims abstract description 6
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Ein Objekterfassungsverfahren umfasst Schritte, die für jedes von einem Lidar-Modul empfangene Punktwolkendatenelement auszuführen sind, des Auswählens eines ersten zu kombinierenden Bildes aus Bildern, die von einer Kameraeinrichtung empfangen werden, wobei das erste zu kombinierende Bild zeitlich dem Punktwolkendatenelement entspricht (51), des Auswählens eines zweiten zu kombinierenden Bildes aus den Bildern, das in der zeitlichen Folge das N-te Bild vor dem ersten zu kombinierenden Bild ist (52), des Kombinierens des ersten zu kombinierenden Bildes und des zweiten zu kombinierenden Bildes, um ein kombiniertes Bild zu erzeugen (53), des Erzeugens eines Ergebnisbildes durch Einfügen des Punktwolkendatenelements in das kombinierte Bild (54), und des Eingebens des Ergebnisbildes in ein trainiertes maschinelles Lernmodell, um eine Klasse zu bestimmen, der jedes Objekt in dem Ergebnisbild zugehörig ist (55).An object detection method comprises steps, to be performed for each point cloud data item received from a lidar module, of selecting a first image to be combined from images received from a camera device, the first image to be combined corresponding in time to the point cloud data item (51), des selecting a second image to be combined from the images that is the Nth image before the first image to be combined in the temporal sequence (52), combining the first image to be combined and the second image to be combined to form a combined image generating (53), generating a result image by inserting the point cloud data item into the combined image (54), and inputting the result image into a trained machine learning model to determine a class to which each object in the result image belongs (55).
Description
Die vorliegende Offenbarung betrifft das Erfassen von Objekten und insbesondere ein Objekterfassungsverfahren, das mehrere Sensordatenquellen kombiniert.The present disclosure relates to object detection and, more particularly, to an object detection method that combines multiple sensor data sources.
Ein herkömmliches Verfahren zum Erfassen von Objekten, die einen Weg einer sich bewegenden Trägervorrichtung, wie z.B. eines autonomen mobilen Roboters (AMR) oder eines selbstfahrenden Autos, behindern, verwendet eine heterogene Multisensor-Fusion, die mehrere Datenquellen wie Radar, Lidar und Kamera einbezieht, um die Objekte zu erfassen, so dass eine Kollision zwischen den Objekten und der Trägervorrichtung vermieden werden kann. Die verschiedenen Sensordatenquellen stellen jeweils eine andere Datenart bei einer anderen Frequenz bereit. Beispielsweise kann das Radar alle 50 Millisekunden (ms) ein Radardatenelement erzeugen, das Lidar alle 100 ms ein Punktwolkendatenelement erzeugen, und die Kamera alle 33 ms ein Bild erzeugen. Aufgrund der unterschiedlichen Abtastfrequenzen sind die verschiedenen Datenarten, die von den verschiedenen Sensoren erhalten werden, zeitlich nicht synchronisiert, was bedeutet, dass die verschiedenen Datenarten zu einem gleichen Zeitpunkt nicht in Bezug auf den gleichen Raum erzeugt werden. Eine solche räumliche und zeitliche Asynchronisation zwischen den verschiedenen Datenarten beeinträchtigt die Genauigkeit für die Erfassung der Hindernisobjekte.A traditional method for detecting objects obstructing a path of a moving carrier device, such as an autonomous mobile robot (AMR) or a self-driving car, uses heterogeneous multi-sensor fusion involving multiple data sources such as radar, lidar, and camera, to detect the objects so that collision between the objects and the carrier device can be avoided. The different sensor data sources each provide a different type of data at a different frequency. For example, the radar may produce a radar data item every 50 milliseconds (ms), the lidar may produce a point cloud data item every 100 ms, and the camera may produce an image every 33 ms. Due to the different sampling frequencies, the different types of data obtained from the different sensors are not synchronized in time, which means that the different types of data are generated at the same point in time, not with respect to the same space. Such spatial and temporal asynchronization between the different types of data affects the accuracy for the detection of the obstacle objects.
Es ist daher eine Aufgabe der Erfindung, ein Objekterfassungsverfahren bereitzustellen, das den nachteiligen Effekt vermindern kann, der durch die räumliche und zeitliche Asynchronisation zwischen mehreren Datenarten verursacht wird, die durch mehrere Sensordatenquellen erzeugt werden.It is therefore an object of the invention to provide an object detection method that can reduce the adverse effect caused by the spatial and temporal asynchronization between multiple data types generated by multiple sensor data sources.
Gemäß einem Aspekt der Erfindung ist das Objekterfassungsverfahren durch eine Recheneinrichtung auszuführen, die mit einer Kameraeinrichtung und einem Lidar-Modul, die auf einer Trägervorrichtung angeordnet sind, kommunizieren. Die Kameraeinrichtung ist dazu eingerichtet, kontinuierlich eine Serie von Bildern aufzunehmen, die eine Szene, die in der Nähe der Trägervorrichtung ist, zeigen, wobei die Szene mindestens ein Objekt umfasst. Das Lidar-Modul ist dazu eingerichtet, die Szene, die in der Nähe der Trägervorrichtung ist, kontinuierlich zu scannen, um mehrere Punktwolkendatenelemente, welche die Szene repräsentieren, in Serie zu erzeugen. Die Recheneinrichtung ist dazu eingerichtet, die Bilder von der Kameraeinrichtung und die Punktwolkendatenelemente vom Lidar-Modul zu empfangen. Das Objekterfassungsverfahren weist die folgenden Schritte auf, die in Bezug auf jedes der Punktwolkendatenelemente auszuführen sind, nachdem das Punktwolkendatenelement vom Lidar-Modul empfangen wurde: Auswählen eines ersten zu kombinierenden Bildes aus den Bildern, die von der Kameraeinrichtung empfangen worden sind, wobei das erste zu kombinierende Bild zeitlich dem Punktwolkendatenelement entspricht; Auswählen eines zweiten zu kombinierenden Bildes aus den Bildern, die von der Kameraeinrichtung empfangen worden sind, wobei das zweite zu kombinierende Bild das N-te Bild vor dem ersten zu kombinierenden Bild in der zeitlichen Folge der Bildaufnahme ist und N eine ganze Zahl ist, die nicht kleiner ist als drei; Kombinieren des ersten zu kombinierenden Bildes und des zweiten zu kombinierenden Bildes, um ein kombiniertes Bild zu erzeugen; Erzeugen eines Ergebnisbildes durch Einfügen des Punktwolkendatenelements in das kombinierte Bild; und Eingeben des Ergebnisbildes in ein trainiertes maschinelles Lernmodell, um eine Klasse zu bestimmen, der jedes in dem Ergebnisbild dargestellte Objekt zu gehörig ist.According to one aspect of the invention, the object detection method is to be carried out by a computing device that communicates with a camera device and a lidar module that are arranged on a carrier device. The camera device is set up to continuously record a series of images showing a scene that is in the vicinity of the carrier device, the scene comprising at least one object. The lidar module is configured to continuously scan the scene proximate to the host device to serially generate a plurality of point cloud data items representing the scene. The computing device is set up to receive the images from the camera device and the point cloud data elements from the lidar module. The object detection method has the following steps to be performed in relation to each of the point cloud data items after the point cloud data item has been received by the lidar module: selecting a first image to be combined from the images received from the camera device, the first to combining image temporally corresponds to the point cloud data item; selecting a second image to be combined from the images received from the camera device, the second image to be combined being the Nth image prior to the first image to be combined in the temporal sequence of image capture and N being an integer that is not less than three; combining the first image to be combined and the second image to be combined to create a combined image; generating a resultant image by inserting the point cloud data item into the combined image; and inputting the resultant image to a trained machine learning model to determine a class to which each object represented in the resultant image belongs.
Weitere Merkmale und Vorteile der Erfindung werden in der folgenden ausführlichen Beschreibung der Ausführungsformen unter Bezug auf die beigefügten Zeichnungen deutlich; wobei:
-
1 ein Blockdiagramm zum beispielhaften Darstellen eines Objekterfassungssystems gemäß einer Ausführungsform der Offenbarung zeigt; -
2 ein Flussdiagramm zum beispielhaften Darstellen einen ersten Vorgang eines Objekterfassungsverfahrens gemäß einer Ausführungsform der Offenbarung zeigt; -
3 ein Flussdiagramm zum beispielhaften Darstellen von Teilschritten vonSchritt 21 des ersten Vorgangsgemäß einer Ausführungsform der Offenbarung zeigt; -
4 ein schematisches Diagramm zum beispielhaften Darstellen einer ersten Umrechnungsregel und von Radarzeitperioden gemäß einer Ausführungsform der Offenbarung zeigt; -
5 ein Flussdiagramm zum beispielhaften Darstellen eines zweiten Vorgangs des Objekterfassungsverfahrens gemäß einer Ausführungsform der Offenbarung zeigt; -
6 ein Flussdiagramm zum beispielhaften Darstellen von Teilschritten vonSchritt 51 des zweiten Vorgangs gemäß einer Ausführungsform der Offenbarung zeigt; -
7 ein schematisches Diagramm zum beispielhaften Darstellen einer zweiten Umrechnungsregel und von Kamerazeitperioden gemäß einer Ausführungsform der Offenbarung zeigt; und -
8 ein Flussdiagramm zum beispielhaften Darstellen von Teilschritten vonSchritt 54 des zweiten Vorgangs gemäß einer Ausführungsform der Offenbarung zeigt.
-
1 Figure 12 shows a block diagram exemplifying an object detection system according to an embodiment of the disclosure; -
2 FIG. 12 shows a flowchart exemplifying a first operation of an object detection method according to an embodiment of the disclosure; FIG. -
3 Figure 12 shows a flowchart exemplifying sub-steps ofstep 21 of the first process according to an embodiment of the disclosure; -
4 Figure 12 shows a schematic diagram exemplifying a first conversion rule and radar time periods according to an embodiment of the disclosure; -
5 Fig. 12 shows a flow chart exemplifying a second process of the object detection method according to an embodiment of the disclosure; -
6 Fig. 12 shows a flowchart exemplifying sub-steps ofstep 51 of the second process according to an embodiment of the disclosure; -
7 Figure 12 shows a schematic diagram exemplifying a second conversion rule and camera time periods according to an embodiment of the disclosure; and -
8th a flowchart for the exemplary representation of sub-steps ofstep 54 of second operation according to an embodiment of the disclosure.
Bevor die Offenbarung näher beschrieben wird, wird darauf hingewiesen, dass, wo es als angemessen erachtet wird, Bezugszeichen oder Endabschnitte von Bezugszeichen in den Figuren wiederholt vorkommen, um entsprechende oder analoge Elemente zu bezeichnen, die optional ähnliche Eigenschaften haben können.Before the disclosure is described in further detail, it is noted that, where considered appropriate, reference numbers or suffixes of reference numbers are repeated among the figures to indicate corresponding or analogous elements that may optionally have similar characteristics.
Die Kameraeinrichtung 11 ist dazu eingerichtet, kontinuierlich eine Serie von Bildern einer Szene in der Nähe der Trägervorrichtung, auf der das Objekterfassungssystem angeordnet ist, aufzunehmen. Die Szene kann mindestens ein Objekt umfassen. Gemäß einigen Ausführungsformen kann die Kameraeinrichtung 11 eine Kamera sein. In einer Ausführungsform ist die Kameraeinrichtung 11 eine Kamera, die alle 33 ms ein Bild aufnimmt.The
Das Lidar-Modul 12 ist dazu eingerichtet, die Szene in der Nähe der Trägervorrichtung kontinuierlich zu scannen, um in Serie mehrere Punktwolkendatenelemente zu erzeugen, die die Szene repräsentieren. Gemäß einigen Ausführungsformen kann das Lidar-Modul 12 ein Lidar-Sensor sein. In einer Ausführungsform ist das Lidar-Modul 12 ein Lidar-Sensor, der alle 100 ms ein Punktwolkendatenelement durch Scannen der Szene von rechts nach links erzeugt.The
Das Radarmodul 13 ist dazu eingerichtet, die Szene in der Umgebung der Trägervorrichtung 20 kontinuierlich zu scannen, um in Serie mehrere Radardatenelemente zu erzeugen, die die Szene darstellen.The
Gemäß einigen Ausführungsformen kann das Radarmodul 13 ein Radarsensor sein. In einer Ausführungsform ist das Radarmodul 13 ein Radarsensor, der alle 50 ms ein Radardatenelement erzeugt.According to some embodiments, the
Die Kameraeinrichtung 11, das Lidar-Modul 12 und das Radarmodul 13 erfassen und scannen in einigen Ausführungsformen die Szene vor der Trägervorrichtung, können aber in anderen Ausführungsformen auch die Szene um die Trägervorrichtung herum erfassen und scannen.The
Die Recheneinrichtung 14 ist dazu eingerichtet, die Bilder von der Kameraeinrichtung 11, die Punktwolkendatenelemente vom Lidar-Modul 12 und die Radardatenelemente vom Radarmodul 13 zu empfangen. Gemäß einigen Ausführungsformen kann die Recheneinrichtung 14 ein Prozessor, ein Mikroprozessor oder eine andere Art von Computerchip sein.The
Das Objekterfassungssystem ist dazu eingerichtet, ein Objekterfassungsverfahren auszuführen, wenn es auf einer sich bewegenden Trägervorrichtung angeordnet ist. Das Objekterfassungsverfahren weist einen ersten Vorgang und einen zweiten Vorgang auf. Der erste Vorgang steht mit den Punktwolkendatenelementen vom Lidar-Modul 12 und den Radardatenelementen vom Radarmodul 13 in Beziehung. Der zweite Vorgang steht mit den Punktwolkendatenelementen vom Lidar-Modul 12 und den Bildern der Kameraeinrichtung 11 in Beziehung. Jedes Mal, wenn die Recheneinrichtung 14 ein Punktwolkendatenelement vom Lidar-Modul 12 empfängt, führt das Objekterfassungssystem den ersten Vorgang und den zweiten Vorgang aus.The object detection system is set up to carry out an object detection method when it is arranged on a moving carrier device. The object detection method has a first process and a second process. The first process relates to the point cloud data items from
In Schritt 21 wählt die Recheneinrichtung 14 für das aktuelle Punktwolkendatenelement ein Ziel-Radardatenelement aus den Ziel-Radardatenelementen aus, die die Recheneinrichtung 14 vom Radarmodul 13 empfangen hat, wobei das Ziel-Radardatenelement zeitlich dem aktuellen Punktwolkendatenelement entspricht. Insbesondere weist Schritt 21 die in
In Teilschritt 211 wählt die Recheneinrichtung 14 einen ersten Radardatenelementkandidaten und einen zweiten Radardatenelementkandidaten aus den Radardatenelementen aus, die vom Radarmodul 13 empfangen worden sind. Der erste Radardatenelementkandidat ist eines der Radardatenelemente, die das Radarmodul 13 zu einem Zeitpunkt erzeugt hat (nachstehend auch als „Zeitpunkt des ersten Radarkandidaten“ bezeichnet), der vor und am nähesten zu einem Zeitpunkt (nachstehend auch als „Punktwolkendatenzeitpunkt" bezeichnet) liegt, zu dem das Lidar-Modul 12 das aktuelle Punktwolkendatenelement erzeugt. Der zweite Radardatenelementkandidat ist das vorherige Radardatenelement vor dem ersten Radardatenelementkandidaten in der zeitlichen Folge der Radardatenerzeugung. Ein Zeitpunkt, zu dem das Radarmodul 13 den zweiten Radardatenelementkandidaten erzeugt, wird nachstehend als „Zeitpunkt des zweiten Radarkandidaten“ bezeichnet.In
In Teilschritt 212 bestimmt die Recheneinrichtung 14 basierend mindestens auf dem ersten Radardatenelementkandidaten einen ersten Objektparameterwert, der mit einem des mindestens einen Objekts (nachstehend auch als „Referenzobjekt“ bezeichnet) in der Szene in der Umgebung der Trägervorrichtung verknüpft ist. Gemäß einigen Ausführungsformen kann der Objektparameter ein Abstand des Referenzobjekts von der Trägervorrichtung, eine Relativposition des Referenzobjekts in Bezug auf die Trägervorrichtung oder eine Relativgeschwindigkeit des Referenzobjekts in Bezug auf die Trägervorrichtung sein, ohne darauf beschränkt zu sein. Das Herleiten von Information über den Abstand, die Relativposition und die Relativgeschwindigkeit aus den Radardatenelementen ist im Stand der Technik bekannt und wird hier nicht beschrieben.In
In Teilschritt 213 bestimmt die Recheneinrichtung 14 basierend mindestens auf dem zweiten Radardatenelementkandidaten einen zweiten Objektparameterwert, der mit dem Referenzobjekt in der Szene verknüpft ist.In
In Teilschritt 214 bestimmt die Recheneinrichtung 14 einen Schätzwert des Objektparameters, der dem Punktwolkendatenzeitpunkt, zu dem das aktuelle Punktwolkendatenelement durch das Lidar-Modul 12 erzeugt wird, entspricht. In
Insbesondere wird der Schätzwert basierend auf dem Punktwolkendatenzeitpunkt, dem Zeitpunkt des ersten Radarkandidaten, dem Zeitpunkt des zweiten Radarkandidaten, dem in Schritt 212 bestimmten ersten Wert und dem in Schritt 213 bestimmten zweiten Wert bestimmt. In einigen Ausführungsformen, in denen der Objektparameter der Abstand des Referenzobjekts von der Trägervorrichtung ist, wird der Schätzwert unter Verwendung einer Formel hergeleitet:
In Teilschritt 215 bestimmt die Recheneinrichtung 14 basierend auf dem Schätzwert des Objektparameters und einer ersten Umrechnungsregel, die eine Beziehung zwischen dem Objektparameter und der Zeit definiert, eine Radarzeitperioden, die mit dem Schätzwert verknüpft ist. Insbesondere entsprechen die durch das Radarmodul 13 erzeugten Radardatenelemente jeweils unterschiedlichen Radarzeitperioden. Eine einem Radardatenelement entsprechende Radarzeitperiode wird als eine Zeitdauer bestimmt, die an einem Zeitpunkt beginnt, an dem das Radarmodul 13 das Radardatenelement erzeugt, und genau dann endet, bevor das Radarmodul 13 ein nächstes Radardatenelement erzeugt. Darüber hinaus bestimmt die Recheneinrichtung 14 einen geschätzten Zeitpunkt basierend auf dem Schätzwert und der ersten Umrechnungsregel und bestimmt dann die eine Radarzeitperiode aus den Radarzeitperioden, in die der geschätzte Zeitpunkt fällt. Die erste Umrechnungsregel ist eine Funktion des Objektparameters und wird basierend auf den Zeitpunkten, zu denen die Radardatenelemente durch das Radarmodul 13 jeweils erzeugt werden, und basierend auf Objektparameterwerten, die jeweils in Bezug auf die Radardatenelemente bestimmt werden, hergeleitet.
In Teilschritt 216 wählt die Recheneinrichtung 14 eines der vom Radarmodul 13 empfangenen Radardatenelemente, das der in Teilschritt 215 bestimmten Radarzeitperiode entspricht, als Ziel-Radardatenelement aus. Es wird darauf hingewiesen, dass die Teilschritte 211 - 216 das Ziel-Radardatenelement effektiv bestimmen können derart, dass es das Radardatenelement ist, das zeitlich am ehesten mit dem aktuellen Punktwolkendatenelement übereinstimmt, unabhängig davon, welche Abtastfrequenzen das Lidar-Modul 12 und das Radarmodul 13 verwenden, und unabhängig davon, wann das Lidar-Modul 12 und das Radarmodul 13 mit dem Scannen der Szene beginnen. Das auf diese Weise ausgewählte Ziel-Radardatenelement stellt einen Ausschnitt der Szene dar, der dem Ausschnitt der Szene, der durch das aktuelle Punktwolkendatenelement repräsentiert wird, zeitlich am nächsten liegt.In
Zurück zu
In Schritt 23 verwendet die Recheneinrichtung 14 ein Kalman-Filter, um für jedes des mindestens einen Objekts eine Position des Objekts basierend auf der Lidar-Positionsinformation, die für das aktuelle Punktwolkendatenelement erhalten wird, und der Lidar-Positionsinformation, die zuvor für jedes des mindestens einen Punktwolkendatenelements erhalten wurde, das vor dem aktuellen Punktwolkendatenelement empfangen wurde (als „mindestens ein vorheriges Punktwolkendatenelement“ bezeichnet), zu verfolgen, und bestimmt für jedes des mindestens einen Objekts einen Relativabstand des Objekts von der Trägervorrichtung basierend auf der derart verfolgten Position des Objekts. Es wird darauf hingewiesen, dass die Position des Objekts, die unter Verwendung des Kalman-Filters basierend auf der Lidar-Positionsinformation verfolgt wird, genauer ist als die Position des Objekts, die durch die Lidar-Positionsinformation angezeigt wird.In
In Schritt 24 analysiert die Recheneinrichtung 14 das Ziel-Radardatenelement, das für das aktuelle Punktwolkendatenelement in Schritt 21 ausgewählt worden ist, unter Verwendung des orientierten Bounding-Box-Algorithmus, um Radarpositionsinformation in Bezug auf das mindestens eine Objekt in der Szene zu erhalten, die durch das Radarmodul 13 gescannt und im Ziel-Radardatenelement aufgezeichnet wird. Die RadarPositionsinformation zeigt eine Position jedes des mindestens einen Objekts an, die von dem Ziel-Radardatenelement hergeleitet wird.In
In Schritt 25 verwendet die Recheneinrichtung 14 das Kalman-Filter, um für jedes des mindestens einen Objekts eine Position des Objekts basierend auf der Radarpositionsinformation, die in Bezug auf das aktuelle Punktwolkendatenelement erhalten wird, und der Radarpositionsinformation, die zuvor in Bezug auf jedes des mindestens einen vorherigen Punktwolkendatenelements erhalten wurde, zu verfolgen, und bestimmt für jedes des mindestens einen Objekts eine Relativgeschwindigkeit des Objekts in Bezug auf die Trägervorrichtung basierend auf der derart verfolgten Position des Objekts. Es wird darauf hingewiesen, dass die Position des Objekts, die unter Verwendung des Kalman-Filters basierend auf der Radarpositionsinformation verfolgt wird, im Vergleich zu der durch die Radarpositionsinformation angezeigten Position des Objekts genauer ist.In
Der in
In Schritt 51 wählt die Recheneinrichtung 14 für das aktuelle Punktwolkendatenelement ein erstes zu kombinierendes Bild aus den Bildern aus, die die Recheneinrichtung 14 von der Kameraeinrichtung 11 empfangen hat, wobei das erste zu kombinierende Bild zeitlich dem aktuellen Punktwolkendatenelement entspricht. Insbesondere weist Schritt 51 die in
In Teilschritt 511 wählt die Recheneinrichtung 14 ein erstes Kandidatenbild und ein zweites Kandidatenbild aus den Bildern aus, die von der Kameraeinrichtung 11 empfangen worden sind. Das erste Kandidatenbild ist eines der Bilder, die durch die Kameraeinrichtung 11 zu einem Zeitpunkt (nachstehend als „Zeitpunkt des ersten Bildkandidaten“ bezeichnet) aufgenommen wird, der vor dem Punktwolkendaten-Zeitpunkt und diesem am nächsten liegt, wobei das Lidar-Modul 12 das aktuelle Punktwolkendatenelement zu dem Punktwolkendaten-Zeitpunkt erzeugt. Das zweite Kandidatenbild ist das vorherige eine Bild, das in der zeitlichen Folge, in der die Bilder aufgenommen werden, vor dem ersten Kandidatenbild liegt. Ein Zeitpunkt, zu dem die Kameraeinrichtung 11 das zweite Kandidatenbild erzeugt, wird nachstehend als „Zeitpunkt des zweiten Bildkandidaten“ bezeichnet.In
In Teilschritt 512 bestimmt die Recheneinrichtung 14 basierend zumindest auf dem ersten Kandidatenbild einen dritten Objektparameterwert, der mit dem Referenzobjekt in der Szene in der Umgebung der Trägervorrichtung verknüpft ist.In
In Teilschritt 513 bestimmt die Recheneinrichtung 14 einen vierten Objektparameterwert basierend zumindest auf dem zweiten Kandidatenbild.In
In Fällen, in denen der Objektparameter die Relativposition des Referenzobjekts in Bezug auf die Trägervorrichtung ist, ist das Herleiten von Information über die Relativposition vom ersten und vom zweiten Kandidatenbild aus dem Stand der Technik bekannt. In einigen Ausführungsformen, in denen der Objektparameter der Abstand des Referenzobjekts von der Trägervorrichtung oder die Relativgeschwindigkeit des Referenzobjekts in Bezug auf die Trägervorrichtung ist, können der dritte und der vierte Wert vom ersten und vom zweiten Kandidatenbild basierend auf einer Brennweite eines durch die Kameraeinrichtung 11 verwendeten Objektivs hergeleitet werden und können ferner basierend auf einer Kameramodellformel basieren, die von einem Lochkameramodell zum Kalibrieren der Kameraeinrichtung 11 hergeleitet wird, es können aber auch andere bekannte Verfahren zum Bestimmen von Abständen und/oder Relativgeschwindigkeiten von Bildern verwendet werden.In cases where the object parameter is the relative position of the reference object with respect to the support device, deriving information about the relative position from the first and second candidate images is known in the prior art. In some embodiments, in which the object parameter is the distance of the reference object from the carrier device or the relative speed of the reference object with respect to the carrier device, the third and fourth values from the first and second candidate images can be based on a focal length of a used by the
In Teilschritt 514 bestimmt die Recheneinrichtung 14 einen hergeleiteten Objektparameterwert, der dem Punktwolkendaten-Zeitpunkt entspricht, zu dem das aktuelle Punktwolkendatenelement durch das Lidar-Modul 12 erzeugt wird. Insbesondere wird der Schätzwert basierend auf dem Punktwolkendatenzeitpunkt, dem Zeitpunkt des ersten Bildkandidaten, dem Zeitpunkt des zweiten Bildkandidaten, dem in Schritt 512 bestimmten dritten Wert und dem in Schritt 513 bestimmten vierten Wert bestimmt. In einigen Ausführungsformen, in denen der Objektparameter der Abstand des Referenzobjekts von der Trägervorrichtung ist, wird der hergeleitete Wert unter Verwendung der folgenden Formel hergeleitet:
In Teilschritt 515 bestimmt die Recheneinrichtung 14 basierend auf dem hergeleiteten Objektparameterwert und einer zweiten Umrechnungsregel, die eine Beziehung zwischen dem Objektparameter und der Zeit definiert, eine Kamerazeitperiode, die mit dem hergeleiteten Wert verknüpft ist. Insbesondere entsprechen die durch die Kameraeinrichtung 11 aufgenommenen Bilder jeweils verschiedenen Kamerazeitperioden. Eine Kamerazeitdauer, die einem Bild entspricht, ist als eine Zeitdauer bestimmt, die zu einem Zeitpunkt beginnt, an dem das Bild durch die Kameraeinrichtung 11 aufgenommen wird, und genau dann endet, bevor die Kameraeinrichtung 11 ein nächstes Bild aufnimmt. Außerdem bestimmt die Recheneinrichtung 14 einen hergeleiteten Zeitpunkt basierend auf dem hergeleiteten Wert und der zweiten Umrechnungsregel und bestimmt dann die eine Kamerazeitperiode von den Kamerazeitperioden, in die der hergeleitete Zeitpunkt fällt. Die zweite Umrechnungsregel ist eine Funktion des Objektparameters und wird basierend auf den Zeitpunkten, zu denen die Bilder jeweils durch die Kameraeinrichtung 11 jeweils aufgenommen werden, und basierend auf Objektparameterwerten, die jeweils in Bezug auf die Bilder bestimmt werden, hergeleitet.
In Teilschritt 516 wählt die Recheneinrichtung 14 eines der von der Kameraeinrichtung 11 empfangenen Bilder, das der in Teilschritt 515 bestimmten Kamerazeitperiode entspricht, als das erste zu kombinierende Bild aus. Es wird darauf hingewiesen, dass die Teilschritte 511 - 516 das erste zu kombinierende Bild effektiv bestimmen können derart, dass es das Bild ist, das zeitlich am ehesten mit dem aktuellen Punktwolkendatenelement übereinstimmt, unabhängig davon, welche Abtastfrequenzen die Kameraeinrichtung 11 und das Lidar-Modul 12 verwenden, und unabhängig davon, wann die Kameraeinrichtung 11 und das Lidar-Modul 12 mit dem Fotografieren und Scannen der Szene beginnen.In
Zurück zu
In Schritt 53 kombiniert die Recheneinrichtung 14 das erste zu kombinierende Bild und das zweite zu kombinierende Bild, um ein kombiniertes Bild in Bezug auf das aktuelle Punktwolkendatenelement zu erzeugen. In einigen Ausführungsformen fügt die Recheneinrichtung 14 einen Teil des ersten zu kombinierenden Bildes mit einem Teil des zweiten zu kombinierenden Bildes zusammen, um das kombinierte Bild zu erzeugen. In einer Ausführungsform, in der das Lidar-Modul 12 die Szene in der Richtung von rechts nach links scannt, fügt die Recheneinrichtung 14 die linke Hälfte des ersten zu kombinierenden Bildes mit der rechten Hälfte des zweiten zu kombinierenden Bildes (das früher als das erste zu kombinierende Bild aufgenommen wurde) zusammen, um das kombinierte Bild zu erzeugen, so dass der Inhalt des kombinierten Bildes sowohl zeitlich als auch räumlich eher mit dem Inhalt des aktuellen Punktwolkendatenelements übereinstimmen kann, das Daten umfasst, die den rechten Teil der Szene widerspiegeln, der früher gescannt/erhalten wurde, sowie Daten, die den linken Teil der Szene widerspiegeln, der später gescannt/erhalten wurde.In
In Schritt 54 erzeugt die Recheneinrichtung 14 ein Ergebnisbild in Bezug auf das aktuelle Punktwolkendatenelement durch Einbeziehen des aktuellen Punktwolkendatenelements in das kombinierte Bild. Insbesondere umfasst Schritt 54 die in
In Teilschritt 541 erzeugt die Recheneinrichtung 14 ein zweidimensionales (2D) Punktwolkendatenelement basierend auf dem aktuellen Punktwolkendatenelement und einem Satz von Koordinatenumrechnungskoeffizienten. Gemäß einigen Ausführungsformen kann das Erzeugen des 2D-Punktwolkendatenelements eine Dimensionalitätsreduktion unter Verwendung einer PCA umfassen. Der Satz von Umrechnungskoeffizienten ist mit einem Punktwolken-Koordinatensystem verknüpft, das mit dem durch das Lidar-Modul 12 erzeugten Punktwolkendatenelement assoziiert ist, und ist mit einem Bildpixel-Koordinatensystem verknüpft, das mit den durch die Kameraeinrichtung 11 aufgenommenen Bildern assoziiert ist. Der Satz von Umrechnungskoeffizienten weist eine intrinsische Matrix und eine extrinsische Matrix auf. Die intrinsische Matrix kann basierend auf der Brennweite (in Pixeln) der Kameraeinrichtung 11 und einem Satz von Zentralkoordinaten der durch die Kameraeinrichtung 11 erzeugten Bilder hergeleitet werden. Die extrinsische Matrix kann basierend auf einer Relativposition des Lidar-Moduls 12 in Bezug auf die Position der Kameraeinrichtung 11 hergeleitet werden. Das Umwandeln des aktuellen Punktwolkendatenelements in das 2D-Punktwolkendatenelement kann durch bekannte Techniken erreicht werden, z.B. mit der Technologie der Camera Calibration Toolbox für Mat-Lab, wie auf der Website www.vision.caltech.edu beschrieben ist. Gemäß einigen Ausführungsformen kann das 2D-Punktwolkendatenelement ein Bild sein, das mehrere Punkte umfasst, die ein Objekt bzw. Objekte repräsentieren und die durch das Lidar-Modul 12 erfasst und im aktuellen Punktwolkendatenelement repräsentiert sind, und die jeweils Datenpunkten entsprechen, die im aktuellen Punktwolkendatenelement umfasst sind (d.h. die Punkte im 2D-Punktwolkendatenelement sind eine abgebildete Version der Datenpunkte im aktuellen Punktwolkendatenelement).In
In Teilschritt 542 erfasst die Recheneinrichtung 14 Randmerkmale, die im 2D-Punktwolkendatenelement auftreten und mit dem mindestens einen Objekt in der Szene verknüpft sind, um Grenzen des mindestens einen Objekts zu finden, das im 2D-Punktwolkendatenelement repräsentiert ist. Die Randerfassung in Punktwolken ist auf dem Fachgebiet bekannt und wird daher hier nicht im Detail beschrieben.In
In Teilschritt 543 erfasst die Recheneinrichtung 14 Randmerkmale, die im kombinierten Bild auftreten und mit dem mindestens einen Objekt in der Szene verknüpft sind, um Grenzen des mindestens einen Objekts zu finden, das im kombinierten Bild repräsentiert ist. Die Randerfassung in Bildern ist ebenfalls auf dem Fachgebiet bekannt und wird hier nicht im Detail beschrieben.In
In Teilschritt 544 führt die Recheneinrichtung 14 eine Bildregistrierung bezüglich des 2D-Punktwolkendatenelements und des kombinierten Bildes durch Ausrichten der Randmerkmale im 2D-Punktwolkendatenelement mit den Randmerkmalen im kombinierten Bild aus, um das Ergebnisbild zu erzeugen.In
Zurückkommend zu
Gemäß einigen Ausführungsformen kann die Recheneinrichtung 14 den in Schritt 23 bestimmten Relativabstand, die in Schritt 25 bestimmte Relativgeschwindigkeit und die in Schritt 55 bestimmte Klasse verwenden, um zu bestimmen, ob irgendein Objekt (d.h. ein Hindernis) vorhanden ist, das sich auf der Route der Trägervorrichtung befindet. In einigen Ausführungsformen kann die Recheneinrichtung 14 die Trägervorrichtung derart steuern, dass sie ihre Route ändert, um das Hindernis zu umgehen, oder ein Warnsignal ausgibt (z.B. ein Tonsignal, das über einen auf der Trägervorrichtung installierten Lautsprecher ausgegeben wird, eine Nachricht, die auf einem auf der Trägervorrichtung installierten Bildschirm angezeigt wird, oder ein Lichtsignal, das von einer auf der Trägervorrichtung installierten Glühlampe ausgegeben wird), um die Aufmerksamkeit einer Aufsichtsperson zu erregen, die den Betrieb der Trägervorrichtung überwacht, so dass eine Kollision der Trägervorrichtung mit dem Hindernis vermieden wird.According to some embodiments,
Unter Verwendung des vorstehend beschriebenen Objekterfassungsverfahrens, das den ersten und den zweiten Vorgang aufweist, die in den
In der vorstehenden Beschreibung sind zu Erläuterungszwecken zahlreiche spezifische Details dargelegt worden, um ein umfassendes Verständnis der Ausführungsformen zu ermöglichen. Für Fachleute ist jedoch offensichtlich, dass eine oder mehrere andere Ausführungsformen ohne einige dieser spezifischen Details realisierbar sind. Es sollte auch klar sein, dass in der vorliegenden Patentschrift die Bezugnahme auf „eine Ausführungsform“, eine Ausführungsform mit der Angabe einer Ordnungszahl usw. bedeutet, dass bei der praktischen Anwendung der Offenbarung ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Eigenschaft umfasst sein kann. Es sollte ferner beachtet werden, dass in der Beschreibung verschiedene Merkmale manchmal in einer einzigen Ausführungsform, Figur oder Beschreibung davon zusammengefasst sind, um die Beschreibung zu straffen und das Verständnis für die verschiedenen erfinderischen Aspekte zu erleichtern, und dass bei der praktischen Anwendung der Offenbarung gegebenenfalls ein oder mehrere Merkmale oder spezifische Details einer Ausführungsform zusammen mit einem oder mehreren Merkmalen oder spezifischen Details einer anderen Ausführungsform implementiert sein können.In the foregoing description, for the purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of the embodiments. However, it will be apparent to those skilled in the art that one or more other embodiments may be implemented without some of these specific details. It should also be understood that reference throughout this specification to “an embodiment,” an embodiment with an atomic number designation, etc., means that a particular feature, structure, or characteristic is encompassed in the practice of the disclosure can. It should further be noted that in the description, various features are sometimes grouped together into a single embodiment, figure, or description thereof in order to streamline the description and to facilitate understanding of the various inventive aspects and that in the practice of the disclosure, where appropriate one or more features or specific details of one embodiment may be implemented together with one or more features or specific details of another embodiment.
Claims (9)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102021006248.5A DE102021006248A1 (en) | 2021-12-17 | 2021-12-17 | object detection method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102021006248.5A DE102021006248A1 (en) | 2021-12-17 | 2021-12-17 | object detection method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102021006248A1 true DE102021006248A1 (en) | 2023-06-22 |
Family
ID=86606541
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102021006248.5A Pending DE102021006248A1 (en) | 2021-12-17 | 2021-12-17 | object detection method |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102021006248A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20180329066A1 (en) | 2017-05-15 | 2018-11-15 | Ouster, Inc. | Augmenting panoramic lidar results with color |
| US20190120948A1 (en) | 2017-10-19 | 2019-04-25 | DeepMap Inc. | Lidar and camera synchronization |
| EP3525131A1 (en) | 2018-02-09 | 2019-08-14 | Bayerische Motoren Werke Aktiengesellschaft | Methods and apparatuses for object detection in a scene represented by depth data of a range detection sensor and image data of a camera |
| US20190353774A1 (en) | 2018-05-18 | 2019-11-21 | Industrial Technology Research Institute | Object detection system, autonomous vehicle using the same, and object detection method thereof |
| WO2020232016A1 (en) | 2019-05-13 | 2020-11-19 | Ouster, Inc. | Synchronized image capturing for electronic scanning lidar systems |
-
2021
- 2021-12-17 DE DE102021006248.5A patent/DE102021006248A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20180329066A1 (en) | 2017-05-15 | 2018-11-15 | Ouster, Inc. | Augmenting panoramic lidar results with color |
| US20190120948A1 (en) | 2017-10-19 | 2019-04-25 | DeepMap Inc. | Lidar and camera synchronization |
| EP3525131A1 (en) | 2018-02-09 | 2019-08-14 | Bayerische Motoren Werke Aktiengesellschaft | Methods and apparatuses for object detection in a scene represented by depth data of a range detection sensor and image data of a camera |
| US20190353774A1 (en) | 2018-05-18 | 2019-11-21 | Industrial Technology Research Institute | Object detection system, autonomous vehicle using the same, and object detection method thereof |
| WO2020232016A1 (en) | 2019-05-13 | 2020-11-19 | Ouster, Inc. | Synchronized image capturing for electronic scanning lidar systems |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102013205952B4 (en) | Reconfigurable system and method for the detection of a free path | |
| DE102020214863A1 (en) | SELF-MONITORED PROCEDURE AND SYSTEM FOR DEPTH ESTIMATION | |
| DE102011117585B4 (en) | Systems and methods for tracking objects | |
| DE112009000949T5 (en) | Detection of a free driving path for a vehicle | |
| DE102019115874A1 (en) | SYSTEMS AND METHODS FOR IMPROVED DISTANCE ESTIMATION BY A MONOCAMERA USING RADAR AND MOTION DATA | |
| DE102006012914B4 (en) | System and method for determining the distance to a preceding vehicle | |
| DE102009048699A1 (en) | Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface | |
| DE102019100575A1 (en) | METHOD AND SYSTEM FOR PRODUCING A AREA PICTURE USING LOW DEPTH DATA | |
| EP3299995A1 (en) | Image analysis system for agricultural work machines | |
| DE102013205854B4 (en) | Method for detecting a free path using temporary coherence | |
| DE102009048892A1 (en) | Clear traveling path detecting method for vehicle e.g. car, involves generating three-dimensional map of features in view based upon preferential set of matched pairs, and determining clear traveling path based upon features | |
| DE102009050502A1 (en) | Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface | |
| DE102015220885A1 (en) | Apparatus and method for identifying a target object | |
| DE102018111935A1 (en) | Image processing system, image processing method, information processing apparatus and recording medium | |
| DE102007013664A1 (en) | Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient | |
| DE102022107144A1 (en) | COMPONENT TESTING SYSTEM AND PROCESS AT PRODUCTION SPEED | |
| DE102023100731A1 (en) | Method and system for automatic annotation of sensor data | |
| DE102018121008A1 (en) | CROSS TRAFFIC RECORDING USING CAMERAS | |
| DE112012004847B4 (en) | Method and system for detecting lines in an image and lane detection system for analyzing street images | |
| DE10148062A1 (en) | Localizing system for objects uses transmitter for pulsed emission of laser beams and receiver with sensor to pick up reflected beam pulses and to analyze them regarding their execution time | |
| DE102019127322A1 (en) | Method for detecting objects in a vehicle environment, device for data processing, computer program product and computer-readable data carrier | |
| DE102022110895A1 (en) | System and method for window generation for areas of interest for attention-based perception | |
| DE102021006248A1 (en) | object detection method | |
| DE102012008780B4 (en) | Method and device for detecting at least one road edge and motor vehicle | |
| DE102019220616A1 (en) | METHOD OF SIMULTANEOUS LOCALIZATION AND IMAGING |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed | ||
| R016 | Response to examination communication |