[go: up one dir, main page]

DE102023108904A1 - METHOD AND LIDAR SYSTEM FOR ENVIRONMENTAL DETECTION AND VEHICLE WITH LIDAR SYSTEM - Google Patents

METHOD AND LIDAR SYSTEM FOR ENVIRONMENTAL DETECTION AND VEHICLE WITH LIDAR SYSTEM Download PDF

Info

Publication number
DE102023108904A1
DE102023108904A1 DE102023108904.8A DE102023108904A DE102023108904A1 DE 102023108904 A1 DE102023108904 A1 DE 102023108904A1 DE 102023108904 A DE102023108904 A DE 102023108904A DE 102023108904 A1 DE102023108904 A1 DE 102023108904A1
Authority
DE
Germany
Prior art keywords
optical signal
scanning
angle
lidar system
detection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102023108904.8A
Other languages
German (de)
Inventor
Christoph Parl
Frank Selbmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Detection Systems GmbH
Original Assignee
Valeo Detection Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Detection Systems GmbH filed Critical Valeo Detection Systems GmbH
Priority to DE102023108904.8A priority Critical patent/DE102023108904A1/en
Priority to PCT/EP2024/058725 priority patent/WO2024208759A1/en
Priority to CN202480022701.7A priority patent/CN121079612A/en
Priority to EP24716359.5A priority patent/EP4689715A1/en
Publication of DE102023108904A1 publication Critical patent/DE102023108904A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die Anmeldung betrifft ein Verfahren zur Umgebungserfassung mittels eines Lidar-Systems, aufweisend eine Ablenkeinrichtung (10), mittels welcher ein optisches Signal (L) zum Abtasten eines Erfassungsbereiches (12) ablenkbar ist. Das Verfahren umfasst:A) erstes Abtasten innerhalb einer ersten Abtastperiode (A):- Aussenden des optischen Signals (L),- Schrittweises Ändern des Winkels (20), mit dem das optische Signal (L) in den Erfassungsbereich (12) abgelenkt wird,B) zweites Abtasten innerhalb einer zweiten Abtastperiode (B):- Aussenden des optischen Signals (L),- Schrittweises Ändern des Winkels (20), mit dem das optische Signal (L) in den Erfassungsbereich (12) abgelenkt wird, wobei zumindest ein Winkel (20) beim zweiten Abtasten von den Winkeln (20) beim ersten Abtasten verschieden ist.Die Anmeldung betrifft weiter ein Lidar-System (30) sowie ein Fahrzeug (100) mit Lidar-System (30).The application relates to a method for environmental detection by means of a lidar system, having a deflection device (10) by means of which an optical signal (L) can be deflected for scanning a detection area (12). The method comprises:A) first scanning within a first scanning period (A):- emitting the optical signal (L),- gradually changing the angle (20) with which the optical signal (L) is deflected into the detection area (12),B) second scanning within a second scanning period (B):- emitting the optical signal (L),- gradually changing the angle (20) with which the optical signal (L) is deflected into the detection area (12), wherein at least one angle (20) during the second scanning is different from the angles (20) during the first scanning.The application further relates to a lidar system (30) and a vehicle (100) with a lidar system (30).

Description

Technisches Gebiettechnical field

Die Anmeldung betrifft ein Verfahren zur Umgebungserfassung mittels eines Lidar-Systems, ein Lidar-System zur Umgebungserfassung sowie ein Fahrzeug mit einem Lidar-System.The application relates to a method for detecting the environment using a lidar system, a lidar system for detecting the environment and a vehicle with a lidar system.

Hintergrundbackground

Moderne Fahrzeuge (Autos, Transporter, Lastwagen, Motorräder etc.) verfügen über eine Vielzahl an Sensoren, deren Daten zur Fahrerinformation dienen und/oder Fahrerassistenzsystemen zur Verfügung gestellt werden. Über die Sensoren werden die Umgebung des Fahrzeugs sowie andere Verkehrsteilnehmer erfasst. Basierend auf den erfassten Daten kann ein Modell der Fahrzeugumgebung erzeugt werden und auf Veränderungen in dieser Fahrzeugumgebung reagiert werden.Modern vehicles (cars, vans, trucks, motorcycles, etc.) have a large number of sensors whose data is used to provide driver information and/or driver assistance systems. The sensors record the vehicle's surroundings and other road users. Based on the recorded data, a model of the vehicle's environment can be created and changes in this vehicle environment can be responded to.

Ein wichtiges Sensorprinzip für die Erfassung der Umgebung, z. B. von Fahrzeugen, ist dabei die Lidartechnik (Lidar engl. Light Detection and Ranging). Ein Lidar-System weist eine optische Sendeeinheit und eine optische Empfangseinheit auf. Die Sendeeinheit kann ein optisches Signal aussenden, das gepulst sein kann. In einem Lidar-System kann als optisches Signal Licht, insbesondere Laserstrahlen im ultravioletten, visuellen oder infraroten Bereich zum Einsatz kommen. Das optische Signal kann nach Reflexion an einem Objekt in einem Erfassungsbereich in der Umgebung des Lidar-Systems durch die Empfangseinheit empfangen werden. Das empfangene optische Signal kann unter Verwendung des gesendeten optischen Signals durch eine Steuereinheit des Lidar-Systems nach einem Lichtlaufzeitverfahren ausgewertet werden und es können die räumliche Lage und der Abstand der Objekte, an denen die Reflexion erfolgte, ermittelt werden. Zudem ist die Ermittlung einer Relativgeschwindigkeit möglich. Unter Reflexion oder reflektiertem optischen Signal wird vorliegend jegliches zurückgeworfenes optisches Signal (Licht) verstanden und soll insbesondere auch durch Streuung oder Absoptions-Emission zurückgeworfenes Licht umfassen. Zur Abstandsermittlung zu Objekten können insbesondere sogenannte Time-of-Flight (TOF) Systeme Anwendung finden.An important sensor principle for detecting the environment, e.g. of vehicles, is Lidar technology (Lidar, English: Light Detection and Ranging). A Lidar system has an optical transmitter unit and an optical receiver unit. The transmitter unit can emit an optical signal, which can be pulsed. In a Lidar system, light, in particular laser beams in the ultraviolet, visual or infrared range, can be used as the optical signal. The optical signal can be received by the receiver unit after being reflected from an object in a detection area in the vicinity of the Lidar system. The received optical signal can be evaluated using the transmitted optical signal by a control unit of the Lidar system using a time-of-flight method, and the spatial position and distance of the objects on which the reflection occurred can be determined. It is also possible to determine a relative speed. In this case, reflection or reflected optical signal is understood to mean any optical signal (light) that is thrown back and should also include light that is thrown back by scattering or absorption emission. So-called time-of-flight (TOF) systems can be used in particular to determine the distance to objects.

Lidar-Systeme werden für verschiedene Funktionen ständig weiterentwickelt, z. B. für die Erfassung von Umgebungsinformationen im Nah- und Fernbereich von Fahrzeugen, wie Personenkraftwaren oder Nutzfahrzeugen. Lidar-Systeme können auch als Sensorsysteme für Fahrerassistenzsysteme, insbesondere Assistenzsysteme zur autonomen oder teilautonomen Fahrzeugsteuerung, dienen. Sie können insbesondere zur Erkennung von Hindernissen und/oder anderen Verkehrsteilnehmern im Front-, Heck- oder im Totwinkel-Bereich eines Fahrzeuges genutzt werden.Lidar systems are constantly being developed for various functions, e.g. for the acquisition of environmental information in the near and far range of vehicles, such as passenger cars or commercial vehicles. Lidar systems can also serve as sensor systems for driver assistance systems, in particular assistance systems for autonomous or semi-autonomous vehicle control. They can be used in particular to detect obstacles and/or other road users in the front, rear or blind spot area of a vehicle.

Scannende Lidar-Systeme senden Lichtstrahlen aus, die sich in einer Scanrichtung bewegen. Punktscanner leuchten dabei Bereiche des Umfeldes punktweise an. Linienscanner leuchten Bereiche des Umfeldes linienweise an.Scanning lidar systems emit light beams that move in a scanning direction. Point scanners illuminate areas of the surrounding area point by point. Line scanners illuminate areas of the surrounding area line by line.

In DE102016122194A1 wird ein Verfahren zum Betreiben eines Lidar-Systems beschrieben, bei welchem zum Erfassen eines Objekts mit einer Sendeeinheit Lichtpulse ausgesendet werden und die von dem Objekt reflektierten Lichtpulse mit einer Empfangseinheit empfangen werden, wobei zum Aussenden der Lichtpulse eine Lichtquelle der Sendeeinheit zu bestimmten Sendezeitpunkten angesteuert wird und die Lichtpulse mit einer Ablenkeinrichtung innerhalb eines vorbestimmten Erfassungsbereichs abgelenkt werden. Die Lichtquelle wird derart angesteuert, dass sich Zeitintervalle zwischen den bestimmten Sendezeitpunkten voneinander unterscheiden.In DE102016122194A1 A method for operating a lidar system is described in which light pulses are emitted with a transmitting unit to detect an object and the light pulses reflected by the object are received with a receiving unit, wherein a light source of the transmitting unit is controlled at specific transmission times to emit the light pulses and the light pulses are deflected with a deflection device within a predetermined detection range. The light source is controlled in such a way that time intervals between the specific transmission times differ from one another.

ÜbersichtOverview

Ein Lidar-System weist eine Ablenkeinrichtung auf, mittels welcher ein optisches Signal zum Abtasten eines Erfassungsbereiches abgelenkt werden kann. Ein Verfahren zur Umgebungserfassung mittels des Lidar-Systems umfasst:

  1. A) Erstes Abtasten innerhalb einer ersten Abtastperiode: Aussenden des optischen Signals, Schrittweises Ändern des Winkels, mit dem das optische Signal durch die Ablenkeinrichtung in den Erfassungsbereich abgelenkt wird.
  2. B) Zweites Abtasten innerhalb einer zweiten Abtastperiode: Aussenden des optischen Signals, Schrittweises Ändern des Winkels, mit dem das optische Signal durch die Ablenkeinrichtung in den Erfassungsbereich abgelenkt wird.
A lidar system has a deflection device by means of which an optical signal can be deflected to scan a detection area. A method for environmental detection using the lidar system includes:
  1. A) First scanning within a first scanning period: Emitting the optical signal, gradually changing the angle at which the optical signal is deflected by the deflection device into the detection area.
  2. B) Second scanning within a second sampling period: Emitting the optical signal, gradually changing the angle at which the optical signal is deflected by the deflection device into the detection area.

Während des ersten und des zweiten Abtastens wird jeweils ein sogenannter Frame des Lidar-Systems erfasst. Durch das Ablenken des optischen Signals mit einem Winkel trifft das optische Signal auf einen von dem Winkel abhängigen Winkelbereich des Erfassungsbereiches. Der Winkel kann deshalb auch als Ablenkwinkel bezeichnet werden. Durch das schrittweise Ablenken des optischen Signals in den Erfassungsbereich kann der Erfassungsbereich schrittweise abgetastet werden. Abtastende Lidar-Systeme werden auch als scannenden Lidar-Systeme bezeichnet.During the first and second scans, a so-called frame of the lidar system is recorded. By deflecting the optical signal at an angle, the optical signal hits an angle range of the detection area that depends on the angle. The angle can therefore also be referred to as the deflection angle. By gradually deflecting the optical signal into the detection area, the detection area can be scanned step by step. Scanning lidar systems are also referred to as scanning lidar systems.

Zumindest ein Winkel, mit dem das optische Signal in den Erfassungsbereich abgelenkt wird, ist beim zweiten Abtasten von den Winkeln beim ersten Abtasten verschieden. Dies bietet den Vorteil, dass einerseits alle Winkelbereiche des Erfassungsbereiches beim ersten und/oder zweiten Abtasten von dem optischen Signal angestrahlt werden und andererseits durch die zumindest eine Lücke beim ersten Abtasten Zeit gespart werden kann durch das Weglassen zumindest eines Winkelbereiches. Dies bedeutet, dass beim ersten Abtasten zumindest eine Lücke im Erfassungsbereich gelassen wird, welche dann beim zweiten Abtasten dadurch gefüllt wird, dass das optische Signal in diese Lücke abgelenkt wird.At least one angle at which the optical signal is deflected into the detection area is different during the second scan from the angles during the first scan. This offers the advantage that, on the one hand, all angular ranges of the detection area are illuminated by the optical signal during the first and/or second scan and, on the other hand, time can be saved by omitting at least one angular range during the first scan. This means that at least one gap is left in the detection area during the first scan, which is then filled during the second scan by deflecting the optical signal into this gap.

Die erste Abtastperiode kann damit kürzer sein als eine Abtastperiode, in der alle möglichen Winkelbereiche des Erfassungsbereiches abgetastet werden würden. Durch die zweite Abtastperiode können dann die fehlenden Winkelbereiche abgetastet werden, um mit einer Kombination von erstem Abtasten und zweitem Abtasten z. B. ein hochaufgelöstes Bild des Erfassungsbereiches ermitteln zu können. Unter möglichen Winkelbereichen werden vorliegend diejenigen Winkelbereiche verstanden, die von denjenigen Winkeln abhängen, die durch die Ablenkeinrichtung einstellbar sind. Mögliche Winkelbereiche betreffen also diejenigen Winkelbereiche, die durch das optische Signal abgetastet werden, wenn es mit den durch die Ablenkeinrichtung einstellbaren Winkeln abgelenkt wird.The first sampling period can therefore be shorter than a sampling period in which all possible angular ranges of the detection area would be scanned. The missing angular ranges can then be scanned in the second sampling period in order to be able to determine, for example, a high-resolution image of the detection area using a combination of first scanning and second scanning. Possible angular ranges are understood here to mean those angular ranges that depend on the angles that can be set by the deflection device. Possible angular ranges therefore refer to those angular ranges that are scanned by the optical signal when it is deflected at the angles that can be set by the deflection device.

Die Ablenkeinrichtung kann zur Bewirkung der Ablenkung z. B. zumindest ein einseitiges oder mehrseitiges, rotierendes oder oszillierendes optisches Element, z. B. zumindest einen Spiegel, aufweisen. Die Ablenkung kann dabei auf reflektiver Lichtablenkung, z. B. durch zumindest einen Spiegel, und/oder transmissiver Lichtablenkung, z. B. durch zumindest ein Prisma und/oder ein optisches Array, basieren.The deflection device can have, for example, at least one single-sided or multi-sided, rotating or oscillating optical element, e.g. at least one mirror, to effect the deflection. The deflection can be based on reflective light deflection, e.g. by at least one mirror, and/or transmissive light deflection, e.g. by at least one prism and/or an optical array.

Der Erfassungsbereich des Lidar-Systems umfasst denjenigen Bereich, in den das optische Signal durch eine Sendeeinheit des Lidar-Systems ausgesendet wird. Zum Ablenken des optischen Signals zur Abtastung des Erfassungsbereiches weist das Lidar-System eine Ablenkeinrichtung auf, die beispielsweise zumindest einen Spiegel umfassen kann. Der zumindest eine Spiegel kann beispielsweise eine Drehbewegung ausführen, die eine Pendelbewegung und/oder eine Rotationsbewegung umfassen kann. Die Abtastrichtung hängt dabei von der Drehbewegung des zumindest einen Spiegels ab. Das schrittweise Ändern des Winkels der Ablenkung des optischen Signals kann z. B. durch eine Ansteuerung der Ablenkeinrichtung erreicht werden. Die Ansteuerung der Ablenkeinrichtung kann z. B. durch eine Steuereinheit des Lidar-Systems erfolgen. Durch die Ansteuerung der Ablenkeinrichtung kann die Schrittweite der Winkeländerung und damit die Winkelauflösung innerhalb des Erfassungsbereiches eingestellt werden.The detection range of the lidar system includes the area into which the optical signal is emitted by a transmitting unit of the lidar system. To deflect the optical signal for scanning the detection range, the lidar system has a deflection device, which can, for example, comprise at least one mirror. The at least one mirror can, for example, perform a rotary movement, which can comprise a pendulum movement and/or a rotational movement. The scanning direction depends on the rotary movement of the at least one mirror. The step-by-step change in the angle of deflection of the optical signal can be achieved, for example, by controlling the deflection device. The deflection device can be controlled, for example, by a control unit of the lidar system. By controlling the deflection device, the step size of the angle change and thus the angular resolution within the detection range can be adjusted.

Die Steuereinheit des Lidar-Systems kann zudem ausgebildet sein, die Sendeeinheit und die Empfangseinheit anzusteuern und das gesendete optische Signal sowie das empfangene optische Signal zur Umgebungserfassung auszuwerten. Die Empfangseinheit weist einen Empfangssensor auf, mittels welcher das reflektierte optische Signal empfangen werden kann. Der Empfangssensor kann auch zweidimensional ausgebildet sein und einzelne Pixel aufweisen, die in einem Feld angeordnet sind. Die jeweiligen Pixel können jeweiligen Richtungen, also Winkelbereichen zugeordnet sein, aus welchen sie optische Signale empfangen können. Die Pixel können so ausgebildet sein, dass sie gezielt zum Empfang aktiviert werden können.The control unit of the lidar system can also be designed to control the transmitting unit and the receiving unit and to evaluate the transmitted optical signal and the received optical signal for environmental detection. The receiving unit has a receiving sensor by means of which the reflected optical signal can be received. The receiving sensor can also be designed two-dimensionally and have individual pixels that are arranged in a field. The respective pixels can be assigned to respective directions, i.e. angular ranges, from which they can receive optical signals. The pixels can be designed in such a way that they can be specifically activated for reception.

In einer Ausführungsform des Verfahrens wird das während der ersten Abtastperiode und das während der zweiten Abtastperiode aus dem Erfassungsbereich reflektierte optische Signal ausgewertet und in Abhängigkeit von der Auswertung ein Messwertbild ermittelt.In one embodiment of the method, the optical signal reflected from the detection area during the first sampling period and the optical signal reflected during the second sampling period is evaluated and a measured value image is determined depending on the evaluation.

Das Messwertbild weist Messwerte auf, die durch die Auswertung des optischen Signals während der ersten Abtastperiode und der zweiten Abtastperiode ermittelt wurden. Es umfasst die Messwerte beider Frames des Lidar-Systems.The measurement image contains measurement values that were determined by evaluating the optical signal during the first sampling period and the second sampling period. It includes the measurement values of both frames of the Lidar system.

Die Wiederholrate der jeweiligen Abtastperioden wird auch als Bildwiederholrate oder Framerate bezeichnet. Eine jeweilige kürzere Abtastperiode kann schneller wiederholt werden und ermöglicht damit eine höhere Bildwiederholrate. Bei einer höheren Bildwiederholrate können Änderungen in der zu erfassende Umgebung schneller erkannt, werden, z. B., wenn sich ein Objekt in den Erfassungsbereich hineinbewegt.The repetition rate of the respective sampling periods is also referred to as the refresh rate or frame rate. A shorter sampling period can be repeated more quickly and thus enables a higher refresh rate. With a higher refresh rate, changes in the environment to be recorded can be detected more quickly, e.g. when an object moves into the detection area.

Das Messwertbild kann dabei Informationen zu Objekten im Erfassungsbereich umfassen, an welchen das optische Signal reflektiert wurde. In das Messwertbild fließen dabei insbesondere auch Informationen über den Winkel ein, mit dem das optische Signal abgelenkt wurde, das zu dem jeweiligen Bildpunkt ausgewertet wurde. Die Auflösung des Bildes hängt somit von der Winkelauflösung des Lidar-Systems ab.The measured value image can include information about objects in the detection area on which the optical signal was reflected. The measured value image also includes information about the angle at which the optical signal was deflected, which was evaluated at the respective pixel. The resolution of the image therefore depends on the angular resolution of the lidar system.

Ein Messwertbild kann zum Beispiel ein Bild mit Tiefeninformationen aufweisen. Die Tiefeninformationen können dabei Entfernungsinformationen entsprechen, wie sie z. B. mittels eines Laufzeitmessverfahrens ermittelt werden können. Beispiele für Laufzeitmessverfahren sind indirekte oder direkte Time-of-Flight Verfahren.A measurement image can, for example, contain an image with depth information. The depth information can correspond to distance information, such as that which can be determined using a time-of-flight measurement method. Examples For runtime measurement methods are indirect or direct time-of-flight methods.

Ein solches Messwertbild hat den Vorteil, dass es mit voller Auflösung ermittelt werden kann, da Informationen aus der ersten und der zweiten Abtastung kombiniert werden können. Die Fehlstellen der Einzelframes können gefüllt werden und es kann ein vollständiges, hochaufgelöstes Messwertbild erzeugt werden.Such a measurement image has the advantage that it can be determined with full resolution, since information from the first and second scans can be combined. The gaps in the individual frames can be filled and a complete, high-resolution measurement image can be created.

In einer Ausführungsform des Verfahrens wird das optische Signal gepulst ausgesendet und der Winkel wird schrittweise von Puls zu Puls geändert. Hierbei werden während der jeweiligen Abtastperioden von der Sendeeinheit Lichtpulse ausgesendet. Des Weiteren werden die aus dem Erfassungsbereich reflektierten Lichtpulse mit der Empfangseinheit empfangen. Zum Aussenden der Lichtpulse wird bevorzugt eine Lichtquelle, z. B. eine Laserdiode, der Sendeeinheit zu bestimmten Sendezeitpunkten angesteuert und die Lichtpulse werden mit der Ablenkeinrichtung mit dem jeweiligen Winkel abgelenkt. Dabei wird die Lichtquelle insbesondere derart angesteuert, dass die Zeitintervalle zwischen den bestimmten Sendezeitpunkten innerhalb einer Abtastperiode gleich sind. Insbesondere können auch die Zeitintervalle zwischen den bestimmten Sendezeitpunkten innerhalb der ersten Abtastperiode gleich sein wie innerhalb der zweiten Abtastperiode.In one embodiment of the method, the optical signal is emitted in pulses and the angle is changed step by step from pulse to pulse. During the respective sampling periods, light pulses are emitted by the transmitting unit. Furthermore, the light pulses reflected from the detection area are received by the receiving unit. To emit the light pulses, a light source, e.g. a laser diode, of the transmitting unit is preferably controlled at specific transmission times and the light pulses are deflected by the deflection device at the respective angle. The light source is controlled in particular in such a way that the time intervals between the specific transmission times within a sampling period are the same. In particular, the time intervals between the specific transmission times within the first sampling period can also be the same as within the second sampling period.

In einer Ausführungsform kann das Auslösen der jeweiligen Sendezeitpunkte bei Erreichen der jeweiligen Winkel der Lichtablenkung erfolgen. Dies kann für eine Ablenkeinrichtung, welche z. B. einen Drehspiegel aufweist, z. B. durch Winkelgeber an der Ablenkeinrichtung erfolgen, welche im Vergleich zu den Winkelbereichen eine wesentlich höhere Auflösung aufweisen.In one embodiment, the respective transmission times can be triggered when the respective angles of the light deflection are reached. For a deflection device which has a rotating mirror, for example, this can be done by angle sensors on the deflection device, which have a much higher resolution compared to the angle ranges.

In einer Ausführungsform des Verfahrens wird durch das schrittweise Ändern des Winkels der Erfassungsbereich innerhalb der ersten Abtastperiode und/oder innerhalb der zweiten Abtastperiode von einem ersten Randbereich zu einem zweiten Randbereich abgetastet. Diese Ausführungsform hat den Vorteil, dass während der ersten Abtastperiode und/oder während der zweiten Abtastperiode der gesamte Erfassungsbereich erfasst werden kann. Hierdurch umfassen die einzelnen Frames, die hintereinander aufgenommen werden können, jeweils den Erfassungsbereich in seiner Breite von Randbereich zu Randbereich. Hierdurch können auch die Kantenbereiche des Erfassungsbereiches doppelt so häufig abgetastet werden. Die dabei stattfindende Abtastung kann Lücken aufweisen, da evtl. nicht alle Winkelbereiche des Erfassungsbereiches während der ersten und/oder der zweiten Abtastperiode abgetastet wurden, jedoch kann die Auflösung so gewählt werden, dass größere Objekte oder größere Änderungen insbesondere in den Randbereichen bereits während einer Abtastperiode erfasst werden. Auf diese Änderungen kann dann reagiert werden. Eventuelle Lücken der ersten Abtastung können dann durch die zweite Abtastung gefüllt werden, in welchem dann Winkelbereiche abgedeckt werden, welche während der ersten Abtastung ausgelassen wurden.In one embodiment of the method, the detection area is scanned from a first edge area to a second edge area by gradually changing the angle within the first scanning period and/or within the second scanning period. This embodiment has the advantage that the entire detection area can be detected during the first scanning period and/or during the second scanning period. As a result, the individual frames that can be recorded one after the other each cover the detection area in its width from edge area to edge area. This also allows the edge areas of the detection area to be scanned twice as often. The scanning that takes place can have gaps because not all angular areas of the detection area may have been scanned during the first and/or second scanning period, but the resolution can be selected so that larger objects or larger changes, particularly in the edge areas, are detected during one scanning period. These changes can then be responded to. Any gaps in the first scan can then be filled by the second scan, which then covers angular areas that were omitted during the first scan.

In einer Ausführungsform des Verfahrens wird innerhalb der ersten Abtastperiode bei dem schrittweisen Ändern des Winkels jeweils ein möglicher Winkel ausgelassen und wobei das optische Signal innerhalb der zweiten Abtastperiode mit den jeweiligen ausgelassenen möglichen Winkeln abgelenkt wird. Bei diesem Ausführungsbeispiel erfolgt die Abtastung während der ersten Abtastperiode so, dass die Ablenkung des optischen Signals mit nur jedem zweiten möglichen Winkel erfolgt, so dass alternierend abwechselnd ein möglicher Winkelbereich abgetastet wird und der darauffolgende nicht usw. In der zweiten Abtastperiode wird das optische Signal mit den jeweils anderen Winkeln abgelenkt, so dass während der zweiten Abtastperiode diejenigen Winkelbereiche abgetastet werden, die während der ersten Abtastperiode ausgelassen wurden. Das zweite Abtasten erfolgt also mit einem Versatz gegenüber dem ersten Abtasten. Mit der Kombination der Informationen aus beiden Abtastperioden kann dann ein Messwertbild erzeugt werden, welches eine große Auflösung hat.In one embodiment of the method, within the first sampling period, one possible angle is omitted during the step-by-step change of the angle, and the optical signal is deflected within the second sampling period with the respective omitted possible angles. In this embodiment, the sampling during the first sampling period takes place in such a way that the optical signal is deflected with only every second possible angle, so that one possible angle range is alternately scanned and the following one is not, etc. In the second sampling period, the optical signal is deflected with the other angles, so that during the second sampling period those angle ranges are scanned that were omitted during the first sampling period. The second sampling is therefore carried out with an offset compared to the first sampling. By combining the information from both sampling periods, a measured value image can then be generated that has a high resolution.

In einer Ausführungsform des Verfahrens wird das erste Abtasten alternierend mit dem zweiten Abtasten ausgeführt. Die Erfassung der einzelnen Frames durch die Abtastperioden kann ständig wiederholt werden. Werden das erste Abtasten und das zweite Abtasten alternierend ausgeführt, so kann nach jedem Frame das Messwertbild ermittelt werden, welches von Informationen aus der aktuellen Abtastung und der Abtastung davor abhängt und welches somit die vollständige Auflösung aufweisen kann. Es ist also möglich, das Messwertbild laufend aus den beiden vorangegangenen Messwertbildern zu ermitteln. Insbesondere kann das Messwertbild auch aus mehr als zwei vorangegangenen Messwertbildern ermittelt werden.In one embodiment of the method, the first sampling is carried out alternately with the second sampling. The acquisition of the individual frames through the sampling periods can be repeated continuously. If the first sampling and the second sampling are carried out alternately, the measurement image can be determined after each frame, which depends on information from the current sampling and the previous sampling and which can therefore have the full resolution. It is therefore possible to continuously determine the measurement image from the two previous measurement images. In particular, the measurement image can also be determined from more than two previous measurement images.

In einer Ausführungsform des Verfahrens ist die Schrittweite der Winkeländerung innerhalb der ersten Abtastperiode gleich wie innerhalb der zweiten Abtastperiode. Dies kann die tatsächliche Winkeländerung während der ersten und der zweiten Abtastperiode betreffen, d. h. die Winkeländerung mit den Lücken im Hinblick auf die möglichen Winkeländerungen. Dies bedeutet, dass die Schrittweite der tatsächlichen Winkeländerung während der ersten Abtastperiode gleich ist wie während der zweiten Abtastperiode. Ebenso können die möglichen Winkeländerungen innerhalb der ersten und der zweiten Abtastperiode gleich sein. Dies hat den Vorteil, dass eine Ablenkeinrichtung verwendet werden kann, die während der ersten Abtastperiode die gleichen möglichen Ablenkwinkel zur Verfügung stellt.In one embodiment of the method, the step size of the angle change within the first sampling period is the same as within the second sampling period. This may relate to the actual angle change during the first and second sampling periods, ie the angle change with the gaps with respect to the possible angle changes. This means that the step size of the actual angle change during the first sampling period is the same as during the second sampling period. Likewise, the possible win angle changes within the first and second sampling periods must be the same. This has the advantage that a deflection device can be used which provides the same possible deflection angles during the first sampling period.

In einer Ausführungsform des Verfahrens entspricht die Schrittweite der Winkeländerung zwischen möglichen Winkeln der Winkelauflösung des Lidar-Systems. Der Versatz des zweiten Abtastens gegenüber dem ersten Abtasten entspricht in dieser Ausführungsform also der Winkelauflösung eines Lidar-Systems. In dieser Ausführungsform wird also die Winkelauflösung des Lidar-Systems zur Umgebungserfassung ausgenutzt, so dass dann z. B. das Messwertbild in der möglichen Winkelauflösung des Lidar-Systems ermittelt werden kann.In one embodiment of the method, the step size of the angle change between possible angles corresponds to the angular resolution of the lidar system. In this embodiment, the offset of the second scan compared to the first scan therefore corresponds to the angular resolution of a lidar system. In this embodiment, the angular resolution of the lidar system is used to detect the environment, so that, for example, the measured value image can then be determined in the possible angular resolution of the lidar system.

In Ausführungsbeispielen ist es möglich, mehr als zwei Abtastperioden vorzusehen, die jeweils Lücken im Abtastmuster lassen, welche während jeweils anderer Abtastperioden gefüllt werden. Hierdurch lasst sich die Häufigkeit der Abtastung in Bereichen, z. B. Bereichen in der Nähe der Ränder weiter vervielfachen.In embodiments, it is possible to provide more than two sampling periods, each leaving gaps in the sampling pattern that are filled during other sampling periods. This allows the frequency of sampling in areas, e.g. areas near the edges, to be further multiplied.

Das Lidar-System zur Umgebungserfassung weist eine Ablenkeinrichtung auf, welche ausgebildet ist, das optische Signal zum Abtasten des Erfassungsbereiches abzulenken, wobei das Lidar-System ausgebildet ist, das beschriebene erste Abtasten innerhalb der ersten Abtastperiode und das beschriebene zweite Abtasten innerhalb der zweiten Abtastperiode auszuführen.The lidar system for environmental detection has a deflection device which is designed to deflect the optical signal for scanning the detection area, wherein the lidar system is designed to carry out the described first scanning within the first scanning period and the described second scanning within the second scanning period.

Dabei wird beim ersten Abtasten der Winkel, mit dem das optische Signal durch die Ablenkeinrichtung in den Erfassungsbereich abgelenkt wird, schrittweise geändert, und das aus dem Erfassungsbereich reflektierte optische Signal ausgewertet.During the first scan, the angle at which the optical signal is deflected into the detection area by the deflection device is changed step by step and the optical signal reflected from the detection area is evaluated.

Dabei wird beim zweiten Abtasten der Winkel, mit dem das optische Signal durch die Ablenkeinrichtung in den Erfassungsbereich abgelenkt wird, schrittweise geändert, und das aus dem Erfassungsbereich reflektierte optische Signal ausgewertet.During the second scan, the angle at which the optical signal is deflected into the detection area by the deflection device is changed step by step and the optical signal reflected from the detection area is evaluated.

Zumindest ein Winkel beim zweiten Abtasten ist von den Winkeln beim ersten Abtasten verschieden. Hierdurch können beim ersten Abtasten im Erfassungsbereich gelassenen Abtastlücken, also die Lücken in der Abtastung, durch das zweite Abtasten gefüllt werden.At least one angle during the second scan is different from the angles during the first scan. This means that scanning gaps left in the detection area during the first scan, i.e. the gaps in the scan, can be filled by the second scan.

In einer Ausführungsform des Lidar-Systems ist die Steuereinheit des Lidar-Systems ausgebildet, das aus dem Erfassungsbereich reflektierte optische Signal auszuwerten und das Messwertbild zu ermitteln. Dabei können für jeweils ein Messwertbild empfangene optische Signale aus jeweils zwei Abtastperioden ausgewertet werden. Bevorzugt wird dabei das optische Signal aus der aktuellen Abtastperiode und der vorangehenden Abtastperiode ausgewertet. Es ist auch möglich, die optischen Signale aus mehr als zwei Abtastperioden auszuwerten.In one embodiment of the lidar system, the control unit of the lidar system is designed to evaluate the optical signal reflected from the detection area and to determine the measured value image. In this case, optical signals received from two sampling periods each can be evaluated for each measured value image. Preferably, the optical signal from the current sampling period and the previous sampling period is evaluated. It is also possible to evaluate the optical signals from more than two sampling periods.

In einer Ausführungsform ist das Lidar-System ausgebildet, das Messwertbild auszugeben. Durch Ausgabe des Messwertbildes nach jedem Frame kann schnell auf Änderungen im Erfassungsbereich reagiert werden, da das Messwertbild nach Abschluss jeder Abtastperiode ausgegeben werden kann. Zugleich kann das Messwertbild eine hohe Auflösung haben, da Fehlstellen in der Abtastung bei einem Frame durch den jeweils anderen Frame, der mit in das Messwertbild einfloss, ausgefüllt werden können.In one embodiment, the lidar system is designed to output the measured value image. By outputting the measured value image after each frame, it is possible to react quickly to changes in the detection area, since the measured value image can be output after the end of each sampling period. At the same time, the measured value image can have a high resolution, since gaps in the scanning in one frame can be filled in by the other frame that was included in the measured value image.

Ein Fahrzeug kann ein solches Lidar-System aufweisen. Das Fahrzeug kann weiter zumindest ein Steuergerät aufweisen, wobei das zumindest eine Steuergerät zumindest eine Fahrfunktion ausführt, welche von dem Messwertbild abhängt. Das Steuergerät kann hierfür eine Recheneinheit, Speicher und Ein- und Ausgabeschnittstellen aufweisen.A vehicle can have such a lidar system. The vehicle can also have at least one control unit, wherein the at least one control unit carries out at least one driving function that depends on the measured value image. For this purpose, the control unit can have a computing unit, memory and input and output interfaces.

Durch das beschriebene Verfahren kann das Lidar-System z. B. an einem Fahrzeug im Straßenverkehr zur Umgebungserfassung in verschiedenen Situationen eingesetzt werden. Seine Anwendbarkeit wird dadurch vielfältiger. Es ist möglich, das Lidar-System für Situationen einzusetzen, in denen hohe Auflösung benötigt wird, z. B., um kleine Objekte in großer Entfernung detektieren zu können. Zugleich kann das Lidar-System auch in Situationen eingesetzt werden, in denen eine hohe Wiederholrate (Framerate) benötigt wird, z. B. um auf große Objekte, welche sich am Rand des Erfassungsbereiches bewegen, reaktionsschnell reagieren zu können.Using the method described, the lidar system can be used, for example, on a vehicle in traffic to detect the environment in various situations. This makes it more versatile. It is possible to use the lidar system for situations where high resolution is required, e.g. to detect small objects at a great distance. At the same time, the lidar system can also be used in situations where a high frame rate is required, e.g. to be able to react quickly to large objects moving at the edge of the detection area.

Für das Beispiel des scannenden Lidar-Systems können durch das beschriebene Verfahren und das beschriebene Lidar-System diese beiden Anforderungen erfüllt werden. Eine hohe Auflösung kann mittels feiner Winkelschritte erreicht werden, welche dadurch erreicht werden, dass durch das zweite Abtasten Lücken im Abtastmuster des ersten Abtastens gefüllt werden können. Zugleich kann das erste Abtasten schnell durchlaufen werden, da Lücken im Abtastmuster gelassen werden können. Hierdurch kann durch das erste Abtasten mit Lücken eine hohe Framerate erreicht werden.For the example of the scanning lidar system, these two requirements can be met by the method and the lidar system described. A high resolution can be achieved by means of fine angular steps, which are achieved by the fact that gaps in the scanning pattern of the first scan can be filled by the second scan. At the same time, the first scan can be completed quickly because gaps can be left in the scanning pattern. This means that a high frame rate can be achieved by the first scan with gaps.

Das Verfahren und das Lidar-System ermöglicht daher, die Framerate durch die Einführung der ersten, zweiten und von optionalen weiteren Abtastperioden zu vervielfachen, und zugleich ein hochaufgelöstes, optional sogar vollständiges, Messwertbild, z. B. Entfernungsbild oder Distanzbild, zu erhalten.The method and the lidar system therefore make it possible to multiply the frame rate by introducing the first, second and optional further sampling periods, while at the same time providing a high-quality to obtain a resolved, optionally even complete, measured value image, e.g. range image or distance image.

Figurenlistecharacter list

Im Folgenden werden Ausführungsbeispiele dieser Anmeldung anhand der Figuren weiter erläutert und beschrieben. Es zeigen

  • 1 schematisch ein Verfahren zur Umgebungserfassung mit erster und zweiter Abtastperiode,
  • 2 schematisch eine Ablenkeinrichtung mit Erfassungsbereich,
  • 3 schematisch Winkelbereiche in Abtastrichtung,
  • 4 schematisch Pulse eines optischen Signals,
  • 5 eine Draufsicht auf ein Fahrzeug mit Lidar-System.
In the following, embodiments of this application are further explained and described using the figures. They show
  • 1 schematically a method for environmental detection with first and second sampling period,
  • 2 schematically a deflection device with detection range,
  • 3 schematic angular ranges in scanning direction,
  • 4 schematically pulses of an optical signal,
  • 5 a top view of a vehicle with Lidar system.

Es werden in den Figuren die gleichen Bezugszeichen für gleiche oder ähnliche Elemente verwendet. Darstellungen in den Figuren können nicht maßstäblich sein.The same reference symbols are used in the figures for identical or similar elements. Representations in the figures may not be to scale.

Figurenbeschreibungcharacter description

1 zeigt schematisch ein Verfahren zur Umgebungserfassung mittels eines Lidar-Systems 30 mit erster Abtastperiode A und zweiter Abtastperiode B. Die beiden Abtastperioden A, B. werden alternierend ausgeführt. 1 shows schematically a method for environmental detection by means of a lidar system 30 with a first sampling period A and a second sampling period B. The two sampling periods A, B. are carried out alternately.

Innerhalb der ersten Abtastperiode A erfolgt das erste Abtasten mit dem Aussenden eines optischen Signals L durch eine Sendeeinheit 32 des Lidar-Systems 30. Das ausgesendete optische Signal L wird durch eine Ablenkeinrichtung 10 in seiner Richtung abgelenkt. Der Winkel 20, mit dem das optische Signal L in einen Erfassungsbereich 12 des Lidar-Systems 30 abgelenkt wird, wird schrittweise geändert. Das aus dem Erfassungsbereich 12 reflektierte optische Signal L wird durch eine Empfangseinheit 34 des Lidar-Systems 30 empfangen.Within the first sampling period A, the first sampling takes place with the transmission of an optical signal L by a transmission unit 32 of the lidar system 30. The transmitted optical signal L is deflected in its direction by a deflection device 10. The angle 20 at which the optical signal L is deflected into a detection area 12 of the lidar system 30 is changed step by step. The optical signal L reflected from the detection area 12 is received by a reception unit 34 of the lidar system 30.

Beim ersten Abtasten werden in der Abtastung des Erfassungsbereiches 12 mögliche Ablenkwinkel 20 des optischen Signals L ausgelassen, so dass Lücken in abgetasteten Winkelbereichen 16 gelassen werden.During the first scan, possible deflection angles 20 of the optical signal L are omitted in the scanning of the detection range 12, so that gaps are left in scanned angle ranges 16.

Innerhalb der zweiten Abtastperiode B erfolgt das zweite Abtasten mit dem Aussenden des optischen Signals L durch die Sendeeinheit 32 des Lidar-Systems 30. Das ausgesendete optische Signal L wird durch die Ablenkeinrichtung 10 in seiner Richtung abgelenkt. Der Winkel 20, mit dem das optische Signal L durch die Ablenkeinrichtung 10 in den Erfassungsbereich 12 des Lidar-Systems 30 abgelenkt wird, wird schrittweise geändert. Das aus dem Erfassungsbereich 12 reflektierte optische Signal L wird durch die Empfangseinheit 34 des Lidar-Systems 30 empfangen.Within the second sampling period B, the second sampling takes place with the transmission of the optical signal L by the transmission unit 32 of the lidar system 30. The transmitted optical signal L is deflected in its direction by the deflection device 10. The angle 20 at which the optical signal L is deflected by the deflection device 10 into the detection area 12 of the lidar system 30 is changed step by step. The optical signal L reflected from the detection area 12 is received by the reception unit 34 of the lidar system 30.

Die Ablenkeinrichtung 10 kann zur Bewirkung der Ablenkung z. B. zumindest ein einseitiges oder mehrseitiges, rotierendes oder oszillierendes optisches Element, z. B. zumindest einen Spiegel 14, aufweisen.The deflection device 10 can have, for example, at least one single-sided or multi-sided, rotating or oscillating optical element, e.g. at least one mirror 14, to effect the deflection.

Zumindest ein Ablenkwinkel 20 beim zweiten Abtasten füllt dabei eine der beim ersten Abtasten gelassenen Lücken. In Ausführungsformen füllen die Ablenkwinkel 20 beim zweiten Abtasten die vom ersten Abtasten gelassenen Lücken. In weiteren Ausführungsformen wird beim zweiten Abtasten der Erfassungsbereich 12 mit einem Versatz gegenüber dem ersten Abtasten abgetastet.At least one deflection angle 20 during the second scan fills one of the gaps left by the first scan. In embodiments, the deflection angles 20 during the second scan fill the gaps left by the first scan. In further embodiments, the detection area 12 is scanned during the second scan with an offset compared to the first scan.

2 zeigt schematisch die Ablenkeinrichtung 10 mit dem Erfassungsbereich 12. Die Ablenkeinrichtung 10 weist im dargestellten Ausführungsbeispiel einen Spiegel 14 auf, an welchem das optische Signal L mit dem Winkel 20 abgelenkt werden kann. Der Spiegel 14 ist drehbar gelagert und kann im dargestellten Ausführungsbeispiel eine Rotationsbewegung mit der Drehrichtung 22 ausführen. Durch die Drehbewegung des Spiegels 14 kann der Ablenkwinkel 20 in einer Abtastrichtung 18 verändert werden. Eine Ansteuerung des Spiegels 14 kann z. B. durch eine Steuereinheit 36 des Lidar-Systems 30 erfolgen. 2 shows schematically the deflection device 10 with the detection area 12. In the embodiment shown, the deflection device 10 has a mirror 14 on which the optical signal L can be deflected at an angle of 20. The mirror 14 is rotatably mounted and can perform a rotational movement with the direction of rotation 22 in the embodiment shown. The rotational movement of the mirror 14 can change the deflection angle 20 in a scanning direction 18. The mirror 14 can be controlled, for example, by a control unit 36 of the lidar system 30.

Das Lidar-System 30, zu dem die in 2 dargestellte Ablenkeinrichtung 20 gehört kann z. B. zu einem abtastenden Lidar (engl. scanning lidar) gehören. The Lidar system 30, which includes the 2 The deflection device 20 shown can, for example, belong to a scanning lidar.

Das optische Signal L kann dabei z. B. punktförmig sein und der Spiegel 14 eine 1D-Spiegelablenkung bewirken. Durch die 1D-Spiegelablenkung wird der Erfassungsbereich 12 linienförmig abgetastet, d. h. durch die schrittweise Änderung des Ablenkwinkels 20 des optischen Signals L in der Abtastrichtung 18 ergibt sich eine Linie. Durch Aneinanderreihen der Linien kann dann eine flächige Abtastung erreicht werden. Das optische Signal L kann auch z. B. linienförmig sein und der Spiegel 14 eine 2D-Spiegelablenkung bewirken. Durch die 2D-Spiegelablenkung wird der Erfassungsbereich 12 flächig abgetastet, d. h. durch die schrittweise Änderung des Ablenkwinkels 20 des optischen Signals L in der Abtastrichtung 18 ergibt sich eine Fläche.The optical signal L can be point-shaped, for example, and the mirror 14 can cause a 1D mirror deflection. The 1D mirror deflection scans the detection area 12 in a linear fashion, i.e. the step-by-step change in the deflection angle 20 of the optical signal L in the scanning direction 18 results in a line. A surface scan can then be achieved by lining up the lines. The optical signal L can also be line-shaped, for example, and the mirror 14 can cause a 2D mirror deflection. The 2D mirror deflection scans the detection area 12 in a linear fashion, i.e. the step-by-step change in the deflection angle 20 of the optical signal L in the scanning direction 18 results in a surface.

Innerhalb der ersten Abtastperiode A werden die mit A bezeichneten Winkelbereiche 16 abgetastet. Dabei werden Lücken, auch Fehlstellen genannt, gelassen. Die Fehlstellen werden innerhalb der zweiten Abtastperiode B gefüllt, also abgetastet. Dabei werden sowohl während des ersten Abtastens als auch während des zweiten Abtastens die jeweiligen Winkelbereiche 16 gezielt durch ein Einstellen des Winkels 20 mit dem optischen Signal L angestrahlt.Within the first sampling period A, the angle ranges 16 designated with A are scanned. Gaps, also called defects, are left. The defects are scanned within the two The respective angle ranges 16 are specifically illuminated with the optical signal L by adjusting the angle 20 during both the first scanning and the second scanning.

Dabei wird im in 2 dargestellten Ausführungsbeispiel der Erfassungsbereich 12 sowohl während des ersten Abtastens als auch während des zweiten Abtastens von einem Bereich in der Nähe eines ersten Randes R1 des Erfassungsbereiches 12 in der Abtastrichtung 18 bis zu einem Bereich in der Nähe eines zweiten Randes R2 des Erfassungsbereiches 12 abgetastet. Hierdurch können sowohl innerhalb der ersten Abtastperiode A als auch innerhalb der zweiten Abtastperiode B die Bereiche um die Ränder R1, R2 erfasst werden. Eine Erfassung im Bereich der Ränder R1, R2 erfolgt also doppelt so häufig im Vergleich zu einer Abtastung des gesamten Erfassungsbereiches 12 ohne Fehlstellen mit gleicher Winkelauflösung.In this case, 2 In the embodiment shown, the detection area 12 is scanned both during the first scanning and during the second scanning from an area near a first edge R1 of the detection area 12 in the scanning direction 18 to an area near a second edge R2 of the detection area 12. As a result, the areas around the edges R1, R2 can be detected both within the first scanning period A and within the second scanning period B. Detection in the area of the edges R1, R2 therefore occurs twice as often as when the entire detection area 12 is scanned without defects with the same angular resolution.

Durch Auswertung des reflektierten optischen Signals L kann ein Messwertbild der Umgebung des Lidar Systems 30 ermittelt werden. Zur Ermittlung des Messwertbildes können insbesondere die während der ersten Abtastperiode A und während der zweiten Abtastperiode B empfangenen optischen Signale L ausgewertet werden.By evaluating the reflected optical signal L, a measured value image of the surroundings of the lidar system 30 can be determined. To determine the measured value image, in particular the optical signals L received during the first sampling period A and during the second sampling period B can be evaluated.

In 3 sind die während der jeweiligen Abtastperioden A, B durch das optische Signal L abgetasteten Winkelbereiche 16 über der Abtastrichtung 18 aufgetragen. Unten in 3 sind dann die verschachtelten einzelnen Frames des ersten und des zweiten Abtastens dargestellt.In 3 the angle ranges 16 scanned by the optical signal L during the respective scanning periods A, B are plotted against the scanning direction 18. Below in 3 the nested individual frames of the first and second scanning are then displayed.

Eine solche Verschachtelung ist fortlaufend möglich, d. h. es können jeweils Informationen kombiniert werden, welche während zwei oder mehr vorangegangenen Abtastungen gewonnen wurden. Damit ist es möglich, eine laufende Kombination der Frames zu implementieren, so dass ein Frame mit mindestens einem, vorherigen Frame kombiniert werden kann.Such nesting is possible continuously, i.e. information obtained during two or more previous scans can be combined. This makes it possible to implement a continuous combination of frames, so that a frame can be combined with at least one previous frame.

4 zeigt schematisch ein Ausführungsbeispiel eines zeitlichen Ablaufs der einzelnen Auslösesignale (Trigger) für das Aussenden von Pulsen des optischen Signals L während der ersten Abtastperiode A und der zweiten Abtastperiode B. Bei idealer, konstanter Drehbewegung 22 des Spiegels 14 und der Lichtablenkung sind die Zeitintervalle 24 zwischen den Auslösesignalen jeweils gleich. Die Zeit 24 zwischen zwei Pulsen des optischen Signals L ist also im dargestellten Beispiel in der ersten Abtastperiode A gleich wie in der zweiten Abtastperiode B. Die Zeit 26 zwischen zwei Pulsen des optischen Signals L beim Wechsel von erster Abtastperiode A zu zweiter Abtastperiode B kann so gewählt werden, dass sie ein ganzzahliges Vielfaches der Zeit 24 zwischen zwei Pulsen beträgt und ein halbes Zeitintervall 24 verschoben ist. Hierdurch wird dann der Erfassungsbereich 12 in gleichen Winkelbereichen 16 abgetastet und es können die Fehlstellen der ersten Abtastung durch die zweite Abtastung gefüllt werden. 4 shows schematically an embodiment of a temporal sequence of the individual trigger signals for the transmission of pulses of the optical signal L during the first sampling period A and the second sampling period B. With ideal, constant rotational movement 22 of the mirror 14 and the light deflection, the time intervals 24 between the trigger signals are always the same. The time 24 between two pulses of the optical signal L is therefore the same in the first sampling period A in the example shown as in the second sampling period B. The time 26 between two pulses of the optical signal L when changing from the first sampling period A to the second sampling period B can be selected such that it is an integer multiple of the time 24 between two pulses and is shifted by half a time interval 24. As a result, the detection area 12 is then scanned in equal angular ranges 16 and the gaps in the first scan can be filled by the second scan.

Das ganzzahlige Vielfache des Zeitintervalls 24 kann dabei für die Zeit 26 zwischen den Abtastperiode so gewählt werden, dass etwaige Totpunkte der Lichtablenkung mit einbezogen werden. Dies kann bei dem rotierenden Spiegel 14 z. B. die Zeiten betreffen, in denen ein nicht-reflektierender Bereich des Spiegels 14 einer Lichtquelle der Sendeeinheit 32 des Lidar-Systems 30 zugewandt ist. In solchen Zeiten kann dann die Aussendung des optischen Signals L unterdrückt werden und erst wieder - z. B. mit der nächsten Abtastperiode - einsetzen, wenn wieder eine reflektierende Fläche des Spiegels 14 der Lichtquelle zugewandt ist.The integer multiple of the time interval 24 can be selected for the time 26 between the sampling periods so that any dead points of the light deflection are included. With the rotating mirror 14, this can, for example, affect the times in which a non-reflective area of the mirror 14 is facing a light source of the transmitting unit 32 of the lidar system 30. During such times, the emission of the optical signal L can then be suppressed and only start again - e.g. with the next sampling period - when a reflective surface of the mirror 14 is facing the light source again.

Der Versatz der abgetasteten Winkelbereiche 16 der Abtastperioden A, B. kann z. B. der Winkelauflösung des Lidar-Systems 30 entsprechen. Damit können die jeweiligen abgetasteten Winkelbereiche 16 den möglichen Winkeln 20 der Ablenkung durch die Ablenkeinrichtung 10 entsprechen.The offset of the scanned angular ranges 16 of the scanning periods A, B. can correspond, for example, to the angular resolution of the lidar system 30. The respective scanned angular ranges 16 can thus correspond to the possible angles 20 of the deflection by the deflection device 10.

Die Winkelauflösung des Lidar-Systems 30 kann sich z. B. im Bereich von hundertstel Grad bewegen. Für die Detektion großer Objekte kann es damit sein, dass der Versatz, also die Lücken in der Abtastung, vernachlässigt werden kann. Ebenfalls möglich ist, ein nicht vollständig regemäßiges Scanmuster zu wählen werden, bei welchem sich z. B. die äußeren Bereiche in der Nähe der Ränder R1, R2 vollständig überlappen. Dies würde bedeuten, dass gewisse Winkelbereiche in der Nähe der Ränder R1, R2 sowohl während der ersten Abtastperiode A als auch während der zweiten Abtastperiode B abgetastet werden.The angular resolution of the lidar system 30 can, for example, be in the range of hundredths of a degree. For the detection of large objects, the offset, i.e. the gaps in the scanning, can therefore be neglected. It is also possible to select a scan pattern that is not completely regular, in which, for example, the outer areas near the edges R1, R2 completely overlap. This would mean that certain angular areas near the edges R1, R2 are scanned both during the first scanning period A and during the second scanning period B.

In Ausführungsbeispielen ist es möglich, mehr als zwei Abtastperioden A, B vorzusehen, die jeweils Lücken im Abtastmuster lassen, welche während jeweils anderer Abtastperioden gefüllt werden. Hierdurch lasst sich die Häufigkeit der Abtastung in Bereichen, z. B. Bereichen in der Nähe der Ränder R1, R2 weiter vervielfachen.In embodiments, it is possible to provide more than two sampling periods A, B, each of which leaves gaps in the sampling pattern which are filled during other sampling periods. This allows the frequency of sampling in areas, e.g. areas near the edges R1, R2, to be further multiplied.

Große oder nahe Objekte lassen sich bereits basierend auf der Auswertung einer einzelnen Abtastperiode A, B erkennen. Für solche Objekte steigt die Detektionshäufigkeit somit um ein Vielfaches mit der Anzahl der verschachtelten Abtastperioden.Large or close objects can already be detected based on the evaluation of a single sampling period A, B. For such objects, the detection frequency increases many times over with the number of nested sampling periods.

Die Art der Auswertung zur Gewinnung von Messwerten der Umgebung kann zudem bezogen auf einzelne Bereiche des Erfassungsbereiches 12 und/oder bezogen auf die Fahrsituation (Parken, Autobahn, ...) verändert werden. Dabei kann z. B. zwischen Einzelframes, die während einer Abtastperiode A, B erfasst wurden, und der Kombination von Frames, welche aus zwei oder mehr Abtastperioden gewonnen wurden, variiert werden. Die Art der Abtastung muss hierfür nicht verändert werde und entsprechend in der Entwicklungsphase auch nicht mehrfach validiert werden.The type of evaluation used to obtain measured values of the environment can also be related to individual areas of the detection area 12 and/or in relation to the driving situation (parking, motorway, ...). For example, it is possible to vary between individual frames that were recorded during a sampling period A, B and the combination of frames that were obtained from two or more sampling periods. The type of sampling does not have to be changed for this and therefore does not have to be validated multiple times in the development phase.

Die Anzahl der verschachtelten Frames, also der Abtastperioden, kann insbesondere an die Winkelbereiche 16 und Winkelgeschwindigkeit der Änderung des Winkels 20 angepasst werden.The number of nested frames, i.e. the sampling periods, can be adapted in particular to the angular ranges 16 and angular velocity of the change of the angle 20.

Das beschriebene Prinzip der alternierenden Abtastperioden mit jeweiligen Fehlbereichen ist bei 1D abgelenkten Systemen und bei 2D abgelenkten Systemen von Vorteil, da Informationen aus der Nähe des aktuellen Abtastpunktes bzw. der aktuellen Abtastlinie schnell zu erhalten sind.The described principle of alternating sampling periods with respective error ranges is advantageous for 1D deflected systems and 2D deflected systems, since information from the vicinity of the current sampling point or the current scanning line can be obtained quickly.

Das beschriebene Verfahren kann mit Verfahren kombiniert werden, welche jeweils den Erfassungsbereich 12 ohne Fehlstellen abtasten. Zwischen den verschiedenen Modi kann dann umgeschaltet werden, was beispielsweise auch während des Betriebs möglich ist. Eine Implementierung ist z. B. durch eine Verzögerung der Auslösesignale für die Pulse des optischen Signals L möglich. Neben vollständig überlappenden Frames sind auch Modi denkbar, bei dem sich Frames, die den Erfassungsbereich 12 vollständig abtasten, mit solchen Frames kombiniert werden, welche Fehlstellen bei der Abtastung lassen. Hierdurch lassen sich z. B. gewisse Bereiche des Erfassungsbereiches 12 gezielt mit mehr Auflösung erfassen.The method described can be combined with methods which each scan the detection area 12 without any gaps. It is then possible to switch between the different modes, which is also possible during operation, for example. One implementation is possible, for example, by delaying the trigger signals for the pulses of the optical signal L. In addition to completely overlapping frames, modes are also conceivable in which frames which completely scan the detection area 12 are combined with frames which leave gaps in the scanning. This allows, for example, certain areas of the detection area 12 to be specifically captured with more resolution.

In 5 ist schematisch ein Fahrzeug 100, zum Beispiel ein Personenkraftwagen, dargestellt. In einem Frontbereich des Fahrzeuges 100 ist das Lidar-System 30 angeordnet. Das Lidar-System 30 weist die optische Sendeinheit 32 und die optische Empfangseinheit 34 auf. Zwischen der Sendeinheit 32 und der Empfangseinheit 34 ist die Ablenkeinrichtung 10 angeordnet. Durch die Ablenkeinrichtung 10 kann das von der optischen Sendeeinheit 32 gesendete optische Signal L so abgelenkt werden, dass der Erfassungsbereich 12 schrittweise in der Abtastrichtung 18 abgetastet wird. Dabei kann das Abtasten von einem ersten Rand R1 des Abtastbereiches 12 zu einem zweiten Rand R2 des Abtastbereiches 12 realisiert werden.In 5 a vehicle 100, for example a passenger car, is shown schematically. The lidar system 30 is arranged in a front area of the vehicle 100. The lidar system 30 has the optical transmitting unit 32 and the optical receiving unit 34. The deflection device 10 is arranged between the transmitting unit 32 and the receiving unit 34. The deflection device 10 can deflect the optical signal L sent by the optical transmitting unit 32 such that the detection area 12 is scanned step by step in the scanning direction 18. In this case, scanning can be carried out from a first edge R1 of the scanning area 12 to a second edge R2 of the scanning area 12.

Die Empfangseinheit 34 kann zum Empfang des optischen Signals L einen Empfangssensor aufweisen. Der Empfangssensor kann zum Empfang des optischen Signals L z. B. zumindest eine Fotodiode oder zumindest ein ladungsgekoppeltes Halbleiterbauteil, z. B. ein Charge-Coupled Device (CCD) aufweisen. Das CCD kann zweidimensional als Feld ausgestaltet sein. Pixel des zweidimensionalen Feldes können zum Empfang des optischen Signals aktiviert werden, wobei die Aktivierung der Pixel einzeln und/oder gruppenweise möglich ist.The receiving unit 34 can have a receiving sensor for receiving the optical signal L. The receiving sensor can have, for example, at least one photodiode or at least one charge-coupled semiconductor component, e.g. a charge-coupled device (CCD), for receiving the optical signal L. The CCD can be designed as a two-dimensional field. Pixels of the two-dimensional field can be activated to receive the optical signal, whereby the activation of the pixels is possible individually and/or in groups.

In der Steuereinheit 36 kann das optische Signal L ausgewertet werden, das in den Erfassungsbereich 12 gesendet wird und aus dem Erfassungsbereich 12 empfangen wird. Durch die Steuereinheit 36 kann ebenfalls der Sendevorgang in der Sendeeinheit 32, der Empfangsvorgang in der Empfangseinheit 34 sowie ggf. die Drehbewegung des Spiegels 14 kontrolliert und gesteuert werden.The optical signal L that is sent into the detection area 12 and received from the detection area 12 can be evaluated in the control unit 36. The control unit 36 can also monitor and control the transmission process in the transmission unit 32, the reception process in the reception unit 34 and, if applicable, the rotational movement of the mirror 14.

Der Erfassungsbereich 12 befindet sich vor dem Frontbereich des Fahrzeuges 100. Dadurch kann im dargestellten Beispiel ein Bereich in Fahrtrichtung vor dem Fahrzeug 100 überwacht werden. Es ist ebenfalls möglich, das Lidar-System 30 in anderen Bereichen des Fahrzeuges 100 anzuordnen, zum Beispiel im Heckbereich und/oder in Seitenbereichen. Es ist ebenfalls möglich, mehrere Lidar-Systeme 30 an dem Fahrzeug 100 anzuordnen, insbesondere auch in Eckbereichen des Fahrzeuges 100.The detection area 12 is located in front of the front area of the vehicle 100. In the example shown, this allows an area in the direction of travel in front of the vehicle 100 to be monitored. It is also possible to arrange the lidar system 30 in other areas of the vehicle 100, for example in the rear area and/or in side areas. It is also possible to arrange several lidar systems 30 on the vehicle 100, in particular in corner areas of the vehicle 100.

Mit dem Lidar-System 30 können stehende oder bewegte Objekte O, insbesondere Fahrzeuge, Personen, Tiere, Pflanzen, Hindernisse, Fahrbahnunebenheiten, insbesondere Schlaglöcher oder Steine, Fahrbahnbegrenzungen, Verkehrszeichen, Freiräume, insbesondere Parklücken, Niederschlag oder dergleichen, in dem Erfassungsbereich 12 erfasst werden.With the lidar system 30, stationary or moving objects O, in particular vehicles, persons, animals, plants, obstacles, road surface irregularities, in particular potholes or stones, road markings, traffic signs, open spaces, in particular parking spaces, precipitation or the like, can be detected in the detection area 12.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102016122194 A1 [0006]DE 102016122194 A1 [0006]

Claims (13)

Verfahren zur Umgebungserfassung mittels eines Lidar-Systems, aufweisend eine Ablenkeinrichtung (10), mittels welcher ein optisches Signal (L) zum Abtasten eines Erfassungsbereiches (12) mit einem Winkel (20) ablenkbar ist, wobei das Verfahren umfasst: A) erstes Abtasten innerhalb einer ersten Abtastperiode (A): - Aussenden des optischen Signals (L), - Schrittweises Ändern des Winkels (20), mit dem das optische Signal (L) in den Erfassungsbereich (12) abgelenkt wird, B) zweites Abtasten innerhalb einer zweiten Abtastperiode (B): - Aussenden des optischen Signals (L), - Schrittweises Ändern des Winkels (20), mit dem das optische Signal (L) in den Erfassungsbereich (12) abgelenkt wird, wobei zumindest ein Winkel (20) beim zweiten Abtasten von den Winkeln (20) beim ersten Abtasten verschieden ist.Method for environmental detection using a lidar system, having a deflection device (10) by means of which an optical signal (L) can be deflected at an angle (20) for scanning a detection area (12), the method comprising: A) first scanning within a first scanning period (A): - emitting the optical signal (L), - gradually changing the angle (20) at which the optical signal (L) is deflected into the detection area (12), B) second scanning within a second scanning period (B): - emitting the optical signal (L), - gradually changing the angle (20) at which the optical signal (L) is deflected into the detection area (12), at least one angle (20) during the second scanning being different from the angles (20) during the first scanning. Verfahren nach Anspruch 1, wobei das während der ersten Abtastperiode (A) und das während der zweiten Abtastperiode (B) aus dem Erfassungsbereich (12) reflektierte optische Signal (L) ausgewertet wird und in Abhängigkeit von der Auswertung ein Messwertbild ermittelt wird.procedure according to claim 1 , wherein the optical signal (L) reflected from the detection area (12) during the first sampling period (A) and during the second sampling period (B) is evaluated and a measured value image is determined depending on the evaluation. Verfahren nach einem der vorhergehenden Ansprüche, wobei das optische Signal (L) gepulst ausgesendet wird und der Winkel (20) schrittweise von Puls zu Puls geändert wird.Method according to one of the preceding claims, wherein the optical signal (L) is emitted in pulsed form and the angle (20) is changed step by step from pulse to pulse. Verfahren nach einem der vorhergehenden Ansprüche, wobei durch das schrittweise Ändern des Winkels (20) der Erfassungsbereich (12) innerhalb der ersten Abtastperiode (A) und/oder innerhalb der zweiten Abtastperiode (B) von einem ersten Randbereich (R1) zu einem zweiten Randbereich (R2) abgetastet wird.Method according to one of the preceding claims, wherein by gradually changing the angle (20), the detection area (12) is scanned within the first sampling period (A) and/or within the second sampling period (B) from a first edge area (R1) to a second edge area (R2). Verfahren nach einem der vorhergehenden Ansprüche, wobei innerhalb der ersten Abtastperiode (A) bei dem schrittweisen Ändern des Winkels (20) jeweils ein möglicher Winkel ausgelassen wird und wobei das optische Signal (L) innerhalb der zweiten Abtastperiode (B) mit den jeweiligen ausgelassenen möglichen Winkeln abgelenkt wird.Method according to one of the preceding claims, wherein within the first sampling period (A) in the step-by-step change of the angle (20) a possible angle is omitted in each case and wherein the optical signal (L) is deflected within the second sampling period (B) with the respective omitted possible angles. Verfahren nach einem der vorhergehenden Ansprüche, wobei das erste Abtasten alternierend ausgeführt wird mit dem zweiten Abtasten.Method according to one of the preceding claims, wherein the first scanning is carried out alternately with the second scanning. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Schrittweite der Winkeländerung innerhalb der ersten Abtastperiode gleich ist wie innerhalb der zweiten Abtastperiode.Method according to one of the preceding claims, wherein the step size of the angle change within the first sampling period is the same as within the second sampling period. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Schrittweite der Winkeländerung zwischen möglichen Winkeln der Winkelauflösung des Lidar-Systems entspricht.Method according to one of the preceding claims, wherein the step size of the angle change between possible angles corresponds to the angular resolution of the lidar system. Lidar-System (30) zur Umgebungserfassung, aufweisend eine Ablenkeinrichtung (10), welche ausgebildet ist, ein optisches Signal (L) zum Abtasten eines Erfassungsbereiches (12) mit einem Winkel (20) abzulenken, wobei das Lidar-System (30) ausgebildet ist, ein erstes Abtasten innerhalb einer ersten Abtastperiode (A) und ein zweites Abtasten innerhalb einer zweiten Abtastperiode (B) auszuführen, - wobei beim ersten Abtasten der Winkel (20), mit dem das optische Signal (L) in den Erfassungsbereich (12) abgelenkt wird, schrittweise geändert wird, - wobei beim zweiten Abtasten der Winkel (20), mit dem das optische Signal (L) in den Erfassungsbereich (12) abgelenkt wird, schrittweise geändert wird, wobei zumindest ein Winkel (20) beim zweiten Abtasten von den Winkeln (20) beim ersten Abtasten verschieden ist.Lidar system (30) for environmental detection, comprising a deflection device (10) which is designed to deflect an optical signal (L) for scanning a detection area (12) at an angle (20), wherein the lidar system (30) is designed to carry out a first scan within a first sampling period (A) and a second scan within a second sampling period (B), - wherein during the first scan the angle (20) at which the optical signal (L) is deflected into the detection area (12) is changed step by step, - wherein during the second scan the angle (20) at which the optical signal (L) is deflected into the detection area (12) is changed step by step, wherein at least one angle (20) during the second scan is different from the angles (20) during the first scan. Lidar-System nach Anspruch 9, wobei eine Steuereinheit (36) des Lidar-Systems ausgebildet ist, das beim ersten Abtasten aus dem Erfassungsbereich (12) reflektierte optische Signal (L) und das beim zweiten Abtasten aus dem Erfassungsbereich (12) reflektierte optische Signal (L) auszuwerten und in Abhängigkeit von der Auswertung ein Messwertbild zu ermitteln.Lidar system according to claim 9 , wherein a control unit (36) of the lidar system is designed to evaluate the optical signal (L) reflected from the detection area (12) during the first scanning and the optical signal (L) reflected from the detection area (12) during the second scanning and to determine a measured value image depending on the evaluation. Lidar-System nach Anspruch 10, wobei das Lidar-System (30) ausgebildet ist, das Messwertbild auszugeben.Lidar system according to claim 10 , wherein the lidar system (30) is designed to output the measured value image. Fahrzeug (100) mit einem Lidar-System (30) nach einem der Ansprüche 9 bis 11.Vehicle (100) with a lidar system (30) according to one of the Claims 9 until 11 . Fahrzeug nach Anspruch 12, aufweisend zumindest ein Steuergerät, wobei das zumindest eine Steuergerät ausgebildet ist, zumindest eine Fahrfunktion auszuführen, welche von dem Messwertbild abhängt.vehicle after claim 12 , comprising at least one control unit, wherein the at least one control unit is designed to carry out at least one driving function which depends on the measured value image.
DE102023108904.8A 2023-04-06 2023-04-06 METHOD AND LIDAR SYSTEM FOR ENVIRONMENTAL DETECTION AND VEHICLE WITH LIDAR SYSTEM Pending DE102023108904A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102023108904.8A DE102023108904A1 (en) 2023-04-06 2023-04-06 METHOD AND LIDAR SYSTEM FOR ENVIRONMENTAL DETECTION AND VEHICLE WITH LIDAR SYSTEM
PCT/EP2024/058725 WO2024208759A1 (en) 2023-04-06 2024-03-28 Method and lidar system for environment detection, and vehicle comprising a lidar system
CN202480022701.7A CN121079612A (en) 2023-04-06 2024-03-28 Method for detecting environment, laser radar system and vehicle with laser radar system
EP24716359.5A EP4689715A1 (en) 2023-04-06 2024-03-28 Method and lidar system for environment detection, and vehicle comprising a lidar system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023108904.8A DE102023108904A1 (en) 2023-04-06 2023-04-06 METHOD AND LIDAR SYSTEM FOR ENVIRONMENTAL DETECTION AND VEHICLE WITH LIDAR SYSTEM

Publications (1)

Publication Number Publication Date
DE102023108904A1 true DE102023108904A1 (en) 2024-10-10

Family

ID=90718042

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023108904.8A Pending DE102023108904A1 (en) 2023-04-06 2023-04-06 METHOD AND LIDAR SYSTEM FOR ENVIRONMENTAL DETECTION AND VEHICLE WITH LIDAR SYSTEM

Country Status (4)

Country Link
EP (1) EP4689715A1 (en)
CN (1) CN121079612A (en)
DE (1) DE102023108904A1 (en)
WO (1) WO2024208759A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016122194A1 (en) 2016-11-18 2018-05-24 Valeo Schalter Und Sensoren Gmbh Method for operating an optoelectronic sensor of a motor vehicle with variable control of a light source, optoelectronic sensor, driver assistance system and motor vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4047385A1 (en) * 2021-02-19 2022-08-24 Argo AI GmbH Method for operating a lidar scanner in a vehicle, lidar scanner and vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016122194A1 (en) 2016-11-18 2018-05-24 Valeo Schalter Und Sensoren Gmbh Method for operating an optoelectronic sensor of a motor vehicle with variable control of a light source, optoelectronic sensor, driver assistance system and motor vehicle

Also Published As

Publication number Publication date
CN121079612A (en) 2025-12-05
EP4689715A1 (en) 2026-02-11
WO2024208759A1 (en) 2024-10-10

Similar Documents

Publication Publication Date Title
EP3729137B1 (en) Multi-pulse lidar system for multi-dimensional detection of objects
EP1407293B1 (en) Sensing method and device
DE102017002235A1 (en) LIDAR system with flexible scan parameters
DE20105340U1 (en) Dimensional environment detection
EP1068992A2 (en) Device for assisting reversing
WO2019110222A1 (en) Method for operating a sensor arrangement having at least two lidar sensors and sensor arrangement
DE102020206934A1 (en) Adjustment of a horizontal region of interest
WO2019110206A1 (en) Lidar system for surroundings detection and method for operating a lidar system
WO2004059341A1 (en) Method for detecting environmental information and for determining the position of a parking space
WO2016169914A1 (en) Method for operating an optoelectronic sensor for a motor vehicle with adjustment of the transmission of the transmission signals, optoelectronic sensor, driver assistance system, and motor vehicle
DE102023108904A1 (en) METHOD AND LIDAR SYSTEM FOR ENVIRONMENTAL DETECTION AND VEHICLE WITH LIDAR SYSTEM
WO2024046688A1 (en) Lidar system and method for operating a lidar system
DE102017220395A1 (en) DISTANCE MEASURING DEVICE
EP2803061A1 (en) Method for scanning the environment of a moving vehicle
WO2024223529A1 (en) Lidar system and method for sensing surroundings
DE102021112942A1 (en) Method for operating a detection device, detection device and vehicle with at least one detection device
DE102023117446B3 (en) optical system
DE102023108881A1 (en) OPTICAL RECEIVING UNIT FOR A LIDAR SYSTEM, LIDAR SYSTEM FOR A VEHICLE AND METHOD FOR OPERATING A LIDAR SYSTEM
DE102023114062A1 (en) METHOD FOR CALIBRATING AN OPTICAL DETECTION SENSOR AND OPTICAL SENSOR SYSTEM
DE102023125610A1 (en) EVALUATION UNIT FOR A LIDAR SENSOR, LIDAR SENSOR AND METHOD FOR OPERATING A LIDAR SENSOR
DE102023103407A1 (en) Method for operating a lidar system and lidar system for a vehicle
DE102024120324A1 (en) METHOD FOR CALIBRINGING AN OPTICAL SENSOR SYSTEM AND OPTICAL SENSOR SYSTEM
WO2025261790A1 (en) Lidar system and method for sensing surroundings
DE102023124256A1 (en) Method for obtaining angular values of a rotational movement and optical detection system
DE102024113857A1 (en) LIDAR SYSTEM AND METHOD FOR CALIBRATING A LIDAR SYSTEM