[go: up one dir, main page]

DE102023201144A1 - Lidarsystem mit mehreren Wellenleitern zur Strahlrichtungsänderung über Frequenzänderung - Google Patents

Lidarsystem mit mehreren Wellenleitern zur Strahlrichtungsänderung über Frequenzänderung Download PDF

Info

Publication number
DE102023201144A1
DE102023201144A1 DE102023201144.1A DE102023201144A DE102023201144A1 DE 102023201144 A1 DE102023201144 A1 DE 102023201144A1 DE 102023201144 A DE102023201144 A DE 102023201144A DE 102023201144 A1 DE102023201144 A1 DE 102023201144A1
Authority
DE
Germany
Prior art keywords
frequency
spatial direction
modulation
waveguides
lidar system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102023201144.1A
Other languages
English (en)
Inventor
Markus Wintermantel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aumovio Autonomous Mobility Germany GmbH
Original Assignee
Continental Autonomous Mobility Germany GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Autonomous Mobility Germany GmbH filed Critical Continental Autonomous Mobility Germany GmbH
Priority to DE102023201144.1A priority Critical patent/DE102023201144A1/de
Publication of DE102023201144A1 publication Critical patent/DE102023201144A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4818Constructional features, e.g. arrangements of optical elements using optical fibres

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Lidarsystem zur Umgebungserfassung, dadurch gekennzeichnet, dass
- mehrere vorzugsweise parallel nebeneinanderliegende Wellenleiter mit jeweils mehreren Koppelstellen, vorzugsweise in äquidistantem Raster auf einer Linie, zum Senden und Empfangen benutzt werden,
- in einer ersten Raumrichtung die Strahlrichtung der Wellenleiter durch Änderung der Frequenz der Welle geändert wird und
- die mehreren Wellenleiter gleichartig oder unterschiedlich sind und unterschiedliche Strahlrichtungen in einer zweiten Raumrichtung, welche zur ersten zumindest näherungsweise senkrecht steht, und/oder in der ersten Raumrichtung erschlie-ßen, wobei vorzugsweise eine der beiden Raumrichtungen horizontal ist und die andere dann vertikal.

Description

  • Die Erfindung bezieht sich auf ein Lidarsystem insbesondere zur Umgebungserfassung für Kraftfahrzeuganwendungen. Das Lidarsystem weist erfindungsgemäß mehrere Wellenleiter in unterschiedlichen Anordnungen auf, wobei die Wellenleiter über Frequenzänderung in unterschiedlichen Richtungen senden und empfangen.
  • Stand der Technik
  • Kraftfahrzeuge werden zunehmend mit Fahrerassistenzsystemen ausgerüstet, welche mit Hilfe von Sensorsystemen die Umgebung erfassen und aus der daraus erkannten Verkehrssituation automatische Reaktionen des Fahrzeugs ableiten und/oder den Fahrer instruieren, insbesondere warnen. Dabei unterscheidet man zwischen Komfort- und Sicherheitsfunktionen.
  • Mittlerweile gehen die Entwicklungen aber in eine noch weitergehende Richtung. Der Fahrer wird nicht mehr nur assistiert, sondern die Aufgabe des Fahrers wird zunehmend autonom vom Fahrzeug erledigt, d. h. der Fahrer wird zunehmend ersetzt; man spricht von autonomem Fahren.
  • Insbesondere für autonomes Fahren werden Sensoren mit hochgenauer und maschinell einfach auszuwertender Umgebungsinformation benötigt. Radarsysteme sind in ihrer Winkelgenauigkeit und -trennfähigkeit limitiert und können alleine oder auch in Kombination mit Kamerasystemen diese hohen Erfassungsanforderungen zumindest heute noch nicht zufriedenstellend erfüllen. Deshalb werden parallel auch Lidarsysteme eingesetzt, die eine ähnlich hohe Winkelauflösung (horizontal und vertikal) wie eine Kamera haben, aber zusätzlich noch in jedem Pixel eine Entfernungsinformation und -trennfähigkeit liefern. Heute werden meist sogenannte Timeof-Flight-Lidarsysteme eingesetzt, die elektromagnetische Strahlung im Sinne von Partikeln behandeln und so nur die Entfernung, aber nicht die Relativgeschwindigkeit direkt messen können. Zunehmend rücken nun aber auch kohärent arbeitende Lidarsysteme in den Fokus, die elektromagnetische Strahlung im Sinne von Wellen behandeln (wie Radarsysteme) und damit über den Dopplereffekt auch die Relativgeschwindigkeit von Objekten direkt messen können. Weitere Vorteile von kohärenten Lidarsystemen sind, dass sie zum einen robust auf Störeinstrahlung anderer Quellen (z. B. durch andere Lidarsysteme oder Sonnenlicht) sind und zum anderen bei höheren Entfernungen eine höhere Sensitivität haben und damit höhere Reichweiten erlauben. Und außerdem wird kohärenten Lidarsystemen ein höheres Potential an hoher Halbleiterintegration zugeschrieben, was geringere Herstellungskosten verspricht.
  • Bei kohärenten Lidarsystemen ist die ausgesendete elektromagnetische Welle moduliert, d. h. sie ändert sich in wenigstens einem der Parameter Amplitude, Frequenz oder Phase über die Zeit - andernfalls wäre keine Entfernungsmessung möglich. Die meistverwendete Modulation ist bei kohärenten Lidarsystemen die lineare Frequenzmodulation (FMCW = frequency modulated continuous wave), welche meist aus zwei Frequenzrampen besteht, deren Steigung entgegengesetztes Vorzeichen haben. Diese Modulation hat allerdings Mehrdeutigkeitsprobleme insbesondere bei mehreren Reflexionen in selber Strahlrichtung und außerdem ist die Erzeugung einer hochlinearen Frequenzänderung aufwändig. Diese Nachteile treten bei einer Phasenmodulation (z. B. mit pseudozufälligem Wechsel über diskreter Phasenwerte bei fester Sendefrequenz) nicht bzw. weniger auf, allerdings ist die digitale Auswertung der empfangenen Signale aufwändiger und die im Stand der Technik vorgeschlagenen Ansätze sind mit Nachteilen, insbesondere im Hinblick auf Sensitivität und damit Reichweite verbunden. Bisher sind keine Modulationsformen bekannt, die innerhalb der Datenaufnahme eines Pixels und über Pixel hinweg eine kontinuierliche Frequenzänderung beinhalten bzw. erlauben, was für eine Strahlrichtungsänderung mit Hilfe eines Wellenleiters vorteilhaft wäre. Die Strahlrichtungsänderung wird häufig in beiden Raumrichtungen noch in mechanischer Weise realisiert, was aufwändig ist, zu großen Bauformen führt und Nachteile hinsichtlich Robustheit hat. Zumeist werden reellwertige Mischer benutzt (da sie im Vergleich zu komplexwertigen Mischern deutlich weniger Aufwand erfordern); allerdings ist dann die Vorzeichenbestimmung der Empfangsfrequenz im Allgemeinen problematisch oder nicht möglich, so dass es für die Relativgeschwindigkeit und gegebenenfalls für die Entfernung von Objekten zwei Hypothesen gibt. Das Potential der Halbleiterintegration ist in aktuellen kohärenten Lidarsystemen nur unzureichend ausgeschöpft.
  • Aufgabe, Lösung und Vorteile der Erfindung
  • Aufgabe der Erfindung ist es, bei einem Lidarsystem eine einfache Möglichkeit zur Strahlrichtungsänderung und zum parallelen Erfassen von unterschiedlichen Strahlrichtungen bereitzustellen.
  • Diese Aufgabe wird grundsätzlich durch ein Lidarsystem gemäß Anspruch 1 gelöst. Zweckmäßige Ausgestaltungen der Erfindung sind in den Unteransprüchen beansprucht. Eine Kernidee ist dabei, mehrere Wellenleiter, deren Strahlrichtungen über Frequenz verändert werden, einzusetzen.
  • Die Vorteile der Erfindung ergeben sich insbesondere aus der Tatsache, dass eine Strahlrichtungsänderung und paralleles Erfassen von unterschiedlichen Strahlrichtungen in einfacher Weise und potenziell durch Halbleiterintegration realisierbar werden.
  • Das erfindungsgemäße Lidarsystem zur Umgebungserfassung ist dadurch gekennzeichnet, dass erstens mehrere vorzugsweise parallel nebeneinanderliegende Wellenleiter mit jeweils mehreren Koppelstellen, vorzugsweise in äquidistantem Raster auf einer Linie, zum Senden und Empfangen benutzt werden, zweitens in einer ersten Raumrichtung die Strahlrichtung der Wellenleiter durch Änderung der Frequenz der Welle geändert wird und drittens die mehreren Wellenleiter gleichartig oder unterschiedlich sind und unterschiedliche Strahlrichtungen in einer zweiten Raumrichtung, welche zur ersten zumindest näherungsweise senkrecht steht, und/oder in der ersten Raumrichtung erschließen, wobei vorzugsweise eine der beiden Raumrichtungen horizontal ist und die andere dann vertikal.
  • Ferner kann das Lidarsystem kohärent arbeiten, wobei vorzugsweise einer Modulation, insbesondere einer Phasenmodulation, eine kontinuierliche Frequenzänderung überlagert sein kann, wobei die kontinuierliche, insbesondere lineare Frequenzänderung innerhalb und über Pixel hinweg ausgeführt werden kann.
  • Zweckmäßigerweise kann es eine weitere Vorrichtung zur Strahlrichtungsänderung für eine zweite Raumrichtung geben.
  • Vorteilhafterweise kann eine Strahlrichtungsänderung dadurch realisiert werden, dass Material durchstrahlt oder von Material reflektiert wird, bei welchem wenigstens eine optische Materialeigenschaft durch eine Steuergröße, insbesondere durch Anlegen von Spannung oder Durchfließen von Strom, geändert wird, wobei die Steuergröße und damit die Änderung der optischen Materialeigenschaft örtlich unterschiedlich sein kann.
  • In bevorzugter Weise kann für Strahlrichtungsänderung für zweite Raumrichtung ein Körper aus vorzugsweise monolithischem Material durchstrahlt werden, welcher in Orientierungsrichtung der Wellenleiter einen konstanten, insbesondere dreieckförmigem Querschnitt aufweist und gegebenenfalls mit einer ebenfalls in dieser Dimension konstanten Querschnitt aufweisenden Linse für eine Strahlbündelung für die zweite Raumrichtung kombiniert sein kann, wobei die elektrische Steuergröße zum Verändern der optischen Eigenschaft bezüglich der Orientierungsrichtung des Körpers mit konstantem Körperquerschnitt angelegt ist.
  • Ferner kann für Strahlrichtungsänderung für zweite Raumrichtung ein ebenes transparentes oder reflektierendes Flüssigkristallelement mit eindimensionaler Gitterstruktur und Steuerung über Spannung eingesetzt werden, wobei die Gitterstruktur gegebenenfalls auch mehrere Bereiche mit Ansteuerung über unterschiedliche Spannungen aufweisen kann, insbesondere um Fertigungstoleranzen der optisch relevanten Komponenten und ihrer Anordnung zueinander kompensieren zu können.
  • Vorteilhafterweise kann für Strahlrichtungsänderung für zweite Raumrichtung ein transparentes oder reflektierendes Flüssigkristall-Array eingesetzt werden, wobei dieses Flüssigkristall-Array in Orientierungsrichtung der Wellenleiter jeweils nur wenige Elemente, vorzugsweise nur ein einziges, dann stabförmiges Element aufweist, vorzugsweise dieses Flüssigkristall-Array auch zur alleinigen Strahlbündelung oder Unterstützung der Strahlbündelung einer Linse für die zweite Raumrichtung benutzt wird und vorzugsweise mit Hilfe des Flüssigkristall-Arrays auch Fertigungstoleranzen der optisch relevanten Komponenten und ihrer Anordnung zueinander kompensiert werden.
  • Zweckmäßigerweise kann es mehrere parallel arbeitende Sende-Empfangspfade mit jeweils einem Wellenleiter für Strahlrichtungsänderung in erster Raumrichtung durch Frequenzänderung, vorzugsweise gespeist von einer gemeinsamen Laserquelle, geben, wobei diese mehreren Sende-Empfangspfade in zumindest eine der beiden Raumrichtungen parallel unterschiedliche Strahlrichtungen erschließen.
  • Gemäß einer vorteilhaften Ausgestaltung der Erfindung werden unterschiedliche Strahlrichtungen in der zweiten Raumrichtung sowohl durch mehrere parallel arbeitende Sende-Empfangspfade mit vorzugsweise gleichartig strahlenden und nebeneinanderliegenden Wellenleitern als auch durch Änderung der optischen Eigenschaft eines durchstrahlten oder reflektierenden Materials über eine elektrische Steuergröße erzeugt, und die Strahlrichtungen durch mehrere parallel arbeitende Sende-Empfangspfade adressieren für jeweils eine Ansteuerung des durchstrahlten oder reflektierenden Materials entweder eine Gruppe direkt benachbarter Pixel oder eine Gruppe mit zumindest teilweise weiter auseinanderliegenden Pixel, wobei die Ansteuerung des durchstrahlten bzw. reflektierenden Materials sukzessive so geändert wird, dass der gesamte interessierende Strahlrichtungsbereich abgedeckt wird, gegebenenfalls mit größerem Winkelabstand der Pixel nach außen hin über eine nichtäquidistante Anordnung der nebeneinanderliegenden Wellenleiter insbesondere mit beabstandeten Gruppen von Wellenleitern, wobei der Abstand innerhalb einer Gruppe nach außen hin zunimmt, und mit dann vorzugsweise nach außen hin zunehmender optischer Strahlbreite in zweiter Raumrichtung.
  • In vorteilhafter Weise können nahe nebeneinanderliegende Wellenleiter unterschiedlich sein, um durch gleiche Frequenzänderung unterschiedliche Strahlrichtungsbereiche in erster Raumrichtung zu erschließen, so dass durch einen einzelnen Wellenleiter nur noch ein Teil des Strahlrichtungsbereichs in erster Raumrichtung abgedeckt wird.
  • Vorzugsweise wird die Strahlrichtungsänderung in zweite Raumrichtung in kontinuierlicher Weise mit Hilfe eines elektronischen oder mechanischen Ansatzes realisiert, wodurch eine langsames Scannen über Frequenzänderung in erster Raumrichtung insbesondere dadurch ermöglicht wird, dass während einem kompletten Scan in zweite Raumrichtung das Scannen über kontinuierliche Frequenzänderung in erste Raumrichtung nur jeweils etwa ein Pixel voranschreitet.
  • In einer weiteren vorteilhaften Ausgestaltung der Erfindung gibt es einen Sende-Empfangspfad oder mehrere parallel arbeitende und vorzugsweise von einer gemeinsamen Laserquelle gespeiste Sende-Empfangspfade mit jeweils einer Schaltmatrix zur sequentiellen Umschaltung innerhalb einer jeweiligen Gruppe von Wellenleitern, wobei die vorzugsweise gleichartigen Wellenleiter jeweils für Strahlrichtungsänderung in erster Raumrichtung durch Frequenzänderung benutzt werden und alle so nebeneinanderliegend angeordnet sind, dass sie die zweite Raumrichtung komplett erschließen, gegebenenfalls mit größerem Winkelabstand der Pixel nach außen hin über eine nichtäquidistante Anordnung der nebeneinanderliegenden Wellenleiter und mit dann vorzugsweise nach außen hin zunehmender optischer Strahlbreite in zweiter Raumrichtung.
  • Ferner kann das Lidarsystem einen Sende-Empfangspfad mit einer Schaltmatrix zur sequenziellen Umschaltung zwischen mehreren vorzugsweise nahe nebeneinanderliegenden Wellenleitern aufweisen, wobei die Wellenleiter unterschiedlich sind, um durch jeweils gleichartige Frequenzänderung unterschiedliche Strahlrichtungsbereiche in erster Raumrichtung zu erschließen, so dass durch einen einzelnen Wellenleiter nur noch ein Teil des Strahlrichtungsbereichs in erster Raumrichtung abgedeckt wird und der benötigte Frequenzdurchstimmbereich der Laserquelle reduziert ist, und die Strahlrichtungsänderung in zweite Raumrichtung in kontinuierlicher Weise mit Hilfe eines elektronischen oder mechanischen Ansatzes realisiert wird, wodurch eine langsames Scannen über Frequenzänderung in erster Raumrichtung insbesondere dadurch ermöglicht wird, dass während einem kompletten Scan in zweite Raumrichtung das Scannen über kontinuierliche Frequenzänderung in erste Raumrichtung nur etwa ein Pixel voranschreitet.
  • Vorzugsweise ist die Strahlrichtungsänderung durch Frequenzänderung unterschiedlich schnell, insbesondere dadurch gekennzeichnet, dass sie in einem zentralen Bereich langsamer ist als in äußeren Bereichen.
  • Zweckmäßigerweise kann die Frequenzänderung zur Strahlrichtungsänderung durch eine oder mehrere in der Frequenz verstimmbare Laserquelle generiert werden, wobei bei Benutzung mehrerer Laserquellen jede einzelne nur einen Teil des zur Strahlrichtungsänderung benötigten Frequenzbereichs abdeckt.
  • Vorzugsweise werden bei einem Lidarsystem, bei dem es insbesondere durch Fehlausrichtung, durch nicht genau bekannte Frequenzen und/oder durch nicht genau bekannte Abhängigkeit der optischen Eigenschaft von der Steuergröße zu Abweichungen in den Strahlrichtungen kommen kann, diese Abweichungen aus den gemessenen radialen Relativgeschwindigkeiten von stationären Objekten bestimmt, um diese Abweichungen später zu berücksichtigen und/oder zu korrigieren.
  • Zweckmäßigerweise kann für stationäre Objekte die Straßenoberfläche benutzt werden, vorzugsweise mit Bestimmung ihres Winkels in vertikale Richtung aus der gemessenen Entfernung und der Sensoreinbauhöhe.
  • Vorteilhafterweise können die Vorrichtungen zur Änderung der Strahlrichtung dazu benutzt werden, eine Fehlausrichtung auszugleichen und/oder den Erfassungsbereich adaptiv, insbesondere abhängig von der Verkehrssituation, anzupassen.
  • In einer weiteren vorteilhaften Ausgestaltung der Erfindung ist eine Überwachung der Vorrichtungen zur Strahlrichtungsänderung, insbesondere zur Gewährung der Augensicherheit, dadurch realisiert, dass in jeweiliger Raumrichtung Empfangssignale hinsichtlich Objektreflexionen oder hinsichtlich der Anteile von internen Reflexionen und Verkopplungen sowie Reflexionen einer Abdeckung auf Änderungen geprüft werden.
  • Kurzbeschreibung der Zeichnungen
    • 1 zeigt das kohärente Lidarsystem mit binärer Phasenmodulation.
    • 2 zeigt den Verlauf der pseudozufälligen binären Phasenmodulation.
    • In 3 ist der Realteil des niederfrequenten analogen Empfangssignals für ein Objekt dargestellt.
    • 4 zeigt die zweidimensionale Korrelation des Empfangssignals für zwei Objekte.
    • In 5 ist die lineare Änderung der Sendefrequenz während der Phasenmodulation dargestellt.
    • 6 zeigt die zur Sendefrequenz zeitlich verschobene Empfangsfrequenz im Falle keiner Dopplerverschiebung (also bei Relativgeschwindigkeit Null).
    • 7 zeigt die zweidimensionale Korrelation des Empfangssignals für zwei Objekte für eine der Phasenmodulation überlagerte lineare Frequenzänderung.
    • 8 zeigt die aufwandsoptimierte festverdrahtete Digitalschaltung zur Realisierung der zweidimensionalen Korrelationsfilterung; dabei zeigt 8a eine Übersicht und in 8b-8d sind die drei Blöcke detailliert dargestellt.
    • In 9 ist die aufwandsoptimierte Realisierung eines komplexwertigen Multiplizierers für einen beispielhaften Drehfaktor dargestellt.
    • 10 zeigt die aufwandsoptimierte festverdrahtete Digitalschaltung zur Realisierung der zweidimensionalen Korrelationsfilterung bei Anwendung einer Frequenzverschiebung und Dezimation vor der FFT; dabei zeigt 10a eine Übersicht und in 10b-10d sind die drei Blöcke detailliert dargestellt.
    • In 11 ist eine Realisierung der Drehfaktoren zur Frequenzverschiebung dargestellt.
    • 12 zeigt einen Verlauf der Sendefrequenz mit quadratischem Fehler zur idealen linearen Änderung.
    • 13 zeigt den Empfangsfrequenzbereich über der Objektentfernung sowie schraffiert den Bereich, wo es bei reellwertigem Mischer zu Mehrdeutigkeit wegen unbekanntem Vorzeichen kommt.
    • 14 zeigt den Empfangsfrequenzbereich über der Objektentfernung bei invertierter Modulationsbandbreite.
    • 15 zeigt den Empfangsfrequenzbereich über der Objektentfernung bei invertierter und verdoppelter Modulationsbandbreite.
    • In 16 ist ein Wellenleiter mit äquidistanten Koppelstellen dargestellt, welcher zur Fokussierung und zum Scannen über Frequenzänderung in erster Raumrichtung dient.
    • 17 zeigt einen zeitlichen linearen Verlauf des Strahlwinkels und die zugehörige Sendefrequenz, über welche der Strahlwinkel geschwenkt wird.
    • 18 zeigt einen zeitlichen Verlauf des Strahlwinkels mit unterschiedlicher Scangeschwindigkeit und die zugehörige Sendefrequenz.
    • 19 zeigt in zwei unterschiedlichen Perspektiven eine Anordnung mit einem Wellenleiter und einer Linse zur Fokussierung in zweiter Raumrichtung.
    • 20 zeigt die Anordnung nach 19 mit einem zusätzlichen prismenförmigen Element aus Material mit elektrisch steuerbarer Dielektrizitätskonstante zum Scannen in zweiter Raumrichtung.
    • 21 zeigt in drei unterschiedlichen Perspektiven eine Anordnung mit einem Wellenleiter und einem transparenten eindimensionalen Flüssigkristall-Array zum Fokussieren und zum Scannen in zweiter Raumrichtung.
    • 22 zeigt in drei unterschiedlichen Perspektiven eine Anordnung mit einem Wellenleiter und einem reflektierenden eindimensionalen Flüssigkristall-Array zum Fokussieren und zum Scannen in zweiter Raumrichtung.
    • In 23 ist ein zweidimensionales Flüssigkristall-Array dargestellt.
    • 24 zeigt eine Anordnung mit 32 parallelen und äquidistanten Wellenleitern.
    • 25 zeigt ein zweidimensionales Pixelfeld für 32 gleichartige äquidistante Wellenleiter mit geringem Abstand.
    • 26 zeigt ein zweidimensionales Pixelfeld für 32 gleichartige äquidistante Wellenleiter mit 32-fach größerem Abstand.
    • 27 zeigt ein zweidimensionales Pixelfeld für 32 gleichartige Wellenleiter mit unterschiedlichem Abstand.
    • 28 zeigt ein zweidimensionales Pixelfeld für 32 unterschiedliche äquidistante Wellenleiter mit geringem Abstand und weiterhin schrittweisem Scannen in zweite Raumrichtung.
    • 29 zeigt ein zweidimensionales Pixelfeld für 32 unterschiedliche äquidistante Wellenleiter mit geringem Abstand und kontinuierlichem Scannen in zweite Raumrichtung.
    • 30 zeigt die Herleitung für die radiale Komponente der Relativgeschwindigkeit eines stationären Objekts für Elevationswinkel 0°.
    • 31 zeigt die Herleitung für die radiale Komponente der Relativgeschwindigkeit eines stationären Objekts für beliebige Winkellage sowie die Herleitung des Winkels in vertikale Richtung, unter welchem die Straßenoberfläche gesehen wird.
    • In 32 ist ein Bereich der Straßenoberfläche dargestellt, auf welchen ein Strahl trifft.
    • 33 zeigt eine Realisierung für drei äquidistante Phasenwerte mit einem Umschalter zwischen drei unterschiedlich langen Leitungsstücken.
    • 34 zeigt eine Realisierung für vier äquidistante Phasenwerte mit einem schaltbaren Invertierer und einem Umschalter zwischen zwei unterschiedlich langen Leitungsstücken.
    • 35 zeigt eine Modulationsfolge nach Stand der Technik, welche sequenziell aus zwei Teilfolgen zusammengesetzt ist.
    • In 36 ist eine neue Modulationsfolge mit zwei periodisch ineinander geschachtelten Teilfolgen dargestellt.
    • 37 zeigt die beiden FFTs zur ersten Modulationsteilfolge für das Beispiel zweier Objekte.
    • 38 zeigt die beiden Korrelationen zur zweiten Modulationsteilfolge für das Beispiel zweier Objekte.
    • In 39 ist eine alternative neue Modulationsfolge mit zwei periodisch ineinander geschachtelten Teilfolgen dargestellt.
    • 40 zeigt erfindungsgemäß eine neue Modulationsfolge mit zwei periodisch ineinander geschachtelten Teilfolgen sowie überlagerter linearer Frequenzmodulation.
  • Ausführungsbeispiele
  • 1 zeigt schematisch ein kohärentes Lidarsystem 1.1. Mit der Laserquelle 1.2 wird ein kohärentes Signal im Wellenlängenbereich von etwa λ = 1550nm erzeugt; die Kohärenzlänge beträgt zumindest mehrere Mikrosekunden und die Frequenz ist nach Stand der Technik konstant. Anschließend gelangt das Signal in einen schaltbaren Invertierer 1.3, mit dem das Vorzeichen des Signals geändert werden kann, was einer Phasenverschiebung von 180° entspricht. Vorzeichenänderungen finden nur in einem festen Raster von z. B. 3.33ns statt und sind nach Stand der Technik z. B. pseudozufällig, d. h. nur mit einer Häufigkeit bzw. Wahrscheinlichkeit von 50% wird nach Tm = 3.33ns das Vorzeichen geändert. In 2 ist ein Verlauf dieser Modulationsfolge b(n), die aus den Werten +1 und -1 besteht und auch als binär bezeichnet wird, dargestellt; sie wiederholt sich mit der Periode Nm = 4096, also alle 13.6µs. Das modulierte Signal durchläuft einen Verstärker 1.4, einen Zirkulator 1.5 (also eine Sende-Empfangs-Weiche), wird über eine Sende-Empfangs-Einheit 1.6 abgestrahlt und teilweise von einem Objekt 1.7 zurückreflektiert; mit einer von der Objektentfernung r abhängigen und damit variablen Verzögerung t 0 = 2 r / c ,
    Figure DE102023201144A1_0001
    wobei c = 3.108m/s die Lichtgeschwindigkeit ist, und mit einer von der radialen Relativgeschwindigkeit v abhängigen und damit variablen, durch den Dopplereffekt erzeugten Frequenzverschiebung f D = 2 v / λ
    Figure DE102023201144A1_0002
    wird dieses Signal dann von der Sende-Empfangs-Einheit 1.6 aufgenommen und über den Zirkulator 1.5 in den weiteren Empfangspfad geleitet. In einem komplexwertigen Mischer 1.8 (auch als IQ-Mischer bezeichnet) wird das modulierte empfangene Signal mit dem unmodulierten Lasersignal überlagert und mit Hilfe der Photodiodeneinheit 1.9 in ein komplexwertiges niederfrequentes Signal umgesetzt; die Frequenz fe dieses Signals entspricht der Dopplerverschiebung fD nach Bez. (1b): f e = f D = 2 v / λ ,
    Figure DE102023201144A1_0003
    die Modulation dieses Signals ist um die Signallaufzeit gegenüber der des Sendesignals verzögert. In 3 ist der Realteil dieses niederfrequenten analogen Empfangssignals ea(t) im Falle eines Objektes dargestellt. Anschließend wird das Signal in einer Analog-Digital-Wandler-Einheit 1.10 mit der Abtastfrequenz fs = 300MHz, d. h. alle Ts = 3.33ns abgetastet und digitalisiert - die resultierenden Werte des Realteils sind in 3 als Punkte gekennzeichnet; weil hier Abtastzeit Ts = 3.33ns und Modulationszeit Tm = 3.33ns gleich sind, ist auch die Zahl Ns der Abtastwerte pro Modulationsperiode gleich deren Rasterlänge Nm, also Ns = Nm = 4096, so dass nachfolgend für beide ein N = 4096 ohne Index benutzt wird. Das komplexwertige Abtastsignal e(n), im Folgenden auch als Empfangsfolge bezeichnet, kann wie folgt beschrieben werden: e ( n ) = a b ( n m 0 ) exp ( 2 π j ^ n / N k 0 )
    Figure DE102023201144A1_0004
    wobei hier angenommen wird, dass die Laufzeit t0 ein ganzzahliges Vielfaches m0 der Modulationszeit Tm = 3.33ns und damit auch der Abtastzeit Ts = 3.33ns ist: m 0 = t 0 / T m = 2r / c / T m
    Figure DE102023201144A1_0005
    und das zur Dopplerverschiebung korrespondierende k 0 = N T s f D = N T s 2 v / λ
    Figure DE102023201144A1_0006
    ebenfalls ganzzahlig ist; a ist die komplexwertige Amplitude der Empfangsfolge, „exp“ bezeichnet die Exponentialfunktion und ĵ ist die imaginäre Einheit.
  • Die komplexwertige Empfangsfolge e(n) nach Bez. (3) bezieht sich auf ein einzelnes Objekt ohne longitudinale Ausdehnung und auf einen idealen Empfänger. Tatsächlich kann es mehrere und/oder ausgedehnte Objekte geben und im Empfänger wird ein zusätzliches Rauschen re(n) generiert, insbesondere durch thermisches Rauschen; dann ergibt sich die Empfangsfolge e ( n ) = sum i = 1,   ,  l [ a i b ( n m 0, i ) exp ( 2 π j ^ n / N k 0, i ) ] + r e ( n ) ,
    Figure DE102023201144A1_0007
    wobei „sumi=1,...,l“ die Summenfunktion über den Index i = 1,...,I der I nicht longitudinal ausgedehnten Einzelobjekte darstellt.
  • Aus der Empfangsfolge e(n) des Zeitraums n = 0,1,...,N-1 sind die diskreten Laufzeiten m0,i und die diskreten Dopplerverschiebungen k0,i der I Objekte zu ermitteln. Für eine möglichst genaue Bestimmung, also möglichst gute Trennung von Signal und Rauschen und damit maximale Sensitivität und Reichweite des Lidarsystems, ist die sogenannte Optimalfilterung anzuwenden, also die Filterung durch Korrelation zwischen der Empfangsfolge e(n) und dem zweidimensionalen Raum êm,k(n) der möglichen idealen amplitudennormierten Empfangsfolgen eines Einzelobjekts: e ^ m ,k ( n ) = b ( n m ) exp ( j ^ 2 π n / N k )  mit m = 0,   M 1  und k = 0,   , N 1 ;
    Figure DE102023201144A1_0008
    dabei korrespondiert M-1 zu der größten anzunehmenden bzw. interessierenden Objektentfernung und für die Dopplerverschiebung k wird angenommen, dass sie alle Werte annehmen kann. Damit ergibt sich die zweidimensionale Korrelation Em,k zu E m ,k = sum n = 0,   ,  N 1 ( e ( n ) conj ( e ^ m ,k ( n ) ) ) = sum n = 0,   ,  N 1 ( e ( n ) b ( n m ) exp ( j ^ 2 π n / N k ) ) ,  m = 0,   ,  M 1  und k = 0,   , N 1
    Figure DE102023201144A1_0009
    wobei „conj“ die Konjugiert-Komplex-Bildung bezeichnet und die Modulationsfolge b(n) wegen ihrer Reellwertigkeit sich dabei nicht ändert. Die Korrelation Em,k besitzt Betragsspitzen (oft auch als Leistungsspitzen bezeichnet) an den Stellen (m,k) = (m0,i, k0,i) von Objekten; 4 zeigt den Betrag der zweidimensionalen Korrelation für zwei Objekte gleicher Empfangsamplitude bei (m0,1, k0,1) = (300,3846) und (m0,2, k0,2) = (101,1000), was zur ihren Entfernungen r1 = 150m und r2 = 50.5m und den radialen Relativgeschwindigkeiten v1 = -14.2m/s und v2 = 56.8m/s korrespondiert (beim oben für k unsymmetrisch gewählten Bereich k = 0,...,N-1 werden k > N/2 negative Dopplerfrequenzen und damit negative Relativgeschwindigkeiten zugeordnet; eine negative Rekativgeschwindigkeit bedeutet, dass sich das Objekt relativ wegbewegt).
  • Um also die Entfernung ri und die radiale Relativgeschwindigkeit vi von Objekten zu bestimmen, sind die Betragsspitzen der zweidimensionalen Korrelation Em,k zu ermitteln, wobei nur Betragsspitzen verwendet werden, welche über einer Detektionsschwelle liegen, um sie vom Systemrauschen zu unterscheiden. Gemäß den Bez. (3b) und (3c) können ri und vi aus den Positionen der Betragsspitzen, also den diskreten Laufzeiten m0,i und den diskreten Frequenzverschiebungen k0,i wie folgt berechnet werden: r i = m 0, i c T m / 2 ,
    Figure DE102023201144A1_0010
    v i = k 0 ,i λ / ( 2 N T s )
    Figure DE102023201144A1_0011
  • Man kann also aus einer Modulationsfolge unmittelbar und eindeutig Entfernung und Relativgeschwindigkeit von mehreren Objekten bestimmen. Dies ist ein großer Vorteil zur bei kohärenten Lidarsystemen häufig benutzten linearen Frequenzmodulation mit zwei Frequenzrampen, deren Steigungen entgegengesetztes Vorzeichen haben - dort sind Mehrdeutigkeiten bei mehreren Objekten unvermeidbar.
  • Die Berechnung dieser zweidimensionalen Korrelation und ihre nachgelagerte Auswertung finden in der digitalen Signalprozessierungseinheit 1.11 statt. Sie stellt einen hohen Aufwand mit Ordnung N·M·N dar. Die obige Beziehung (6) kann aber auch als diskrete Fouriertransformierte über das Produkt e(n)·b(n-m), n = 0,...,N-1 betrachtet werden, welche für jedes m = 0,...,M-1 zu bestimmen ist; wird die diskrete Fouriertransformation (DFT) über die schnelle Fouriertransformation (FFT) berechnet: E m ,k = FFT k ( e ( n ) b ( n m ) )  mit m = 0,   ,  M 1,
    Figure DE102023201144A1_0012
    wobei k = 0,...,N-1 die Ausgangsdimension der FFT, also die diskrete Frequenz ist, so reduziert sich der Rechenaufwand auf die Ordnung M.N.log2(N).
  • Phasenmodulation mit überlagerter linearer Frequenzmodulation
  • Bisher wurde gemäß Stand der Technik davon ausgegangen, dass die Frequenz, auf welche die Phasenmodulationsfolge b(n) aufgeprägt wird, konstant ist, also sich nicht ändert. Im Folgenden wird nun der erfindungsgemäße Ansatz betrachtet, dass sich die Frequenz kontinuierlich ändert, wobei zuerst eine ideale lineare Änderung angenommen wird; dies ist in 5 dargestellt, wo sich die Frequenz der Laserquelle 1.2 und damit die Sendefrequenz fTX(t) innerhalb einer Modulationsperiode der Dauer Tpm = N-Tm = 13.7µs um B = 800MHz (also mit Steigung B/Tpm = 58.6MHz/µs) linear erhöht. Allgemein gilt also für die Sendefrequenz fTX(t): f TX ( t ) = f TX 0 + t B / T pm  mit T pm = N T m
    Figure DE102023201144A1_0013
  • Ohne Dopplerverschiebung (also bei zuerst angenommener Relativgeschwindigkeit Null) und wie in 6 gezeigt, ist die Frequenz fRX(t) des empfangenen Signals wegen der Laufzeit t0 entsprechend verzögert: f RX ( t ) = f TX ( t t 0 ) = f TX 0 + ( t t 0 ) B / T pm ,
    Figure DE102023201144A1_0014
    und damit gegenüber der Sendefrequenz fTX(t) nach unten verschoben. Diese durch die Laufzeit bedingte Frequenzverschiebung fr beträgt f r = t 0 B / T pm
    Figure DE102023201144A1_0015
    und mit Laufzeit t0 nach Bez. (1a): f r = 2 r / c B / T pm ;
    Figure DE102023201144A1_0016
    für das Beispiel einer Objektentfernung r = 150m und damit einer Laufzeit t0 = 1µs sowie den obigen Modulationswerten ergibt sich die laufzeitgedingte Frequenzverschiebung zu fr = 58.6MHz. Gemäß Bez. (11b) ist die laufzeitgedingte Frequenzverschiebung fr proportional zur Objektentfernung r.
  • Die gesamte Frequenzverschiebung und damit die Frequenz fe des Empfangssignals nach Mischung setzt sich nun aus der Dopplerverschiebung fD nach Bez. (1b) und dem obigen laufzeitbedingten Anteil fr nach Bez. (11b) zusammen: f e = f D + f r = 2 v / λ 2 r / c B / T pm .
    Figure DE102023201144A1_0017
  • Dies ist ein besonderer Unterschied zu dem initial betrachteten Fall einer konstanten Sendefrequenz nach Stand der Technik. Auf diese Empfangsfrequenz ist unverändert die um die Laufzeit verschobene Phasenmodulationsfolge aufgeprägt, so dass für die Empfangsfolge e(n) nach Abtastung und Digitalisierung weiterhin die Bez. (3a) gilt, wobei für die diskrete Empfangsfrequenz k0 statt Bez. (3c) nun gilt: k 0 = N T s ( f D + f r ) = N T s 2 v / λ N T s 2 r / c B / T pm ,
    Figure DE102023201144A1_0018
    und unter Verwendung der diskreten Laufzeit m0 nach (3b) sowie Tpm = N·Tm: k 0 = N T s ( f D + f r ) = N T s 2 v / λ m 0 T s B ,
    Figure DE102023201144A1_0019
    wobei diese diskrete Empfangsfrequenz k0 zuerst auch als ganzzahlig angenommen wird. Der Ansatz der Optimalfilterung, also die Filterung durch Korrelation zwischen der Empfangsfolge e(n) und dem zweidimensionalen Raum êm,k(n) der möglichen idealen amplitudennormierten Empfangsfolgen eines Einzelobjekts bleibt somit weiterhin gültig, gekennzeichnet durch die Bez. (6) und (8) für die zweidimensionale Korrelation Em,k; dabei eignet sich Bez. (8): E m ,k = FFT k ( e ( n ) b ( n m ) )  mit m = 0,   ,  M 1,
    Figure DE102023201144A1_0020
    also die schnellen Fouriertransformationen über jeweiliges Produkt zwischen Empfangsfolge e(n) und jeweilig verschobener Modulationsfolge b(n-m), für eine aufwandsgünstige Berechnung. 7 zeigt den Betrag der zweidimensionalen Korrelation Em,k für das obige Beispiel zweier Objekte mit den Entfernungen r1 = 150m und r2 = 50.5m sowie den radialen Relativgeschwindigkeiten v1 = -14.2m/s und v2 = 56.8m/s; die diskreten Zeitverschiebungen m0,1 = 300 und m0,2 = 101 bleiben unverändert, während sich die diskreten Frequenzverschiebungen gemäß Bez. (13b) um die laufzeitbedingten Anteile -m0,1·Ts·B = -800 und -m0,2-Ts·B = -269 auf k0,1 = 3846-800 = 3046 und k0,2 = 1000-269 = 731 ändern.
  • Für die Bestimmung der Objektentfernungen ri aus den Positionen (m0,i, k0,i) der Betragsspitzen der Korrelation gilt somit weiterhin Bez. (7a): r i = m 0, i c T m / 2 ,
    Figure DE102023201144A1_0021
    während für die Bestimmung der radialen Relativgeschwindigkeiten vi der laufzeitbedingte Anteil an den diskreten Frequenzverschiebungen k0,i zu berücksichtigen ist - mit Hilfe der Bez. (13b) ergibt sich: v i = λ / ( 2 N T s ) ( k 0, i + m 0 ,i T s B ) ;
    Figure DE102023201144A1_0022
    im Unterschied zur ursprünglichen Bez. (7b) ist also von der diskreten Frequenzverschiebung k0,i der laufzeitbedingte Beitrag -m0,i·Ts·B zu subtrahieren, welcher proportional zur diskreten Laufzeit m0,i ist.
  • Die Systemansätze und die Vorteile, welche die Kombination einer Phasenmodulation und einer sich ändernden Frequenz ermöglichen, werden später näher erläutert.
  • Rechenlogik zur Realisierung der zweidimensionalen Korrelation
  • Zuerst wird erörtert, wie die Berechnung der zweidimensionalen Korrelation Em,k in der digitalen Signalprozessierungseinheit 1.11 realisiert werden kann. Die bisher betrachtete Empfangsfolge e(n) des Zeitraums n = 0,1,...,N-1 und die zugehörige Korrelation Em,k beziehen sich auf eine einzelne Erfassungsrichtung, also bezogen auf horizontale und vertikale Richtung auf ein Pixel. Tatsächlich werden in jedem Erfassungszyklus, für den zuerst eine Dauer von 100ms angenommen werden soll, etwa 160.000 Erfassungsrichtungen, also Pixel abgedeckt; dies wird typischerweise durch eine Kombination von parallelem Sender und Empfänger, also parallelem Erfassen von Pixeln, und Scannen, also sequenziellem Erfassen von Pixeln realisiert. Paralleler Sender und Empfänger bedeutet, dass es alle Elemente 1.4-1.10 des Lidarsystems 1.1 in 1 (gegebenenfalls abgesehen von einer gemeinsamen Fokussierungs- und Strahlschwenkungsvorrichtung in der Sende-Empfangs-Einheit 1.6) mehrfach gibt, z. B. 32 Mal. Das Scannen kann z. B. durch kontinuierliche mechanische Bewegung (z. B. eines Spiegels) oder elektronisch, durch kontinuierliche Änderung oder durch sequenzielles Schalten geschehen (Möglichkeiten des elektronischen Scannens werden später erläutert). Beim kontinuierlichen Scannen ist es auch möglich, dass sich Pixel teilweise überlappen, also dass die hinteren der N Werte der Empfangsfolge e(n) eines Pixels auch als vordere Werte des nächsten Pixels benutzt werden. Wird nun noch angenommen, dass M = 500 ist (korrespondiert bei obiger Auslegung zu maximaler Entfernung von 249.5m), dann ist die FFT der Länge 4096 aus Bez. (8) 800 Millionen Mal pro Sekunde zu rechnen. Eine Realisierung dieser vielen FFT-Berechnungen ist über Mikroprozessoren oder DSPs (Digital Signal Processors) nicht möglich; der Takt von solchen Prozessoren liegt typischerweise im Bereich von 1GHz, d. h. pro Takt müsste fast eine komplette FFT der Länge 4096 berechnet werden, moderne Prozessoren können aber in der Regel auch bei Verwendung von parallelen vektoriellen Recheneinheiten nur bis zu Größenordnung 100 Multiplikationen und Additionen pro Takt, was um Größenordnungen unter dem Bedarf für eine FFT der Länge 4096 liegt. Deshalb lassen sich diese vielen FFTs nur über eine in Hardware realisierte spezielle Rechenlogik umsetzen. Da der FFT-Algorithmus aus vielen als Butterfly bezeichneten Subelementen besteht, werden für eine in Hardware realisierte spezielle Rechenlogik der FTT häufig mehrere Butterflys realisiert, die einen programmierbaren Multiplizierer enthalten, da sich der aufzumultiplizierende Drehfaktor über die Sequenz der Butterflys ändert. Allerdings ist die Realisierung programmierbarer Multiplizierer aufwändig.
  • Da die Zahl 800 Millionen der pro Sekunde zu rechnenden FFTs etwa zum realisierbaren Takt von 1GHz einer solchen Rechenlogik korrespondiert, kann man auf programmierbare Multiplizierer verzichten, indem man dediziert jeden Butterfly der FFT und somit jeden darin enthaltenen Addierer und Multiplizierer (für den entsprechenden Drehfaktor) direkt in einer Rechenlogik realisiert. Dies ist in 8 im Block 8.4 dargestellt; eine FFT der Länge 4096 besteht aus log2(4096) = 12 sequenziellen Stufen, und in jeder dieser Stufen gibt es 2048 Butterflys, die jeweils aus zwei komplexwertigen Eingangswerten über eine komplexwertige Addition und Subtraktion sowie eine komplexwertige Multiplikation zwei Ausgangswerte bestimmen (in 8 ist in erster FFT-Stufe ein Butterfly beispielhaft durch dicke Linien hervorgehoben). Da die vielen sequenziellen Rechenoperationen nicht in einem Takt gerechnet werden können, müssen Register zum Zwischenspeichern eingefügt werden; in 8 sind zwischen jeder der 12 FFT-Stufen solche Zwischenspeicher, durch die Blöcke z-1 symbolisiert, eingefügt - tatsächlich können es noch mehr sein, da beispielsweise die Zuleitungen der ersten Stufen sehr lang sind und gegebenenfalls dort weitere Zwischenspeicher benötigt werden (die Zwischenspeicher übernehmen jeden Takt neue, an ihrem Eingang liegende Werte). Damit findet die Berechnung in einer sogenannten Pipeline statt - die Berechnung einer FFT zieht sich über mehrere Takte und in der Rechenschaltung befinden sich Daten von mehreren FFTs; jeden Takt werden die Eingangsdaten einer FFT in die als Pipeline ausgeführte Rechenschaltung eingespeist, das Ergebnis, also die Ausgangsdaten dieser FFT liegen dann nach mehreren Takten am Ausgang der Rechenschaltung an, so dass man jeden Takt das Ergebnis einer neuen FFT bekommt.
  • Der Hauptaufwand zur Realisierung einer solchen Rechenlogik sind die Multiplizierer. In ihnen wird das Produkt zwischen komplexwertigen Signalen und den Drehfaktoren w p ,q = exp ( j ^ π 2 p q / N ) = cos ( π 2 p q / N ) + j ^ sin ( π 2 p q / N ) + j ^ sin ( π 2 p q / N )  mit p = 1,   ,   N / 2 p 1 ,
    Figure DE102023201144A1_0023
    also Einheitszeigern (Betrag = 1) gebildet; im Allgemeinen sind dazu vier reellwertige Multiplizierer nötig. Jeder dieser reellwertigen Multiplizierer wird typischerweise durch zahlreiche Additionen geschobener Werte realisiert. Allerdings wird hier keine hohe Genauigkeit der Faktoren benötigt; beispielsweise kann ein Fehler von bis zu 1/32 toleriert werden, d. h. man kann die quantisierten Werte w p ,q = 1 / 16 round ( 16 cos ( π 2 p q / N ) ) + j ^ 1 / 16 round ( 16 sin ( π 2 p q / N ) )
    Figure DE102023201144A1_0024
    verwenden; dabei bezeichnet „round“ die Rundungsfunktion. Das durch diese Rundung generierte Rauschen am Ausgang der Korrelation Em,k liegt unter dem benötigten Dynamikbereich und auch typischerweise unter dem Effekt des Empfängerrauschens; und der Signalverlust durch dieses Rauschen ist auch vernachlässigbar. Damit muss man nur noch Multiplizierer mit den Faktoren ±1/16, ±2/16, ..., ±15/16 realisieren. Als Beispiel werde der Multiplizierer mit dem Faktor 7/16 betrachtet; wegen 7 / 16 = 8 / 16 1 / 16 = 1 / 2 1 / 16 = 2 1 2 4
    Figure DE102023201144A1_0025
    kann dieser durch Subtraktion des um vier Stellen nach rechts geschobenen Eingangswertes von dem um eine Stelle nach rechts geschobenen Eingangswert realisiert werden - dabei wird von einer binären Zahlendarstellung ausgegangen; die obige Darstellung von 7/16 wird CSD-Code (Canonic-Signed-Digit Code) bezeichnet. Bis auf die Faktoren ±11/16 und ±13/16 kann man alle der obigen Faktoren nach Bez. (16) mit höchstens einer Addition oder Subtraktion realisieren; um für diese Faktoren ±11/16 und ±13/16 nicht zwei Additionen bzw. Subtraktionen einsetzen zu müssen, werden sie durch ±10/16 und ±14/16 angenähert, was immer noch zu akzeptablem Quantisierungsrauschen führt.
  • In 9 ist der komplexwertige Multiplizierer für den Drehfaktor w 2,740 = 1 / 16 ( 10 j ^ 12 ) = ( 2 1 2 3 ) + j ^ ( 2 1 2 2 )
    Figure DE102023201144A1_0026
    dargestellt; aus dem binären Eingangswert i = iRe + ĵ · ilm mit Länge 9bit entsteht nach Multiplikation der Ausgangswert o = oRe + ĵ·olm gleicher Länge, wobei als Beispiel Zahlenwerte eingetragen sind. Für den Real- und Imaginärteil des Ausgangswertes sind jeweils zwei reellwertige Multiplizierer durch jeweils einen Addierer zu realisieren; danach sind jeweils die beiden Teilergebnisse für Real- und Imaginärteil aufzuaddieren. Da auch das Negative von Real- und Imaginärteil des Eingangswertes benötigt wird, findet eine Invertierung statt. Diese Invertierung wird hier einfach durch bitweises Invertieren realisiert, d. h. die zusätzliche Addition von 1, also eines sogenannten LSBs (Least-Significant-Bit) wird weggelassen; der dadurch entstehende Fehler kann durch Aufaddieren von Korrekturwerten zu den Eingangswerten der FFT kompensiert werden - dazu kann der Effekt dieser bei der Invertierung fehlenden Werte 1 am Ausgang der FFT bestimmt und über eine inverse DFT auf den Eingang umgerechnet werden. Auch bei dem Rechtsschieben der binären Werte (für Realisierung der Multiplizierer) wird einfach der hintere Teil weggelassen, also keine Rundung durchgeführt; die dadurch entstehenden Fehler sind mittelwertbehaftet und ihre mittleren Fehler können auch wieder über Aufaddieren von Korrekturwerten zu den Eingangswerten der FFT kompensiert werden. Beim Rechtsschieben bleibt die Bitlänge des Wertes unverändert; dazu muss bei der hier betrachteten Zweikomplementdarstellung nur das oberste Bit des Eingangswertes entsprechend erweitert, also kopiert werden. Das Rechtsschieben selber wird einfach über entsprechende Verdrahtung realisiert und benötigt somit keinen Aufwand. Da die aufzumultiplizierenden Drehfaktoren immer den Betrag 1 haben, haben Ein- und Ausgangswerte der Multiplizierer selben Wertebereich; es müssen also keine zusätzlichen Bits nach oben hin erweitert werden.
  • In den Butterflys findet jeweils eine komplexwertige Addition und Subtraktion zweier komplexwertiger Werte statt; der Betrag des Ergebnisses kann also doppelt so groß sein wie der Betrag der Eingangswerte, so dass der Wertebereich um ein Bit nach oben erweitert werden muss. Dadurch würde sich über die 12 Stufen der FFT die Bitlänge um 12 erhöhen. Allerdings nimmt über die Additionen und Subtraktionen auch der vom Empfängerrauschen stammende Rauschanteil der Werte zu, und zwar im Mittel um √2 hinsichtlich Amplitude. Nach jeweils zwei Stufen verdoppelt sich also die Rauschamplitude. Deshalb kann man in jeder zweiten Stufe das niederwertigste Bit, also das LSB weglassen (man skaliert also dann mit dem Faktor 0.5); das dadurch generierte Quantisierungsrauschen liegt unter dem Effekt des Empfängerrauschens, da der Wertebereich am Eingang der FFT so gewählt ist, dass schon dort das Empfängerrauschen die Amplitude von mehrere LSBs hat. Der Effekt des einfachen Weglassens der LSBs (also ohne Runden), also die dadurch entstehenden mittleren Fehler, kann man auch wieder durch Aufaddieren von Korrekturwerten zu den Eingangswerten der FFT kompensieren. In der Schaltung nach 8 ist diese Skalierung in der letzten Stufe weggelassen, da innerhalb der FFT keine weiteren Rechenschritte mehr folgen, die von einer Reduktion der Bitlänge profitieren würden; somit wächst die Bitlänge über die FFT von 8 Bit am Eingang auf 15 Bit am Ausgang an.
  • Gemäß 8 ist die FFT in einer Struktur mit Dezimation in Frequenz (decimation-infrequency-FFT) ausgeführt, um die längsten Leitungen der Struktur und die nichtrivialen Multiplikationen in den vorderen Stufen mit ihrer geringeren Bitlänge zu haben (in den hinteren zwei Stufen gibt es keine Multiplikationen; der Faktor -ĵ stellt nur entsprechende Verdrahtung dar). Außerdem wird mit dieser Struktur ein Umsortieren der Eingangsdaten in Form von langen Leitungen vermieden; ein Umsortieren der Ausgangsdaten in ihre natürliche Reihenfolge wird für die weitere Verarbeitung hier nicht benötigt. Damit benötigt diese Struktur weniger Realisierungsaufwand als die alternative FFT-Struktur mit Dezimation in Zeit (decimation-in-time-FFT).
  • Gemäß Bez. (8) ist zur Bestimmung der Korrelation Em,k die FFT auf das Produkt zwischen Empfangsfolge e(n) und der verschobenen Modulationsfolge b(n-m) anzuwenden. Wegen der zyklischen Natur der Modulationsfolge b(n) (sie hat Periode N) kann man aber auch das Produkt zwischen der unverschobenen Modulationsfolge b(n) und der zyklisch verschobenen Empfangsfolge e(modN(n+m)), wobei „modN“ die Modulofunktion zum Modul N darstellt, bilden und darauf die FFT anwenden: E m ,k = FFT k ( e ( mod N ( n + m ) ) b ( n ) )  mit m = 0,   , M 1 ;
    Figure DE102023201144A1_0027
    die Werte dieser Korrelation unterscheiden sich von denen der Bez. (8) in der Phase, sind aber im Betrag identisch und nur dieser ist für die weitere Auswertung relevant, so dass hier vereinfachend dasselbe Formelzeichen benutzt wird (dieser Zusammenhang ergibt sich aus dem Zeitverschiebungsversatz der Fouriertransformation). Das Produkt zwischen zyklisch verschobener Empfangsfolge e(modN(n+m)) und Modulationsfolge b(n) wird in 8 im Block 8.2 gebildet und über schaltbare Invertierer realisiert; für Werte 1 von b(n) bleibt der Eingangswert unverändert, für Werte -1 wird er einfach bitweise invertiert - der Effekt des Weglassens der beim Invertieren eigentlich nötigen Addition von einem LSB wird durch Aufaddieren von Korrekturwerten zu den Eingangswerten der FTT im Block 8.3 kompensiert. Es sei bemerkt, dass die schaltbaren Invertierer nur dann nötig sind, wenn sich die Modulationsfolge ändern kann - falls nicht, dann kann man die Invertierung hart implementieren und natürlich nur dort, wo sie stattfindet. Das zyklische Verschieben der Empfangsfolge wird über die Kette der Register z-1 realisiert, in welche initial die Werte der Empfangsfolge geladen werden.
  • Zuvor werden im Block 8.1 zu der Empfangsfolge noch Korrekturwerte c1(n) aufaddiert, was zur Kompensation der Effekte von Verkopplungen und Reflexionen innerhalb des Lidarsystems oder von seiner unmittelbaren Umgebung, insbesondere einer Abdeckung dient; darauf wird später noch näher eingegangen.
  • Wie schon oben erläutert, wird für eine Vereinfachung von Berechnungen zur Quantisierung reines Abschneiden und zur Invertierung ein rein bitweises Invertieren benutzt; die Effekte der dabei entstehenden mittelwertbehafteten Fehler werden durch Addition von Korrekturwerten c2(n) im Block 8.3 vor der FFT kompensiert. Diese Korrekturstufe könnte man statt vor der FFT auch nach der FFT realisieren.
  • Nach der FFT, also nach Bildung der Korrelation Em,k wird das Ergebnis noch weiter prozessiert. Zuerst wird im Block 8.5 der Betrag für jeden der N=4096 komplexen Werte gebildet. Da hier keine hohe Genauigkeit benötigt wird, kann für den Betrag |i| des komplexen Wertes i = iRe + ĵ · ilm die folgende Näherung benutzt werden: | i | = max ( u + v / 8 ,  u u / 8 + v / 2 )  mit u = max ( | i Re | ,   | i Im | )  und v = min ( | i Re | ,   | i IM | ) ,
    Figure DE102023201144A1_0028
    wobei „max“ und „min“ die Maximums- und Minimumsfunktion bezeichnen; diese Berechnung lässt sich mit geringem Logikaufwand implementieren.
  • Die so berechneten Beträge der N=4096 Werte gehen sowohl in den Block 8.6 zur Summenbildung als auch in den Block 8.7 zur Bildung des Maximums. Beide Blöcke sind in kaskadierter Form ausgebildet; in jeder der 12 Stufen werden jeweils die Summen bzw. die Maxima von Wertepaaren gebildet. Benötigte Register zwischen den Stufen sind nicht dargestellt.
  • Die Summenbildung wird zur Abschätzung des Rauschniveaus benötigt, um von Objekten generierte Betragsspitzen der Korrelation von Rauschspitzen unterscheiden zu können. Da es in der Korrelation nur sehr wenige von Objekten generierte Betragsspitzen gibt, also die meisten Werte nur Rauschen darstellen, liefert die Summe nach Division mit 4096, also Rechtsschieben um 12 Bits, eine gute Schätzung des Rauschniveaus.
  • Die Maximumsbestimmung ermittelt für die jeweilige Zeitverschiebung m (welche zur Entfernung korrespondiert) das Betragsmaximum und den zugehörigen Index k über die N=4096 FFT-Ausgangswerte, also in der Frequenzverschiebungsdimension (welche neben dem durch die Relativgeschwindigkeit bedingten Doppleranteil auch einen laufzeitbedingten Anteil aufweist). Liegt dieses Maximum um wenigstens Faktor 3 über dem geschätzten Rauschen, wird es als von einem Objekt generiert betrachtet; aus zugehöriger Zeitverschiebung m = m0,i und zugehörigem Frequenzverschiebungsindex k = k0,i können Entfernung und Relativgeschwindigkeit des jeweiligen Objekts i mit Hilfe der Bez. (7a) und (14) bestimmt werden, aus dem Pegel seine Reflektivität. Wird wie im Block 8.7 dargestellt nur das absolute Maximum bestimmt, kann bei einer Entfernung nur das reflexionsstärkste Objekt im jeweiligen Pixel bestimmt werden. Soll der sehr unwahrscheinliche Fall abgedeckt werden, dass es in einer Entfernung (also etwa dem Bereich von einem halben Meter) in einem Pixel zwei Objekte mit unterschiedlicher Relativgeschwindigkeit gibt, könnte man auch das jeweilige Maximum von mehreren Werteblöcken ausgeben - wegen dem kaskadierten Aufbau der Maximumssuche z. B. von 8 gleich langen Blöcken. Mehrere Blöcke können bei entsprechender Anordnung der Eingangsdaten der Maximumssuche auch dazu genutzt werden, dass man eine Interpolation der Betragsspitze in der FFT für eine genauere Bestimmung der Frequenzverschiebung durchführen kann; denn typischerweise sieht man diese Betragsspitze in zwei benachbarten FFT-Werten (da sie nicht - wie bisher betrachtet - bei einem ganzzahligen Index k0 liegt) und wenn durch entsprechende An- bzw. Zuordnung der Eingangsdaten diese in unterschiedlichen Blöcken der Maximumssuche sind, erhält man danach beide Werte.
  • Es sei noch bemerkt, dass hier für die FFT keine Fensterfunktion benutzt wurde, also keine Multiplikation der Eingangswerte der FFT mit einer Art Glockenkurve; dies wäre nur nötig bzw. sinnvoll, wenn in gleicher Entfernung in einem Pixel zwei Objekte mit ähnlicher Relativgeschwindigkeit und deutlich unterschiedlicher Reflexionsstärke auftreten können und separiert werden sollen. Insbesondere wenn keine Fensterfunktion am Eingang der FFT benutzt wird, wird die Sensitivität am Ausgang der FFT dann reduziert (also das Detektionsvermögen von Objekten mit schwacher Reflektivität und hoher Entfernung), wenn der Frequenzverschiebungsindex k0 nicht ganzzahlig ist, also sich die Betragsspitze auf zwei benachbarte FFT-Werte aufteilt. Dieser Effekt kann dadurch reduzieret werden, dass die Länge der FFT höher gewählt wird als die ihres Eingangssignals, d. h. es werden an das Eingangssignal Nullen angehängt, was als Zero-Padding bezeichnet wird.
  • Hinsichtlich der Indexbestimmung in der Maximumssuche sei noch angemerkt, dass diese wegen der kaskadierten Realisierung sehr einfach bitweise beginnend mit dem LSB aufgebaut werden kann; am Ausgang jedes Vergleichs zweier Werte gibt es neben dem aktuellen Maximumswert noch einen Indexwert, dessen Bitlänge der Nummer der Stufe entspricht. Der so entstehende Index bezieht sich auf die lineare Nummerierung am Eingang der Maximumssuche; da die Nummerierung am Ausgang der FFT hinsichtlich dem Frequenzverschiebungsindex k verwürfelt ist, muss man später noch eine Umrechnung/Abbildung durchführen.
  • Für die Ausgangsdimension der FFT, also die diskrete Frequenz ist bisher - wie allgemein üblich - der nicht symmetrisch liegende Bereich k = 0,...,N-1 betrachtet worden; die tatsächliche Frequenzverschiebung k kann aber beide Vorzeichen annehmen und ist typischerweise durch vorhergehende Tiefpassfilterung z. B. als Teil des Analog-Digital-Wandlers beschränkt, wobei für diese Beschränkung hier etwas vereinfachend der Bereich k = -N/2,...,+N/2 angenommen sei, so dass die obere Hälfte von k = 0,...,N-1 zu negativen Werten durch Subtraktion von N abzubilden ist.
  • Bei der hier betrachteten Auslegung (Abtastzeit Ts = 3.33ns und Modulationsbandbreite B = 800MHz der linearen Frequenzmodulation) beträgt der Relativgeschwindigkeitsbereich am Ausgang der FFT für eine Objektentfernung Null ungefähr ±419km/h (aus Bez. (14) mit k0,i = ±N/2) und für eine maximale Objektentfernung von 249.5m ungefähr -147...+690km/h (aus Bez. (14) mit k0,i = ±N/2 und m0,i = M-1 = 499); damit ist der mögliche bzw. funktional interessierende Bereich der Relativgeschwindigkeiten vollständig abgedeckt und bis auf negative Geschwindigkeiten bei großer Entfernung sogar deutlich überfüllt - später wird gezeigt, wie eine gleichmäßige Überabdeckung des Relativgeschwindigkeitsbereichs, also für alle Entfernungen, erzielt werden kann, um mit Hilfe einer anschließenden Dezimation eine Reduzierung der FFT-Länge zu realisieren. Generell kann eine Dezimation vor der FFT benutzen werden, wenn der Bereich der möglichen Frequenzverschiebungen geringer ist als der Frequenzbereich der FFT, also wenn z. B. die Abtast- und Modulationszeit kleiner als bisher betrachtet sind; im einfachsten Fall erfolgt eine solche Dezimation durch Bildung von Teilsummen der Produktfolge aus verschobener Empfangsfolge multipliziert mit der Modulationsfolge.
  • Wie oben schon angedeutet, findet eine Tiefpassfilterung des Empfangssignals nach dem Mischer statt - dies kann in einem dedizierten Filter geschehen oder als Teil des Analog-Digital-Wandlers (insbesondere wenn dieser als Delta-Sigma-Wandler realisiert ist). Für optimale Sensitivität (also optimales Signal-zu-Rauschverhältnis) wird dazu ein Optimalfilter bezogen auf die Modulationsform eingesetzt: im Falle eines rechteckförmigen sendeseitigen Modulationssignals, welches seine Form auch im Empfangssignal behält (also nach Mischung), hat die Impulsantwort des Tiefpasses auch diesen rechteckförmigen Verlauf. Nach dem Tiefpass erhält man dann für die Elemente des Empfangssignals einen dreiecksförmigen Verlauf doppelter Länge - allerdings exakt nur, wenn die Frequenzverschiebung Null ist. Für andere Frequenzverschiebungen ist eine Filterung mit einem solchen Tiefpass umso weniger optimal (im Sinne einer maximalen Sensitivität), je größer die Frequenzverschiebung ist; durch eine kleinere Abtastzeit Ts (also höhere Abtastfrequenz) kann der relative Bereich der Frequenzverschiebungen und damit der Verlust an Signal-zu-Rauschverhältnis bei der Tiefpassfilterung reduziert werden, wobei dann die Modulationszeit Tm auch höher als die Abtastzeit gewählt werden kann, um in Kombination mit einer Dezimation vor der FFT den benötigten Rechenaufwand nicht signifikant zu erhöhen. Durch die Tiefpassfilterung treten in der Korrelation Em,k typischerweise in zwei aufeinanderfolgenden diskreten Entfernungen m Betragsspitzen auf, so dass über ihre Werte eine Interpolation zur genaueren Entfernungsbestimmung durchführt werden kann.
  • Am Ausgang der in 8 dargestellten festverdrahteten Digitalschaltung fällt jeden Takt, also etwa jede Nanosekunde, die Information an, ob und bei welcher Relativgeschwindigkeit im jeweiligen Pixel und der jeweils betrachteten Entfernung es ein Objekt gibt. Die Empfangsfolge e(n) eines Pixels wird einmal in die Register geladen und bleibt dann über M = 500 Takte bei zyklischem Durchschieben erhalten (für die 500 unterschiedlichen Verschiebungen m und damit unterschiedlichen Entfernungen). Nach M = 500 Takten wird dann die Empfangsfolge des nächsten Pixels geladen. So werden sukzessive alle z. B. 160.000 Pixel von einem Erfassungszyklus mit 100ms Dauer ausgewertet.
  • Die Logik der Digitalschaltung nach 8 besteht hauptsächlich aus Addieren - etwa 300.000 Addierer mit im Mittel der Länge 12 Bit werden benötigt. Durch die immer kleiner werdenden Strukturgrößen von Halbleitertechnologien für Digitalschaltungen wird die Realisierung einer solchen umfangreichen festverdrahten Schaltung ermöglicht - sowohl hinsichtlich Kosten als auch Leistungsverbrauch. Im Vergleich zur Frequenzmodulation nach Stand der Technik verschiebt die Phasenmodulation den Realisierungsaufwand für kohärente Lidarsysteme mehr in den digitalen Bereich (da der analoge Teil einfacher wird, da - wie später erläutert - keine hochgenaue Linearität der Frequenzänderung und keine komplexwertigen Empfänger benötigt werden; und - wie ebenfalls später erläutert - wird durch die der Phasenmodulation überlagerte Frequenzänderung ein einfach zu realisierendes Scannen ermöglicht); wegen dem permanenten und schnellen Fortschritt in den Halbleitertechnologien für Digitalschaltungen führt das zu einer kostenoptimaleren, d. h. günstigeren Lösung.
  • Nun soll noch eine gegenüber 8 alternative Struktur betrachtet werden. Die zweidimensionale Korrelation Em,k nach Bez. (6) kann auch als eindimensionale zeitliche Korrelation zwischen Empfangsfolge e(n) und Folge b(n)·exp(-j2π·n/N·k) gesehen werden, welche für jedes k durchgeführt wird: E m ,k = CC m ( e ( n ) ,  b ( n ) exp ( j ^ 2 π n / N k ) )  mit k = 0,   ,  N 1
    Figure DE102023201144A1_0029
    wobei „CCm“ die zyklische Korrelation zwischen den beiden Folgen der Länge N bedeutet und dabei m = 0,...,N-1 die Dimension am Ausgang der Korrelation ist (oben ist der Anteil von diskreter Laufzeit m im Drehfaktor schon weggelassen, da dieser nur Einfluss auf Phase des Ergebnisses hat, aber nicht auf den hier einzig interessierenden Betrag). Da in der betrachteten Auslegung N>M ist, werden durch die zyklische Korrelation also mehr diskrete Entfernungen m als benötigt prozessiert.
  • Eine zyklische Korrelation im Zeitbereich entspricht einer Multiplikation der diskreten Fouriertransformierten im Frequenzbereich: E m ,k = IFF m ( FFT ( e ( n ) ) FFT ( b ( n ) exp ( j ^ 2 π n / N k ) ) )  mit k = 0,   ,  N 1
    Figure DE102023201144A1_0030
    wobei IFFTm die inverse schnelle Fouriertransformation bedeutet und m = 0,...,N-1 ihre Ausgangsdimension ist (hier ist schon angenommen, dass die DFT über eine FFT realisiert wird). Gemäß dem Frequenzverschiebungssatz der Fouriertransformation bedeutet der auf die Modulationsfolge b(n) im Zeitbereich angewendete Faktor exp(-j2π·n/N·k) eine Verschiebung im Frequenzbereich, also der Fouriertransformierten: E m ,k = IFFT m ( E ( I ) B ( I + k ) ) mit E ( I ) = FFT I ( e ( n ) ) ,  B ( I ) = FFT I ( b ( n ) )  und k = 0,   ,  N 1 ;
    Figure DE102023201144A1_0031
    wegen dem Frequenzverschiebungssatz der Fouriertransformation und der zyklischen Natur der diskreten Fouriertransformierten können für den Betrag der Korrelation folgende weitere Umformungen vorgenommen werden: | E m ,k | = | IFFT m ( E ( I k ) B ( I ) ) | = | IFFT m ( E ( mod N ( I k ) ) B ( I ) ) | mit E ( I ) = FFT I ( e ( n ) ) ,  B ( I ) = F F T I ( b ( n ) )  und k = 0,   ,  N 1
    Figure DE102023201144A1_0032
  • Dieser Zusammenhang kann in eine Struktur analog zu der in 8 dargestellten Struktur umgesetzt werden. Eingangswerte der Struktur sind die FFT der Empfangsfolge, die vorab zu berechnen ist. Sie wird in um k zyklisch verschobener Form mit der vorab bestimmten FFT der Modulationsfolge b(n) multipliziert. Danach kommt eine inverse FFT (IFFT), die sich von der FFT nur im Vorzeichen der Drehfaktoren unterscheidet; die Ausgangsdimension dieser IFFT ist die Entfernungsdimension m (bei der Struktur nach 8 ist sie die Frequenzverschiebungsdimension k), d. h. für eine diskrete Frequenzverschiebung k liegt die zweidimensionale Korrelation Em,k über der Entfernungsdimension m = 0,...,N-1 vor. Danach folgt dann wieder eine Betragsbildung und dann eine Summen- und Maximumsbildung, nun über die Entfernungsdimension. In einem Pixel kann es zwar mehrere Reflexionen mit unterschiedlicher Entfernung geben, aber die Wahrscheinlichkeit, dass diese gleiche Frequenzverschiebung (welche sich aus Beiträgen von Relativgeschwindigkeit und Entfernung zusammensetzt) aufweisen, ist gering, so dass auch hier die Bestimmung des absoluten Maximums ausreicht; als Beispiel sei der Fall von Nebel plus gegebenenfalls stationärem Objekt in einem Pixel betrachtet: zwar haben dann alle Reflexionen gleiche Relativgeschwindigkeit, aber wegen unterschiedlicher Entfernung eine unterschiedliche Frequenzverschiebung. Aus den über der Detektionsschwelle liegenden Maxima mit Indices m = m0,i und k = k0,i können wieder Entfernung und Relativgeschwindigkeit des jeweiligen Objekts i mit Hilfe der Bez. (7a) und (14) bestimmt werden.
  • Falls immer die gleiche Modulationsfolge b(n) benutzt wird, können die Multiplizierer für die Realisierung des Produkts E(modN(I-k))·B(I) in festverdrahteter Form implementiert werden - durch Approximation und CSD-Darstellung wird dann nur ein geringer Realisierungsaufwand nötig. Falls sich die Modulationsfolge ändert, können programmierbare Multiplizierer nötig werden, die deutlich mehr Implementierungsaufwand bedeuten.
  • Wie oben erläutert, werden bei dem hier angenommen N>M (N ≈ 8M) in der Regel viel mehr diskrete Entfernungen m =0,...,N-1 als benötigt prozessiert. Dies kann dadurch umgangen werden, dass vor der IFFT eine Dezimation durchgeführt wird - bei einer Dezimation um den Faktor 8 entstehen aus den N = 4096 Werten dann nur noch 512 Werte, welche in die IFFT gespeist werden; im einfachsten Fall wird die Dezimation durch Addition von jeweils 8 benachbarten Werten realisiert. Damit hat die IFFT statt der ursprünglichen Dimension 4096 nur noch die Dimension 512 und benötigt damit viel weniger Realisierungsaufwand; mit ihrer Länge 512 deckt sie auch noch den vollen Entfernungsbereich der Länge M = 500 ab.
  • Allerdings ist zu berücksichtigen, dass eine solche Struktur pro Pixel N = 4096 Mal durchgetaktet werden muss (so viele Verschiebungen müssen für die FFT des Eingangssignals durchgerechnet werden); das ist gut Faktor 8 mehr als in der Struktur nach 8, welche aber mit einer Taktrate von etwa 1 GHz schon am Maximum des Realisierbaren liegt. Deshalb müsste diese alternative Struktur zu Bez. (22) mehrfach aufgebaut werden, was den Vorteil der kürzeren Länge der IFFT mehr als zunichte macht. Eine solche alternative Struktur ist dann sinnvoll, wenn das Produkt aus Abtastlänge N (und damit gemäß bisher betrachteter Auslegung der Modulationslänge) und der Pixelanzahl so gering ist, dass die Struktur nur wenige Male, vorzugsweise einmal benötigt wird.
  • Optimierte Rechenlogik unter Verwendung von Drehfaktoren und Dezimation
  • Wie oben erläutert, setzt sich die gesamte Frequenzverschiebung und damit die Frequenz fe des Empfangssignals nach Mischung aus der Dopplerverschiebung und dem durch die lineare Frequenzmodulation generierten laufzeitbedingten Anteil zusammen: f e = f D + f r = 2 v / λ 2 r / c B / T pm ,
    Figure DE102023201144A1_0033
    und für die diskrete Frequenz k0 der Empfangsfolge e(n) gilt: k 0 = N T s ( f D + f r ) = N T s 2 v / λ m 0 T s B .
    Figure DE102023201144A1_0034
  • Der laufzeitbedingte Anteil (in obigen Beziehungen der zweite Anteil zu Entfernung r bzw. diskreter Laufzeit m0) führt dazu, dass der für die Auswertung relevante Frequenzbereich von der Entfernung abhängt und mit dieser zunimmt (auf den betragsmäßig größten Frequenzwert bezogen und insbesondere bei größeren Entfernungen). Dies bedeutet, dass für die Berechnungsstruktur nach 8 effektiv eine längere FFT und damit mehr Aufwand benötigt wird verglichen zu reiner Phasenmodulation, also keiner zusätzlichen linearen Frequenzmodulation. Dieses Problem kann dadurch gelöst werden, dass der laufzeitbedingte Frequenzanteil -m0 · Ts · B vor der FFT eliminiert wird; dies soll nun kurz hergleitet werden, wozu die zweidimensionale Korrelation Em,k nach Bez. (6) wie folgt ungeformt wird: E m , k = sum n = 0, , N 1 ( e ( n ) b ( n m ) exp ( j ^ 2 π n / N k ) ) ,  m = 0, , M 1  und k = 0, , N 1, = sum n = 0, , N 1 ( [ e ( n ) b ( n m ) exp ( j ^ 2 π n / N T s B ) ] exp ( j ^ 2 π n / N [ k + m T s B ] ) ) = sum n = 0, , N 1 ( [ e ( n ) b ( n m ) exp ( j ^ 2 π n / N T s B ) ] exp ( j ^ 2 π n / N k _ ) ) mit  k _ = k + m T s B = FFT k _ ( e ( n ) b ( n m ) exp ( + j ^ 2 π n / N m T s B ) ) ;
    Figure DE102023201144A1_0035
    die Ausgangsdimension der FFT ist also nun die diskrete Frequenz k, so dass gemäß Bez. (13b) und (24) die Position k0 von FFT-Betragsspitzen nur noch zur Relativgeschwindigkeit des jeweiligen Objekts korrespondiert: k _ 0 = N T s 2 v / λ .
    Figure DE102023201144A1_0036
  • Das Produkt zwischen Empfangsfolge e(n) und verschobener Modulationsfolge b(n-m) ist vor FFT mit den Drehfaktoren d n , m = exp ( + j ^ 2 π n / N m T s B )
    Figure DE102023201144A1_0037
    zu multiplizieren. Diese Multiplikation findet im Block 10.8 der in 10 dargestellten Berechnungsstruktur statt, also vor Beginn der FFT mit der im Block 10.3 stattfindenden Addition von Korrekturwerten c2(n) für mittelwertbehaftete Fehler innerhalb der FFT durch Abschneiden und rein bitweises Invertieren; Blöcke in 10, welche gegenüber der Berechnungsstruktur nach 8 im Wesentlichen unverändert sind (sich primär nur in der Dimension ändern), sind durch gleiche Subnummern .1-.7 gekennzeichnet.
  • Bei unveränderter Dimension N = 4096 der FFT, welche für die diskrete Frequenz k den Bereich k = -N/2, ..., N/2 erschließt, resultiert für die Relativgeschwindigkeit v ungefähr der Bereich ±419km/h (aus v = λ/(2N-Ts)·k mit k = ±N/2), der deutlich über dem relevanten Geschwindigkeitsbereich von beispielsweise vmin = -80km/h bis vmax = +280km/h liegt - für sich relativ zubewegende Objekte (positives Vorzeichen von v) sind betragsmäßig höhere Relativgeschwindigkeiten funktional relevant als für sich wegbewegende Objekte (negatives Vorzeichen). Der korrespondierende unsymmetrische Bereich für die Frequenz k kann durch entsprechende Verschiebung um die Offsetfrequenz k _ offset = N T s 2 ( v max + v min ) / 2 / λ = N T s ( v max + v min ) / λ
    Figure DE102023201144A1_0038
    in die Frequenz k _ _ = k _ k _ offset
    Figure DE102023201144A1_0039
    mit symmetrischem Bereich transferiert werden; mit Bez. (23) und (27) erhält man für diese laufzeitbereinigte und zentrierte Frequenz: k _ _ = k + m T s B N T s ( v max + v min ) / λ .
    Figure DE102023201144A1_0040
  • Bei Verwendung dieser Frequenz k _ _
    Figure DE102023201144A1_0041
    für die FFT ergibt sich für die zweidimensionale Korrelation Em,k analog zur Herleitung ihrer Darstellung nach Bez. (24): E m , k = FFT k _ _ ( [ e ( n ) b ( n m ) ] exp ( + j ^ 2 π n / N [ m T s B k _ offset ] ) ) = FFT k _ _ ( [ e ( n ) b ( n m ) ] exp ( + j ^ 2 π n / N [ m T s B N T s ( v max + v min ) / λ ] ) ) ,
    Figure DE102023201144A1_0042
    so dass vor der FFT die Produktfolge e(n)·b(n-m) mit den modifizierten Drehfaktoren d n , m = exp ( + j ^ 2 π n / N [ m T s B k _ offset ] ) = exp ( + j ^ 2 π n / N [ m T s B N T s ( v max + v min ) / λ ] )
    Figure DE102023201144A1_0043
    zu multiplizieren ist.
  • Für den beispielhaften Relativgeschwindigkeitsbereich von vmin = -80km/h bis vmax = +280km/h ergibt sich für diese Frequenz k _ _
    Figure DE102023201144A1_0044
    am Ausgang der FFT der symmetrische Bereich k _ _ = 881, , + 881.
    Figure DE102023201144A1_0045
    Dieser Bereich ist kleiner als die halbe FFT-Länge N/2 = 2048, so dass vor der FFT eine Dezimation um den Faktor 2 durchgeführt werden kann. Im einfachsten Fall kann dies - wie im Block 10.9 von 10 dargestellt - durch Addition jeweils zweier aufeinanderfolgenden der insgesamt N Werte geschehen (wegen der Summation zweier Werte erhöht sich dabei die benötigte Bitlänge um 1). Die N/2 Summenwerte bilden dann die Eingangswerte der FFT, welcher noch der Block 10.3 zur Addition von Korrekturwerten c2(n) vorgeschaltet ist. Wegen halbierter Länge N/2 = 2048 hat die FFT eine Stufe weniger, also nur noch 11 Stufen (siehe FFT-Block 10.4 in Berechnungsstruktur nach 10). Die Frequenz k _ _
    Figure DE102023201144A1_0046
    am Ausgang der FFT erstreckt sich nur noch über den Bereich k _ _ = 0, , N / 2 1.
    Figure DE102023201144A1_0047
    Die nachfolgenden Blöcke 10.5-10.7 zur Betrags-, Summen- und Maximumsbildung haben ebenfalls nur noch halbe Dimension N/2 = 2048.
  • Wie oben erläutert, sind mit der Berechnungsstruktur etwa 160.000 Pixel abzudecken; pro Pixel sind nach bisheriger Betrachtung M = 500 Verschiebungen m zwischen Empfangsfolge und Modulationsfolge durchzurechnen, was M = 500 Takte benötigt. Bei einem maximal realisierbaren Takt der Rechenlogik von etwa 1GHz ist dann nur ein Erfassungszyklus von etwa 100ms möglich (dabei ist noch ein gewisser Overhead z. B. für Laden von Daten und Rekonfigurieren des Systems berücksichtigt). Tatsächlich wird aber häufig eine Zykluszeit von 50ms gefordert, was dann eine doppelte Realisierung der Berechnungsstruktur erfordern würde. Um dies zu vermeiden, kann die Modulationszeit Tm effektiv verdoppelt werden, um nur noch halb so viele Verschiebungen pro Pixel durchrechnen zu müssen; man kann diese effektive Verdoppelung auch dadurch definieren, dass bei unverändertem Tm = 3.33ns jeweils zwei aufeinanderfolgende Werte der Modulationsfolge b(n) gleich sind: b ( n + 1 ) = b ( n )  mit n = 0,2,4, , N 2
    Figure DE102023201144A1_0048
    womit dann Abtastzeit Ts und Modulationszeit Tm weiterhin gleich sind, und damit auch weiterhin die Empfangsfolge e(n) und die Modulationsfolge b(n) sich auf die gleiche diskrete Zeit n beziehen. Einziger Unterschied in den obigen Betrachtungen und Beziehungen ist, das für die Verschiebungen m nun nur jeder zweite Wert, also nur geradzahlige Werte m = 0,2,4,...,M-2 zu betrachten sind. Die den Berechnungsstrukturen zugrundeliegende Darstellung der zweidimensionalen Korrelation Em,k, bei welcher statt der Modulationsfolge die Empfangsfolge verschoben wird, lautet dann analog zu Bez. (17) unter Verwendung der obigen Bez. (30) sowie unter Berücksichtigung der Dezimation und wegen der Irrelevanz einer Zeitverschiebung (da nur Betrag von Em,k interessiert): E m , k = FFT k _ ( s ( n ) exp ( + j ^ 2 π n / N [ m T s B k _ offset ] ) ) mit s ( n ) = e ( mod n ( n + m ) ) b ( n ) + e ( mod n ( n + 1 + m ) ) b ( n + 1 ) , k _ _ = 0, , N / 2 1, m = 0,2,4 , M 2 und k _ _ = 0, , N / 2 1.
    Figure DE102023201144A1_0049
  • Die Produktbildung zwischen zyklisch verschobener Empfangsfolge e(modN(n+m)) und Modulationsfolge b(n) nach Bez. (33) ist im Block 10.2 dargestellt; die vorgeschalte Addition der Korrekturwerte c1(n) nach Block 10.1 bleibt zur ursprünglichen Struktur nach 8 unverändert.
  • Da die Struktur nach 10 pro Pixel nur M/2 = 250 mal, also halb so oft wie die ursprüngliche Struktur nach 8 durchzutakten ist, wird die halbe Zykluszeit von 50ms ermöglicht; darüber hinaus ist der Realisierungsaufwand nur etwa halb so groß, da für die wesentlichen Blöcke die Datendimension halbiert ist.
  • Für die Dezimation ist bisher die einfachste Realisierung durch Addition zweier aufeinanderfolgenden Werte betrachtet. Der dadurch realisierte Tiefpass erster Ordnung (also Länge 2) hat einen großen Übergangsbereich mit wenig steiler Flanke; das führt zum einen dazu, dass sich der Pegel im relevanten Frequenzbereich k _ _ = 881, , + 881
    Figure DE102023201144A1_0050
    signifikant ändert (um 2.15dB zwischen k _ _
    Figure DE102023201144A1_0051
    und k _ _ = + 881
    Figure DE102023201144A1_0052
    ), und zum anderen zu einem Sensitivitätsverlust nach Dezimation durch sich von höheren Frequenzen hereinfaltendes Rauschen (bis zu 2.15dB bei k _ _ = + 881
    Figure DE102023201144A1_0053
    ). Durch einen Tiefpass höherer Ordnung kann sein Übergangsbereich schärfer ausgestaltet werden; bei einem Tiefpass dritter Ordnung mit den vier Koeffizienten [0.5, 1, 1, -0.5] beträgt die Pegeldifferenz nur noch 0.91 dB und der maximale Sensitivitätsverlust 1.88dB. Dieser Tiefpass dritter Ordnung benötigt drei Additionen, aber weiterhin keine Multiplikationen, da die Koeffizienten mit dem Betrag 0.5 über Rechtschieben um ein Bit, also mit reiner Verdrahtung realisiert werden können (für das negative Vorzeichen des Koeffizienten -0.5 kann wieder vereinfachend eine bitweise Invertierung benutzt werden). Mit Tiefpässen höherer Ordnung und Koeffizienten, die nicht in einem Zweierpotenzraster liegen (also schon ihrerseits eine oder mehrere Additionen benötigen), kann man noch deutlich schärfere Flanken realisieren. Es sei noch bemerkt, dass grundsätzlich auch Frequenzen k _ _
    Figure DE102023201144A1_0054
    oberhalb ±881 betrachtet und ermittelt werden können (und somit Relativgeschwindigkeiten außerhalb des zugehörigen Bereichs -80km/h,...,+280km/h); allerdings steigen dann Pegel- und Sensitivitätsverluste und oberhalb von k _ _ = ± 1024
    Figure DE102023201144A1_0055
    kommt es zu Mehrdeutigkeiten (da sich Frequenzen in den Bereich innerhalb ±1024 spiegeln).
  • Nun wird noch die Realisierung der Multiplikationen mit den in Bez. (31) beschriebenen Drehfaktoren dn,m erläutert, also Einheitszeigern mit Phasen aus dem vollen Winkelbereich 0...2π. Die Phasen der Drehfaktoren brauchen nicht beliebig genau realisiert zu werden, sondern es kann aus einem limitierten Satz an Phasen diejenige verwendet werden, welche zur realen Phase von dn,m am nächsten liegt. Der einfachste Ansatz wäre, dass nur die vier Phasen 0, π/2, π und 3π/2, also die Drehfaktoren 1, ĵ, -1 und -ĵ realisiert werden, was keine Multiplikation benötigt; allerdings sind dann die entstehenden Effekte nicht vernachlässigbar, also der effektive Verlust an Sensitivität sowie am Ausgang der FFT generiertes Rauschen oder Pseudo-Betragsspitzen. Deshalb wird im Folgenden der Ansatz mit den 8 Phasenwerten 0, π/4, ..., 7π/4 betrachtet, d. h. die realisierten Drehfaktoren sind d _ n , m = exp ( + j ^ π / 4 mod 8 ( round ( 8 n / N [ m T s B k _ offset ] ) ) ) .
    Figure DE102023201144A1_0056
  • Somit kommen zu den einfachen Drehfaktoren ±1 und ±j noch die Drehfaktoren (±1±ĵ)/√2 dazu. Der Faktor 1/√2 = 0.707 kann näherungsweise durch 1-2-2 = 0.75 realisiert werden, also effektiv durch eine Addition (neben dem Invertieren und Rechtsschieben um 2 Bits, welche einfach bzw. ohne Aufwand implementiert werden können).
  • Da sich die Drehfaktoren dn,m über die Verschiebung m, also beim Durchtakten der Rechenlogik ändern, braucht man für ihre Realisierung eine programmierbare Struktur, welche beispielhaft im Block 11.2 der 11 für ein n dargestellt ist (insgesamt gibt es diese Struktur N = 4096 Mal). Aus einem komplexen Eingangswert mit Realteil iRe(n,m) und Imaginärteil iIm(n,m) wird durch Multiplikation mit einem Drehfaktor dn,m der komplexe Ausgangswert mit Realteil oRe(n,m) und Imaginärteil oIm(n,m) gebildet; abhängig davon, welcher der 8 Drehfaktoren d _ p = 0, ,7 = 1,   0.75 ( + 1 + j ^ ) ,   j ^   0.75 ( 1 + j ^ ) ,   1   0.75 ( 1 j ^ ) ,   j ^ ,  0 . 75 ( + 1 j ^ )
    Figure DE102023201144A1_0057
    zu verwenden ist, werden die 6 Umschalter (zwischen dem Wert 0 oder dem jeweiligen Eingangswert) und die 4 schaltbaren Bitinvertierer aus der Logik 11.21 angesteuert. In dieser Logik werden die 10 benötigten binären Schaltsignale aus dem jeweiligen am Eingang liegenden diskreten Phasenwert pn,m = 0,...,7, also aus 3 Bit, berechnet. Der jeweilige Wert pn,m, also gemäß Bez. (34): p n , m = mod 8 ( round ( 8 n / N [ m T s B k _ offset ] ) ) mit m = 0,2,4 , M 2,
    Figure DE102023201144A1_0058
    wird im Block 11.1 mit Hilfe eines Integrators (also einer rekursiven Struktur erster Ordnung) bestimmt; der bzgl. der Verschiebung m lineare Anteil (welcher sich also beim Durchtakten der Berechnungsstruktur sukzessive erhöht) wird durch rekursives Aufaddieren des Wertes im Registers R2 realisiert, der konstante Anteil (zu -koffset) durch initiales Laden des Integrator-Registers RI aus dem Register R1. Die beiden Werte round(-214·n/N·koffset) und round(214·2·n/N·Ts·B) der Register R1 und R2 sind gegenüber denen in Bez. (36) um den Faktor 211 skaliert, also effektiv wird mit 11 Nachkommastellen gerechnet, um insbesondere bei der sukzessiven Integration des Wertes von Register R2 eine genügende Genauigkeit zu erzielen (dieser Wert wird ja M/2 = 250 mal aufintegriert, d. h. dass sich der initiale Rundungsfehler dieses Registerwertes um den Faktor 250 verstärkt; und es sei bemerkt, dass wegen der Verwendung von nur geradzahligen Werten von m noch der zusätzliche Faktor 2 in round(214·2·n/N·Ts·B) nötig ist). Da der Integrator mit 14 Bit in Zweierkomplementarithmetik realisiert ist und somit Überlauf über einen effektiven Wert 8 ignoriert, führt er inhärent die Modulo-Bildung nach Bez. (36) aus. Das Quantisieren auf den Bereich pn,m = 0,...,7 wird durch Verwendung der oberen 3 Bits, also der 3 MSBs realisiert; tatsächlich wird dadurch aber nicht das Runden nach Bez. (36), sondern ein Abschneiden implementiert, was sich vom Runden im Mittel um 0.5 unterscheidet - da dieser mittlere Fehler über alle N Drehfaktoren (n = 0,...,N-1) gemacht wird, bedeutet er nur eine konstante Phasenverschiebung, was aus funktionaler Sicht nicht relevant ist (eine konstante Phasenverschiebung der Eingangsdaten der FFT bewirkt nur eine konstante Phasenverschiebung der FFT-Ausgangsdaten, womit sich deren Betrag, also deren einzig relevante Größe nicht ändert).
  • Die Realisierung der Multiplikation mit den Drehfaktoren dn,m nach 11 benötigt somit nur geringen Aufwand. Mit etwas mehr Aufwand könnte alternativ auch ein normaler komplexwertiger Multiplizier (bestehend aus 4 reellwertigen Multiplizierern) für programmierbare Faktoren der Länge 3 Bit (also für Werte -1, -0.75, ..., 0.5, 0.75) verwendet werden; wegen dem nicht realisierbaren Wert +1 kann dabei eine Skalierung der Drehfaktoren z. B. mit Faktor 0.875 vorteilhaft sein. Die für die vier reellwertigen Multiplizierer jeweils anzuwendenden Faktoren können analog zu 11 mit Hilfe einer Logik aus dem jeweiligen Wert pn,m abgeleitet werden, wobei dieser auch länger als 3 Bit sein kann (da mit einem solchen komplexwertigen Multiplizierer mehr als 8 unterschiedliche Drehfaktoren realisiert werden können).
  • Kompensieren eines nichtlinearen Frequenzverlaufs
  • Bisher wurde für die Sendefrequenz fTX(t) ein ideal linearer Verlauf angenommen: f TX ( t ) = f TX0 + t B / T pm mit T pm = N T m .
    Figure DE102023201144A1_0059
  • Real wird die Modulation aber nicht perfekt sein; häufig weist sie - wie in 12 veranschaulicht - einen quadratischen Fehler f TX , Q ( t ) = Q ( t T pm / 2 ) 2
    Figure DE102023201144A1_0060
    auf und für die die Sendefrequenz ergibt sich: f TX ( t ) = f TX0 + t B / T pm + Q ( t T pm / 2 ) 2 .
    Figure DE102023201144A1_0061
  • Ohne Dopplerverschiebung entspricht die Empfangsfrequenz fRX(t) der um die Laufzeit t0 verschobenen Sendefrequenz fTX(t-t0); für die laufzeitbedingte Frequenzverschiebung fr(t) zwischen Empfangs- und Sendefrequenz ergibt sich dann: f r ( t ) = f RX ( t ) f TX ( t ) = f TX ( t t 0 ) f TX ( t ) = = f TX0 + ( t t 0 ) B / T pm + Q ( t t 0 T pm / 2 ) 2 [ f TX0 + t B / T pm + Q ( t T pm / 2 ) 2 ] = t 0 B / T pm Q 2 ( t T pm / 2 ) t 0 + Q t 0 2 ;
    Figure DE102023201144A1_0062
    die beiden hinteren Terme beschreiben den Fehler f r , Q ( t ) = f TX , Q ( t t 0 ) f TX , Q ( t )
    Figure DE102023201144A1_0063
    der laufzeitbedingten Frequenzverschiebung (welche in der Frequenzverschiebung nach Bez. (11a) für ideale Linearität nicht enthalten sind): f r , Q ( t ) = Q 2 ( t T pm / 2 ) t 0 + Q t 0 2 .
    Figure DE102023201144A1_0064
  • Dieser Fehler überträgt sich nach Mischung und Digitalisierung direkt auf die Empfangsfolge e(n), also in den Fehler k0,Q der diskreten Empfangsfrequenz und analog zu Bez. (13a) ergibt sich dafür: k 0, Q = N T s f r , Q ( t ) = N T s ( Q 2 t t 0 + Q T pm t 0 + Q t 0 2 ) ,
    Figure DE102023201144A1_0065
    und mit t = n·Ts (mit n = 0,...,N-1), t0 = m0·Tm (siehe auch Bez. (3b)) und Tpm = N·Tm: k 0, Q = Q N 2 T m 2 T s m 0 + Q N T m 2 T s m 0 2 Q 2 N T m T s 2 m 0 n mit n = 0, , N 1.
    Figure DE102023201144A1_0066
  • Über die N Werte der Empfangsfolge e(n) sind die ersten beiden Terme konstant, d. h. sie stellen einen konstanten Frequenzfehler dar und verschieben in der zweidimensionalen Korrelation Em,k nur die Position der Betragsspitze in der Frequenzdimension k; dagegen ändert sich der letzte Term linear über die diskrete Zeit n, d. h. während der Empfangsfolge ändert sich die Frequenz, was in der zweidimensionalen Korrelation Em,k zu einer verbreiterten Betragsspitze in der Frequenzdimension k führt - die Breite ist etwa Q·2·N2·Ts 2·Tm·m0. Verschiebung und Verbreiterung der Betragsspitze nehmen mit der diskreten Laufzeit m0, also mit der Objektentfernung zu. Während der Effekt der Verschiebung einfach bei der Umrechnung von Frequenz k0 in Relativgeschwindigkeit berücksichtigt werden kann, führt die Verbreiterung zu einem Sensitivitätsverlust (die Höhe der Betragsspitze wird reduziert), zu einer ungenaueren Bestimmung der Position der Betragsspitze und damit der Relativgeschwindigkeit sowie zu einer schlechteren Separierung von zwei Objekten mit ähnlicher Relativgeschwindigkeit in selber Entfernung.
  • Im Folgenden wird erläutert, wie diese Verbreiterung der Betragsspitze vermieden werden kann. Aus dem Frequenzfehler fr,Q(t) nach Bez. (39) resultiert der Phasenfehler φ r , Q ( t ) = 2 π f ˙ r , Q ( t ) = 2 π ( f ˙ TX , Q ( t t 0 ) f ˙ TX , Q ( t ) ) ( 41 a ) = 2 π Q t 0 t 2 + 2 π Q T pm t 0 t + 2 π Q t 0 2 t; ( 41 b )
    Figure DE102023201144A1_0067
    bei dieser Aufleitung ist die Integrationskonstante weggelassen, weil ein konstanter Phasenanteil funktional nicht relevant ist. In Darstellung für die diskrete Zeit n ergibt sich mit t = n·Ts, t0 = m0 · Tm und Tpm = N · Tm: φ r , Q = 2 π Q T m T s m 0 n 2 + 2 π Q N T m 2 T s m 0 n + 2 π Q T m 2 T s m 0 2 n mit n = 0, , N 1.
    Figure DE102023201144A1_0068
  • Dieser Phasenfehler für ein Objekt mit der diskreten Laufzeit m0 kann dadurch korrigiert werden, dass bei der Berechnung der zweidimensionalen Korrelation Em,k für jede Verschiebung m das Negative des obigen Phasenfehlers dadurch addiert wird, dass vor der FFT eine Multiplikation der Produktfolge e(n) · b(n-m) mit dem Drehfaktor d n , m , Q = exp ( j ^ φ r , Q ( n ) ) = exp ( j ^ 2 π [ Q T m T s 2 m n 2 Q N T m 2 T s m n Q T m 2 T s m 2 n ] ) mit n = 0, , N 1  und m = 0, , M 1
    Figure DE102023201144A1_0069
     
    Figure DE102023201144A1_0070
    stattfindet (es sei bemerkt, dass bei einem Ansatz wie in 10 für m nur die Untermenge der geradzahlige Werte zu benutzen ist). Die Realisierung dieser Drehfaktoren kann mit der Realisierung den obigen Drehfaktoren dn,m nach Bez. (26) oder (31) zur Kompensierung der laufzeitabhängigen Frequenzverschiebung und eines gegebenenfalls unsymmetrischen Dopplerfrequenzbereichs kombiniert werden - es sind dann Drehfaktoren mit der Summe der Phasen der beiden einzelnen Drehfaktoren zu implementieren. Die ersten beiden Phasenanteile in dn,m,Q nach Bez. (43) sind linear in der Verschiebung m, so dass sie bei einer Realisierung der Drehfaktoren analog zu 11 als zusätzlicher Teil des Registers R2, welches Eingang des Integrators ist, implementierbar sind: R2 = round ( 2 14 2 [ n / N T s B + Q T m T s 2 n 2 Q N T m 2 T s n ] ) ;
    Figure DE102023201144A1_0071
    der zusätzliche Teil sind die beiden hinteren Anteile proportional zur Stärke Q des quadratischen Frequenzfehlers. Der hintere, zur Verschiebung m quadratische Anteil in Bez. (43) ist häufig vernachlässigbar, da er wegen M << N deutlich kleiner als die anderen Anteile ist; falls er aber doch realisiert werden soll, benötigt er einen Integrator zweiter Ordnung - es gibt also dann eine drittes Register, das in einem vorgeschalteten Integrator aufintegriert wird, und der Ausgang dieses Integrators geht dann als weiterer Eingang in den Integrator nach 11.
  • Die Korrektur des Frequenzfehlers kann statt vor der FFT auch grundsätzlich nach ihr stattfinden; die Multiplikation mit den Drehfaktoren dn,m,Q, n=0,...,N-1 vor der FTT entspricht einer Faltung des Spektrums (also der DFT bzw. FFT) dieser Drehfaktorenfolge. Im Fall des betrachteten quadratischen Frequenzfehlers hat dieses Spektrum eine breite Betragsspitze um Null herum (Breite der Betragsspitze nimmt mit Verschiebung m zu); damit kann die Faltung auf die Summation über wenige Werte, gewichtet mit komplexen Faktoren, beschränkt werden - trotzdem wäre eine solche Realisierung deutlich aufwändiger als der oben vorgestellte Ansatz mit Korrektur vor FFT, auch weil diese Gewichtungsfaktoren von der Verschiebung m abhängig sind.
  • Bisher wurde ein quadratischer Fehler der Sendefrequenz nach Bez. (37) betrachtet. Die obigen Überlegungen lassen sich auch auf allgemeine Fehler fTX,Q(t) der Sendefrequenz, also allgemeine Abweichungen von einem linearen Verlauf, übertragen. Die Drehfaktoren, mit welchen die Produktfolge e(n) · b(n-m) zur Korrektur des Sendefrequenzfehlers zu multiplizieren ist, lauten in allgemeiner Form unter Verwendung von Bez. (41a) sowie t = n · Ts und t0 = m · Tm: d n , m , Q = exp ( j ^ φ r , Q ( t ) ) = exp ( j ^ 2 π f ˙ r , Q ( t ) ) = exp ( j ^ 2 π [ f ˙ TX , Q ( t t 0 ) f ˙ TX , Q ( t ) ] ) . = exp ( j ^ 2 π [ f ˙ TX , Q ( n T s m T m ) f ˙ TX , Q ( n T s ) ] ) .
    Figure DE102023201144A1_0072
  • Diese Drehfaktoren können wieder mit den Drehfaktoren dn,m nach Bez. (31) zur Kompensierung der laufzeitabhängigen Frequenzverschiebung und eines unsymmetrischen Dopplerfrequenzbereichs kombiniert werden. Für eine Realisierung analog zu 11 lauten dann die diskreten Phasenwerte pn,m mit Wertebereich 0,1,...,7 (also Länge 3 Bit) in Erweiterung der Bez. (36), welche sich auf eine ideal lineare Frequenzmodulation bezogen hat: p n , m = mod 8 ( round ( 8 n / N [ m T s B k _ offset ] 8 ( f ˙ TX , Q ( n T s m T m ) f ˙ TX , Q ( n T s ) ) ) ) .
    Figure DE102023201144A1_0073
  • Der Block 11.1 in 11 zu Generierung dieser diskreten Phasenwerte kann durch ein Register, in das der jeweilige vorberechnete Phasenwert geschrieben wird, ersetzt werden. Statt einem Register nur für einen 3 Bit langen Phasenwert kann auch ein langes Register benutzt werden, in das die diskreten Phasenwerte über alle m, also im oben betrachteten Beispiel M/2 = 250 Werte der Länge 3 Bit geschrieben werden, wobei dieses Register über m dann durchgetaktet, also durchgeschoben wird; dies hat den Vorteil, dass während der Berechnung eines Pixels kein Schreibvorgang durchgeführt werden muss und dass bei über mehrere Pixel gleichen Sendefrequenzfehlern nur einmal geschrieben werden muss (dann ist ein zyklisches Durchschieben zu verwenden). Dieser Ansatz mit vorberechneten Registerwerten kann auch mit einem Ansatz nach 11 mit einer Integratorschaltung kombiniert werden, so dass dann in diesen Registern nur der nicht mit einer Integratorschaltung realisierbare Anteil stehen muss und das gegebenenfalls dazu führt, dass ein Register für die Generierung von mehreren Phasenwerten pn,m, also für unterschiedliche n und/oder m genutzt werden kann, was die Zahl der benötigten Register und den Vorberechnungsaufwand (auch einem Microcontroller) reduziert.
  • Um einen nichtlinearen Frequenzverlauf kompensieren zu können, muss man die Fehler, also Abweichungen vom linearen Verlauf kennen. Wie oben schon erläutert, führen nichtkompensierte Fehler des Frequenzverlaufs insbesondere zu verbreiterten Betragsspitze in der Frequenzdimension k; für die Annahme eines quadratischen Fehlers gibt es einen festen Zusammenhang zwischen Breite der Betragsspitze und der Fehlerstärke Q (siehe auch oben), womit man dann Q berechnen kann. Ein nichtlinearer Frequenzverlauf über Pixel hinweg führt auch dazu, dass es zu Winkelfehlern kommt (dies wird später detaillierter betrachtet, auch wie solche Winkelfehler bestimmt werden können); sind diese Winkelfehler bekannt, kann aus ihnen auf den Fehler im Frequenzverlauf geschlossen werden - nicht nur über Pixel hinweg, sondern auch innerhalb eines Pixels, da der Fehlerverlauf meist zumindest abschnittsweise quadratische Form hat.
  • Kompensation der internen Verkopplungen und Reflexionen von Abdeckung
  • Oben wurde ausgeführt, dass im Block 8.1 bzw. 10.1 der festverdrahteten Rechenlogik nach 8 bzw. 10 zu der Empfangsfolge noch Korrekturwerte c1(n) aufaddiert werden, um die Effekte von Verkopplungen und Reflexionen innerhalb des Lidarsystems oder von seiner unmittelbaren Umgebung, insbesondere einer Abdeckung zu kompensieren. Es sei erwähnt, dass von Radarsensoren, welche auf gleichem Konzept des kohärenten Betriebs wie kohärente Lidarsensoren beruhen, nur eben in anderem elektromagnetischem Frequenzbereich, bekannt ist, dass eine Kompensation solcher Effekte vorteilhaft ist. Nun soll noch erläutert werden, wie sich diese Korrekturwerte bei einem kohärenten Lidarsystem mit Phasenmodulation bestimmen lassen und wie sie einfach realisiert werden können.
  • Wenn man annimmt, dass zum einen die diskrete Entfernung m = 0 genau bei der Entfernung Null liegt und dass zum anderen die Entfernung dieser Verkopplungen und Reflexionen auch vernachlässigbar klein ist (damit ist auch Empfangsfrequenz fe = 0; Doppleranteil ist ja auch Null), dann kann man den in der Empfangsfolge generierten Pegel P dieser Verkopplungen und Reflexionen durch Mittelung über Produkt aus Empfangsfolge e(n) und unverschobener Modulationsfolge b(n) bestimmen (der von realen Objekten stammende Signalanteil in der Empfangsfolge hat zum einen geringeren Pegel und zum anderen mittelt er sich weitgehend heraus, weil er zu einer verschobenen Modulationsfolge korrespondiert und auch im Allgemeinen eine Empfangsfrequenz fe ≠ 0 hat). Die Korrekturwerte c1(n) ergeben sich dann als der so bestimmte Pegel P multipliziert mit -1 und multipliziert mit der unverschobenen Modulationsfolge b(n) mit den Werten ±1. Die Bestimmung dieses Mittelwertes P (durch Summe über die N = 4096 Werte e(n) · b(n) und Shiften des Ergebnisses um 12 Bit nach rechts) kann entweder außerhalb oder innerhalb der festverdrahteten Rechenlogik erfolgen. Bei einer Realisierung innerhalb der Rechenlogik kann entweder ein zusätzlicher Block dazu implementiert werden oder es wird direkt bei der schon existierenden Rechenlogik der Wert der zweidimensionalen Korrelation Em,k bei der diskreten Entfernung m = 0 und der diskreten Frequenz k = 0 benutzt, welcher der Summe von e(n) · b(n) entspricht. Wird das Korrelationsergebnis benutzt, dann ist zu berücksichtigen, dass die Rechenlogik in Form einer Pipeline ausgeführt ist und damit die Berechnung einige Takte dauert; soll also der über die zweidimensionale Korrelation berechnete Pegelwert im selben Pixel schon benutzt werden, muss das Verschieben der Eingangsfolge im Block 8.2 bzw. 10.2, also das Takten dieses Blocks solange ausgesetzt werden. Alternativ könnte auch der Pegelwert vom vorhergehenden Zyklus oder von zuvor verarbeiteten benachbarten Pixel herangezogen werden (sofern von Pixel zu Pixel sich der Wert P nicht signifikant ändert). Für den so bestimmten Pegelwert P ordnet die festverdrahtete Rechenlogik den Korrekturwerten c1(n) die Werte ±P zu; wird immer dieselbe Modulationsfolge b(n) benutzt, so kann das jeweilige Vorzeichen festverdrahtet realisiert werden (negatives Vorzeichen vorzugsweise nur durch bitweise Invertierung), kann sich b(n) ändern, so werden schaltbare Invertierer benötigt.
  • Durch das oben beschriebene Verschleifen der Empfangspulsform und da insbesondere die Reflexion einer Abdeckung eine nicht ganz vernachlässigbare Laufzeit haben kann, ist auch bei der diskreten Entfernung m = 1 gegebenenfalls noch ein Signalanteil sichtbar. Dann ist der Pegel in der Empfangsfolge e(n) nicht nur abhängig vom jeweiligen Wert von b(n), sondern auch vom vorhergehenden Wert b(n-1), so dass zwei Mittelwerte bestimmt werden müssen: einer über die Zeitwerte n, bei denen b(n) und b(n-1) gleiches Vorzeichen haben, und einer für ungleiches Vorzeichen von b(n) und b(n-1). Diese zwei Pegelwerte werden in der festverdrahteten Logik dann den Korrekturwerten c1(n) vorzeichenrichtig zugeordnet, abhängig davon, ob b(n) und b(n-1) zum jeweiligen n gleiches oder entgegengesetztes Vorzeichen aufweisen (wenn sich die Modulationsfolge b(n) ändern kann, benötigt man dazu konfigurierbare Invertierer und Schalter). Grundsätzlich könnten diese zwei Pegelwerte auch aus den zwei Summen von e(n) · b(n) und e(n) · b(n-1) über alle n bestimmt werden, wobei diese Summen entweder in einer expliziten Berechnung bestimmt oder aus der zweidimensionalen Korrelation entnommen werden. Falls der Empfangspuls derart weit verschliffen und/oder verschoben ist, dass ein Wert der Empfangsfolge e(n) von drei benachbarten Werten von b(n) beeinflusst wird, ist das oben beschriebene Verfahren entsprechend zu erweitern.
  • Durch die der Phasenmodulation überlagerte lineare Frequenzänderung kann die Empfangsfolge insbesondere von der Reflexion einer Abdeckung eine kleine Frequenz aufweisen; auch wenn während den N = 4096 Werten eines Pixels nur ein Bruchteil einer Periode durchschritten wird, würde die oben beschriebene Kompensation mit ihrer Annahme der Empfangsfrequenz Null und damit einer konstanten Phase nicht mehr komplett wirken. Um den Effekt der Frequenz zu reduzieren, könnten Pegelwerte abschnittsweise bestimmt werden, z. B. über 4 Abschnitte der Länge N/4 = 1024. Alternativ könnte bei Kenntnis der kleinen Empfangsfrequenz diese vor Bestimmung der Pegelwerte durch Multiplikation mit entsprechenden Drehfaktoren eliminiert und dann diese Drehfaktoren bei der Bestimmung der Korrekturwerte c1(n) wieder anwendet werden; dies ist allerdings recht aufwändig. Die Pegelwerte lassen sich auch wieder aus der zweidimensionalen Korrelation bestimmen; dabei kann auch eine unbekannte Frequenz mit Hilfe einer Interpolation ermittelt werden.
  • Falls die Effekte von Verkopplung und Reflexion über die Zeit und/oder über kleine Pixelbereiche zumindest näherungsweise konstant sind, kann über Erfassungszyklen und/oder Pixelbereiche gemittelt werden. Dass über alle Pixel die Effekte konstant sind, ist im Allgemeinen aber nicht der Fall, da sich z. B. durch unterschiedliche Strahlrichtungen unterschiedliche Phasenlagen der Reflexionen von einer Abdeckung ergeben.
  • Vorzeichenbestimmung der Empfangsfrequenz bei reellwertigem Mischer mit Hilfe linearer Frequenzmodulation
  • In den folgenden Abschnitten sollen die Vorteile und die Systemansätze, welche die Kombination einer Phasenmodulation und einer sich ändernden Frequenz ermöglichen, erläutert werden.
  • Im bisher betrachteten Lidarsystem nach 1 ist der Mischer komplexwertig ausgeführt, was gegenüber einem reellwertigen Mischer (mit nur einem reellwertigen Ausgang) für den Empfangspfad einen deutlichen Mehraufwand (nahezu doppelt) darstellt. Bei Verwendung eines reellwertigen Mischers kann aber nur der Betrag der Empfangsfrequenz ermittelt werden, nicht das Vorzeichen, da es in der Korrelation Em,k zwei Betragsspitzen bei (m0, +k0) und (m0, -k0) gibt. Im Falle einer konstanten Sendefrequenz nach Stand der Technik, kann dann nur der Betrag, aber nicht das Vorzeichen der radialen Relativgeschwindigkeit bestimmt werden. Zur Ermittlung des Vorzeichens können nach Stand der Technik Ansätze über Tracking, d. h. Verfolgung über mehrere Aufnahmezyklen, und/oder über Plausibilisierung, z. B. ob der gemessene Betrag der radialen Relativgeschwindigkeit zu einem stationären Objekt korrespondiert, benutzt werden, was aber auch mit Nachteilen verbunden ist. Diese Nachteile lassen sich durch die der Phasenmodulation überlagerte lineare Frequenzmodulation reduzieren. Gemäß Bez. (12): f e = f D + f r = 2 v / λ 2 r / c B / T pm ,
    Figure DE102023201144A1_0074
    setzt sich die Empfangsfrequenz fe nach Mischung und auch nach Digitalisierung aus der durch die Relativgeschwindigkeit v generierten Dopplerverschiebung fD und der durch die lineare Frequenzmodulation bewirkten Frequenzverschiebung fr zusammen, wobei fr proportional zur Objektentfernung r ist, die mit Hilfe der Phasenmodulation bestimmt wird. Der zum relevanten Relativgeschwindigkeitsbereich vmin, ..., vmax korrespondierende Bereich der Empfangsfrequenz fe verschiebt sich somit über die Objektentfernung r; dies ist in 13 für vmin = -80km/h und vmax = +280km/h sowie die oben betrachtete Auslegung der linearen Frequenzmodulation, d. h. Modulationsbandbreite B = 800MHz über Tpm = 13.7µs, dargestellt. Als Beispiel werde die Objektentfernung r = 200m betrachtet; der relevante Frequenzbereich erstreckt sich über fe = -106.8,...,22.3MHz. Da bei einem reellwertigen Mischer nur der Betrag, aber nicht das Vorzeichen der Empfangsfrequenz bestimmt werden kann, kommt es für Empfangsfrequenzen im Bereich fe = -22.3,...,22.3MHz, welcher zum Relativgeschwindigkeitsbereich v = 156,...,280km/h korrespondiert, zu Mehrdeutigkeit - es kann also z. B. nicht zwischen den zwei Relativgeschwindigkeiten v = 156km/h und v = 280km/h unterschieden werden, oder auch nicht zwischen v = 186km/h und v = 250km/h; für alle Empfangsfrequenzen mit gemessenem Betrag |fe| > 22.3MHz ist nur das negative Vorzeichen möglich, so dass sich die Relativgeschwindigkeit eindeutig bestimmen lässt. In 13 ist der mehrdeutige Bereich der Empfangsfrequenz schraffiert dargestellt. Für die maximale Objektentfernung 249.5m liegt fast der gesamte relevante Frequenzbereich fe = -126.2,...,2.9MHz im Negativen, so dass es abgesehen vom Relativgeschwindigkeitsbereich v = 265,...,280km/h zu keinen Mehrdeutigkeiten kommt.
  • Um den Bereich der Empfangsfrequenz mit Mehrdeutigkeit zu reduzieren, kann eine negative Modulationsbandbreite, also bei gleichem Betrag wie oben B = -800MHz gewählt werden, d. h. die Sendefrequenz erniedrigt sich linear über die Zeit. In 14 sind dafür die Verhältnisse für die Empfangsfrequenz dargestellt; für Objektentfernungen r > 73.4m gibt es gar keine Mehrdeutigkeiten mehr. Allerdings ist die maximal auftretende Empfangsfrequenz nun betragsmäßig höher als bei positiver Modulationsbandbreite (198.1 MHz statt 126.2MHz), so dass eine höhere Abtastfrequenz von wenigstens etwa fs = 450MHz nötig ist (statt fs = 300MHz). Durch ein Erhöhen des Betrags der Modulationsbandbreite B kann der Entfernungsbereich mit Mehrdeutigkeiten noch weiter reduziert werden; für doppelten Betrag und negatives Vorzeichen der Modulationsbandbreite, also B = -1600MHz, kommt es gemäß 15 nur noch für Objektentfernungen r < 36.7m zu Mehrdeutigkeiten; allerdings ist dann eine weitere Erhöhung der Abtastfrequenz nötig. Es sei noch erwähnt, dass eine höhere Abtastfrequenz (und mehr Abtastwerte pro Pixel, deren Datenaufnahmezeit unverändert bleiben soll) die FFT zur Berechnung der zweidimensionalen Korrelation unveränderte Länge haben kann, wenn - wie oben erläutert - der laufzeitbedingte Anteil der Frequenzverschiebung vor FFT über Multiplikation entsprechender Drehfaktoren eliminiert wird und danach eine entsprechende Dezimation sattfindet.
  • Mit Hilfe des laufzeitabhängigen Frequenzverschiebungseffekts der linearen Frequenzmodulation lässt sich also das bei einem reellwertigen Mischer auftretende Mehrdeutigkeitsproblem bei der Bestimmung der Relativgeschwindigkeit auf nähere Objektentfernungen reduzieren. Da dort im Tracking normalerweise schon Tracks aufgesetzt sind, lässt sich bei Zuordnung der aus einem einzelnen Erfassungszyklus generierten Detektionen zu den Tracks die Mehrdeutigkeit lösen.
  • Sollen möglichst geringe Abtastfrequenzen eingesetzt werden, sind nur kleine Modulationsbandbreiten möglich, so dass sich über den ganzen Entfernungsbereich Mehrdeutigkeiten in der Bestimmung der Relativgeschwindigkeit ergeben können. Diese kann dadurch gelöst werden, dass über Erfassungszyklen hinweg die Modulationsbandbreite geändert wird, insbesondere ihr Vorzeichen alterniert wird. Für die Empfangsfrequenz erhält man im Falle der Modulationsbandbreite +B: f e ,1 = f D + f r = 2 v / λ 2 r / c B / T pm ,
    Figure DE102023201144A1_0075
    und im Falle der invertierten Modulationsbandbreite -B: f e ,2 = f D f r = 2 v / λ + 2 r / c B / T pm ,
    Figure DE102023201144A1_0076
    wobei die laufzeitabhängige Frequenzverschiebung f r = 2 r / c B / T pm
    Figure DE102023201144A1_0077
    sich dabei auf +B bezieht und generell bekannt ist, da die Objektentfernung r ja mit Hilfe der Phasenmodulation bestimmt wird. Die Dopplerverschiebung fD ergibt sich durch Summation dieser beiden Beziehungen zu f D = ( f e ,1 + f e ,2 ) / 2.
    Figure DE102023201144A1_0078
  • Bei Verwendung eines reellwertigen Mischers werden allerdings nur die Beträge |fe,1| und |fe,2| der beiden Empfangsfrequenzen gemessen. Wie man daraus eindeutig die Relativgeschwindigkeit v ermitteln kann, soll nun für eine positive laufzeitbedingte Frequenzverschiebung fr hergeleitet werden (also B < 0). Wenn die Dopplerverschiebung fD vom Betrag her unter diesem fr liegt (also |fD| < fr), dann ist gemäß Bez. (47) fe,1 > 0, also fe,1 = |fe,1|, und fe,2 < 0, also fe,2 = -|fe,2|, und für die Differenz der Beträge der Empfangsfrequenzen gilt dann unter Verwendung der Bez. (47): | f e ,1 | | f e ,2 | = f e ,1 ( f e ,2 ) = f e ,1 + f e ,2 = 2 f D für  | f D | < f r ,
    Figure DE102023201144A1_0079
    und für den Betrag dieser Differenz mit betrachtetem |fD| < fr: | | f e ,1 | | f e ,2 | | = 2 ( f D ) < 2 f r für  | f D | < f r .
    Figure DE102023201144A1_0080
  • Für Dopplerverschiebung fD ≥ fr sind beide Empfangsfrequenzen nicht negativ, also fe,1 = |fe,1| und fe,2 = |fe,2|, so dass unter Verwendung der Bez. (47) gilt: | f e ,1 | | f e ,2 | = f e ,1 f e ,2 = 2 f r  f u ¨ r f D f r ,
    Figure DE102023201144A1_0081
    während für Dopplerverschiebung fD ≤ -fr beide Empfangsfrequenzen negativ sind, also fe,1 = -|fe,1| und fe,2 = -|fe,2|, und somit gilt: | f e ,1 | | f e ,2 | = f e ,1 ( f e ,2 ) = f e ,1 + f e ,2 = 2 f r  f u ¨ r f D f r
    Figure DE102023201144A1_0082
  • Somit lassen sich die drei Fälle |fD| < fr (also -fr < fD < fr), fD ≥ fr und fD ≤ -fr eindeutig aus der Differenz |fe,1| - |fe,2| der gemessenen Beträge der beiden Empfangsfrequenzen unterscheiden und damit bestimmen: | | f e ,1 | | f e ,2 | | < 2 f r | f D | < f r ,
    Figure DE102023201144A1_0083
    | f e ,1 | | f e ,2 | = 2 f r f D f r ,
    Figure DE102023201144A1_0084
    | f e ,1 | | f e ,2 | = 2 f r f D f r .
    Figure DE102023201144A1_0085
  • Für jeden dieser drei Fälle ist das Vorzeichen der beiden Empfangsfrequenzen eindeutig definiert (siehe jeweils oben), so dass mit Bez. (48) die Dopplerverschiebung fD eindeutig bestimmt werden kann: | | f e ,1 | | f e ,2 | | < 2 f r | f D | < f r f e ,1 = | f e ,1 | ,  f e ,2 = | f e ,2 | f D = ( | f e ,1 | | f e ,2 | ) / 2 ,
    Figure DE102023201144A1_0086
    | f e ,1 | | f e ,2 | = 2 f r f D f r f e ,1 = | f e ,1 | ,  f e ,2 = | f e ,2 | f D = ( | f e ,1 | + | f e ,2 | ) / 2
    Figure DE102023201144A1_0087
    | f e ,1 | | f e ,2 | = 2 f r f D f r f e ,1 = | f e ,1 | ,  f e ,2 = | f e ,2 | f D = ( | f e ,1 | | f e ,2 | ) / 2 .
    Figure DE102023201144A1_0088
  • Bisher wurde ein positives Vorzeichen der laufzeitbedingten Frequenzverschiebung fr betrachtet (also wegen Bez. (11b) Modulationsbandbreite B < 0); die analogen Betrachtungen sind für negatives Vorzeichen (also Modulationsbandbreite B > 0) gültig: | | f e ,1 | | f e ,2 | | < 2 | f r | f D | f r | f e ,1 = | f e ,1 | , f e ,2 = | f e ,2 | f D = ( | f e ,1 | | f e ,2 | ) / 2 ,
    Figure DE102023201144A1_0089
    | f e ,1 | | f e ,2 | = 2 | f r | f D | f r | f e ,1 = | f e ,1 | ,  f e ,2 = | f e ,2 | f D = ( | f e ,1 | | f e ,2 | ) / 2 ,
    Figure DE102023201144A1_0090
    | f e ,1 | | f e ,2 | = 2 | f r | f D | f r | f e ,1 = | f e ,1 | ,  f e ,2 = | f e ,2 | f D = ( | f e ,1 | + | f e ,2 | ) / 2 .
    Figure DE102023201144A1_0091
  • Beide Zusammenhänge lassen sich unter Verwendung des Vorzeichens VB = ±1 der Modulationsbandbreite B zusammenfassen, und für die radiale Relativgeschwindigkeit v = λ/2 · fD ergibt sich dann in eindeutiger Weise: f u ¨ | | f e ,1 | | f e ,2 | | < 2 | f r | :  v = V B λ / 4 ( | f e ,1 | | f e ,2 | ) ,
    Figure DE102023201144A1_0092
    f u ¨ | f e ,1 | | f e ,2 | 2 | f r | :  v = V B λ / 4 ( | f e ,1 | + | f e ,2 | ) ,
    Figure DE102023201144A1_0093
    f u ¨ | f e ,1 | | f e ,2 | 2 | f r | 2 | f r | :  v = + V B λ / 4 ( | f e ,1 | + | f e ,2 | ) ;
    Figure DE102023201144A1_0094
    dabei ist noch berücksichtigt, dass durch Rechentoleranzen und kleine Änderungen der Relativgeschwindigkeit und/oder Entfernung über die zwei Erfassungszyklen auch Werte von |fe,1| - |fe,2| leicht außerhalb der eigentlichen Grenzen ±2·|fr| möglich sind, weshalb statt auf „=“ auf „≥“ bzw. „≤“ verglichen wird. Die Relativgeschwindigkeit v lässt sich also in eindeutiger Weise dadurch bestimmen, dass zuerst die Differenz |fe,1|- |fe,2| der Beträge der beiden Empfangsfrequenzen gebildet und mit ±2·|fr| verglichen wird, um dann für den sich daraus ergebenden der drei Bereiche die jeweilige Beziehung zur Berechnung von v anzuwenden. Einzig bei fr = 0, also Entfernung Null, kann das Vorzeichen der Relativgeschwindigkeit v nicht bestimmt werden, denn dann sind der zweite und dritte Fall in obiger Bez. (52) nicht zu unterscheiden und der erste Fall ist nicht möglich (die Mehrdeutigkeit ist auch dadurch erklärbar, dass die nur vom Betrag her bekannte Empfangsfrequenz dann alleine aus der Dopplerverschiebung besteht). Wegen Toleranzen und Änderungen zwischen zwei Erfassungszyklen kann es auch bei sehr kleinen Werten von fr noch zu diesem Problem der nicht möglichen Vorzeichenbestimmung der Dopplerverschiebung und damit der Relativgeschwindigkeit kommen); allerdings korrespondieren solche sehr kleinen Werte von fr zum Bereich unmittelbar vor dem Sensor, wo im Normalfall keine Objekte auftreten und falls doch, deren Vorzeichen der Relativgeschwindigkeit schon aus der Historie bekannt und/oder meistens näherungsweise Null ist. Es sei bemerkt, dass für die Herleitung der Bez. (52) die effektiv aus zwei Erfassungszyklen gemittelte Dopplerverschiebung fD nach Bez. (48) benutzt wurde; es kann natürlich auch die nur auf einem Erfassungszyklus basierende Dopplerverschiebung fD nach Bez. (47a) oder (47b) verwendet werden. Des Weiteren kann auch eine in den beiden Erfassungszyklen leicht unterschiedliche entfernungsbedingte Frequenzverschiebung berücksichtigt werden; in Bez. (47a) und (47b) sind dann unterschiedliche Werte fr,1 und fr,2 zu verwenden und in Bez. (48) kommt dann noch deren Differenz als kleiner Anteil hinzu.
  • Somit lässt sich durch Vergleich der gemessenen Empfangsfrequenzen von zwei Erfassungszyklen die Mehrdeutigkeit der Relativgeschwindigkeit lösen. Wie beim normalen Tracking ist dabei eine Zuordnung von Detektionen über Zyklen hinweg nötig. Allerdings wird beim konventionellen Ansatz zum Lösen der Mehrdeutigkeit über Tracking im Allgemeinen ein Verfolgen über deutlich mehr Zyklen nötig, da dort der gemessene Entfernungsverlauf, also die über Zyklen hinweg gemessene Entfernungsänderung, mit der durch die jeweilige Geschwindigkeitshypothese erwarteten Entfernungsänderung verglichen wird; bei einer betragsmäßig kleiner Empfangsfrequenz und somit zwei wenig weit auseinanderliegenden Geschwindigkeitshypothesen dauert das aber viele Zyklen.
  • Der Ansatz zum Lösen der Geschwindigkeitsmehrdeutigkeiten durch Variation der Modulationsbandbreite, z. B. durch alternierendes Vorzeichen, lässt sich aber nicht nur über zwei Erfassungszyklen hinweg anwenden. Alternativ kann auch jedes Pixel in einem Erfassungszyklus mit zwei unterschiedlichen Werten bzw. Vorzeichen der Modulationsbandbreite B aufgenommen werden; das würde allerdings bei gegebener Hardware die Zahl der Pixel halbieren, oder es müsste die Zahl der parallelen Send-Empfangspfade verdoppelt werden. Um dies zu vermeiden, können statt selben Pixeln nahe beieinanderliegende, insbesondere benachbarte Pixel mit unterschiedlichem Wert bzw. Vorzeichen der Modulationsbandbreite B aufgenommen werden; da ein reales Objekt normalerweise ausgedehnt ist und somit in mehreren Pixeln erfasst wird und dabei Relativgeschwindigkeit und Entfernung zumindest näherungsweise gleich sind, kann wieder die Bez. (52) zur eindeutigen Bestimmung der Relativgeschwindigkeit v angewendet werden, sofern die beiden Empfangsfrequenzen zu zwei Pixeln mit unterschiedlichem Vorzeichen der Modulationsbandbreite B gehören. Ein Ansatz für unterschiedliches B bei nahe beieinanderliegenden, insbesondere benachbarten Pixeln besteht darin, dass man bei einem System mit Scannen für unterschiedliche, insbesondere benachbarte Scanebenen unterschiedliches B wählt.
  • Kontinuierliches Scannen durch Frequenzänderung
  • Im Folgenden wird eine Realisierungsmöglichkeit für kontinuierliches Scannen in einer Erfassungsebene dargestellt. Dabei werden Elemente benutzt, deren Strahlrichtung (für Senden und Empfangen) von der Frequenz abhängig ist; Beispiele für solche Elemente sind dispersive Materialien, Gitterstrukturen oder Wellenleiter, wobei hier auf Letzteres fokussiert werden soll (aber natürlich sind die gezeigten Ansätze auch analog auf andere Elemente übertragbar). 16 zeigt einen in einem photonischen Halbleiterchip 16.1 realisierten Wellenleiter 16.2 der Länge 1cm mit seitlicher Speisung 16.3 mit einer Frequenz f und mit äquidistanten Koppelstellen 16.4 im jeweiligen Abstand von λ0/2 mit λ0 = 1550nm (Freiluftwellenlänge zu f0 = c/λ0 = 194THz); die Koppelstellen sind in 16 punktförmig dargestellt, sie können aber auch eine gewisse Ausdehnung haben. Die Koppelstellen dienen beim Senden zum Auskoppeln der Welle, beim Empfangen zum Einkoppeln. Die Struktur des Wellenleiters ist periodisch, d. h. nimmt zwischen jeweils zwei benachbarten Koppelstellen selbe Gestalt an. Deshalb ist die von der benutzten Frequenz f abhängige Phasendifferenz Δφ(f) zwischen jeweils zwei benachbarten Koppelstellen konstant, so dass sich die Phase der Welle, welche an der k-ten Koppelstelle, k = 0,...,K-1 mit K = 12900, emittiertet wird, zu φ k ( f ) = k Δφ ( f ) = k mod _ 2 π ( Δφ ( f ) )  mit k = 0,   ,  K 1
    Figure DE102023201144A1_0095
    ergibt, wobei „mod“ die symmetrische Modulofunktion zum Modul 2π darstellt, also auf den symmetrischen Bereich -π,...+π abbildet; die Modulobildung berücksichtigt, dass im Allgemeinen zahlreiche Wellenlängen zwischen zwei Koppelstellen liegen, auch um eine möglichst starke Abhängigkeit der Phasendifferenz von der Frequenz zu erzielen, was durch die im 16 angedeutete mäanderförmige Struktur erzielt werden kann (die Mäander können - wie im Bild dargestellt - nach innen gehen oder parallel zur Oberfläche des Chips liegen). Ist die Phasendifferenz Δφ(f) ein ganzzahliges Vielfaches von 2π (also eine ganze Zahl von Wellenlängen liegt jeweils zwischen den Koppelstellen), dann ist die Strahlrichtung senkrecht zum Wellenleiter. Im anderen Fall, also mod(Δφ(f)) ≠ 0, ergibt sich wie in 16 dargestellt eine schräge Strahlrichtung mit Winkel γ1(f) dadurch definiert, dass die Strahllängendifferenz ΔI zu benachbarten Koppelstellen die Phasendifferenz mod(Δφ(f)) kompensiert; da zur Strahllängendifferenz ΔI die Phasendifferenz -2π-ΔI/λ mit der Freiraumwellenlänge λ = c/f korrespondiert und ΔI = sin(γ1(f))·λ0/2 mit λ0 = c/f0 ist, gilt: 2 π ( γ 1 ( f ) ) λ 0 / ( 2 λ ) = π sin ( γ 1 ( f ) ) f / f 0 = mod _ 2 π ( Δφ ( f ) )
    Figure DE102023201144A1_0096
    und somit γ 1 ( f ) = asin ( mod _ 2 π ( Δφ ( f ) ) / π f 0 / f ) ,
    Figure DE102023201144A1_0097
    wobei „asin“ die inverse Sinusfunktion darstellt. Ist beispielsweise mod(Δφ) = -π/2 und zumindest näherungsweise λ = λ0, dann ergibt sich der Winkel γ1 = 30°. Der Strahlwinkel gilt sowohl für Senden als auch für Empfangen - dies folgt auch aus dem Grundsatz der Reziprozität.
  • Ein kontinuierliches räumliches Scannen wird durch eine kontinuierliche Frequenzänderung realisiert, d. h. auch während der Datenaufnahme eines Pixels ändert sich die Frequenz, und das zumindest näherungsweise linear. Damit resultiert die der Phasenmodulation überlagerte Frequenzänderung nach 5 unmittelbar als Folge des Scannens durch Frequenzänderung. Wie oben erläutert, nimmt die benötigte Abtastfrequenz fs mit der Modulationsbreite B, also der Frequenzänderung während eines Pixels zu, was diese de facto limitiert - bei der hier betrachteten Pixeldauer Tpm = 13.7µs und maximalen Reichweite von knapp 250m sollte ihr Betrag |B| ≤ 2GHz sein (für ein fs ≤ 800MHz). Wenn über 500 Pixel gescannt werden soll (z. B. für horizontale Richtung), dann ist die Frequenz insgesamt um etwa 1THz zu ändern, was etwa 0.5% der mittleren Frequenz fD = c/λ0 = 194THz (zu Freiluftwellenlänge λ0 = 1550nm) entspricht. Für einen angenommenen Scanbereich von -20°,...,+20° muss sich die Phasendifferenz Δφ(f) zwischen zwei benachbarten Koppelstellen um etwa +0.34π, ..., 0.34π, also um etwa 0.68π ändern, was bei 0.5% Frequenzänderung eine hohe frequenzbezogene Sensitivität der Phasendifferenz Δφ erfordert, welche neben einem mäanderförmigen Wellenleiterverlauf auch durch einen Wellenleiter mit hoher Dispersion im benutzten Frequenzbereich realisiert werden kann.
  • Zuerst soll nun angenommen werden, dass sich der Strahlwinkel γ1 zeitlich linear über den Bereich -20°, ..., +20° ändern soll, also γ 1 ( t ) = A 1 t ,
    Figure DE102023201144A1_0098
    und dass die Phasendifferenz Δφ(f) im betrachteten kleinen Frequenzbereich konstante Steigung hat: Δφ ( f ) = F 1 ( f f 0 ) + L 2 π mit L ganzzhahlig ;
    Figure DE102023201144A1_0099
    dabei ist berücksichtigt, dass bei der mittleren Frequenz f0 die Strahlrichtung Null sein soll (also mod(Δφ(f0) = 0). Mit Bez. (54) erhält man: π sin ( A 1 t ) f / f 0 = F 1 ( f f 0 )
    Figure DE102023201144A1_0100
    und somit für den benötigten zeitabhängigen Frequenzverlauf f(t): f ( t ) = f 0 / ( 1 π sin ( A 1 t ) / ( f 0 F 1 ) ) .
    Figure DE102023201144A1_0101
  • Für eine Scandauer von 4.5ms (500 teilweise überlappende Pixel im Abstand 9µs) und eine vorgegebene Frequenzänderung von 1THz (→ F1 = 2.13/THz) sind in 17 der zeitliche Verlauf des Strahlwinkels γ1(t) und der Frequenz f(t) dargestellt. Es sei bemerkt, dass die Frequenz f(t) für Senden und Empfangen real einen kleinen Frequenzunterschied hat (durch Frequenzverschiebung von Doppler und Laufzeit), wobei der dadurch bewirkte Strahlwinkelunterschied deutlich unter der Strahlbreite selber liegt.
  • Eine zeitlich lineare Änderung der Strahlwinkels γ1(t) nach Bez. (56) bedeutet bei zeitlich äquidistantem Pixelabstand eine konstante Winkelauflösung über den ganzen Erfassungsbereich. Insbesondere bei nach vorne, also in Fahrtrichtung schauenden Lidarsensoren, kann aber eine unterschiedliche Winkelauflösung vorteilhaft sein: in Fahrtrichtung (γ1 = 0) wird eine höhere Winkelauflösung benötigt als nach außen hin (γ1 = ±20°; γ1 bezieht sich hier also beispielhaft auf horizontale Richtung), d. h. nach außen hin kann eine höhere Scangeschwindigkeit realisiert durch schnellere Frequenzänderung verwendet werden; dies ist beispielhaft in 18 dargestellt. Es sei erwähnt, dass bei schnellerem Scannen auch der vom Lidarstrahl überstrichene Bereich auf einem Objekt größer wird, so dass das über die Erfassungsdauer eines Pixels empfangene Signal an Kohärenz verliert (es werden zu unterschiedlichen Zeiten zumindest teilweise unterschiedliche Punkte vom Objekt erfasst); die reduzierte Kohärenz verringert zum einen leicht die Sensitivität und damit Reichweite, was im äußeren Bereich wegen seinen reduzierten Reichweitenanforderungen aber nicht relevant ist, und zum anderen wird die Dopplergenauigkeit etwas schlechter (weil Betragsspitze in zweidimensionaler Korrelation in Dopplerdimension leicht verschwimmt), was wegen der grundsätzlich sehr hohen Genauigkeit von Doppler, also Relativgeschwindigkeit, aber auch unkritisch ist.
  • Schon bei konstanter Scangeschwindigkeit nach Bez. (56) ist der Frequenzverlauf nach Bez. (58) zeitlich nicht ganz linear (insbesondere wegen der enthaltenen Sinusfunktion). Durch nicht konstante Scangeschwindigkeit wird die Nichtlinearität des zeitlichen Verlaufs der Frequenz noch deutlich stärker (siehe auch 18). Eine weitere Ursache für einen zeitlich nichtlinearen Frequenzverlauf ist ein stark dispersiver Charakter des Wellenleiters (also linearer Zusammenhang zwischen Phasendifferenz Δφ(f) und Frequenz f nach Bez. (57) nicht mehr gültig). Solche Nichtlinearitäten im zeitlichen Frequenzverlauf über einen Erfassungsscan (also im Beispiel oben 500 Pixel) können auch schon während eines einzelnen Pixels zu einer relevanten Nichtlinearität des Frequenzverlaufs führen, also zu einem Frequenzfehler fr,Q(t), insbesondere mit quadratischer Form nach Bez. (39b). Wie oben vorgestellt, kann ein solcher Frequenzfehler aber über einen entsprechenden Korrekturanteil in den Drehfaktoren dn,m kompensiert werden; im Falle eines quadratischen Fehlers ist nur das Register R2 in Struktur nach 11 entsprechend Bez. (44) anzupassen. Auch eine sich über Pixel ändernde Modulationsbandbreite B (wegen sich ändernder Steigung des Frequenzverlaufs f(t)) kann durch Anpassung dieses Registerwerts berücksichtigt werden - dann korrespondiert die Ausgangsdimension der FFT immer zu gleichen Relativgeschwindigkeiten.
  • Prinzipiell können fast beliebige Scanverläufe über einen entsprechenden Verlauf der Frequenzänderung realisiert werden - das ist ein großer Vorteil des Scannens über Frequenzänderung. Über Zyklen hinweg kann auch der Erfassungsbereich, insbesondere abhängig von der Verkehrssituation verändert werden; so kann bei geringer Fahrzeuggeschwindigkeit (z. B. Stadtverkehr) ein breiterer Erfassungsbereich von Interesse sein also bei hoher Eigengeschwindigkeit (z. B. Autobahn). Eine Fehljustage des Sensors (statt in Fahrtrichtung schaut Sensor z. B. um 2° nach rechts) kann einfach dadurch berücksichtigt werden, dass der benutzte Frequenzbereich entsprechend angepasst, also im Wesentlichen leicht verschoben wird.
  • Statt dem bisher betrachteten kontinuierlichen Scannen könnte grundsätzlich auch ein schrittweises Scannen verwendet werden, also dass von Pixel zu Pixel die Frequenz geändert wird, innerhalb eines Pixels aber jeweils konstant bleibt (dann könnte auch eine Phasenmodulation nach Stand der Technik mit konstanter Frequenz, also ohne überlagerte Frequenzmodulation angewendet werden). Allerdings würde dieses schrittweise Scannen einige Nachteile mit sich bringen (trotzdem soll es hier als mögliche Realisierungsform nicht ausgeschlossen werden):
    • - Es können keine überlappende Pixel realisiert werden, was bei gegebener Hardware und Zykluszeit zu einer reduzierten Datenaufnahmedauer des einzelnen Pixels führt. Zusätzlich wird die Datenaufnahmezeit noch dadurch verringert, dass das Umschalten der Frequenz eine gewisse Zeit benötigt (insbesondere bis Frequenz auf neuen Wert eingeschwungen ist) und dass danach noch die maximale Laufzeit der Empfangssignale (bei maximaler Entfernung 249.5m etwa 1.67µs) abgewartet werden muss. Bei dem in der bisherigen Auslegung betrachteten zeitlichen Pixelabstand von etwa 9µs bleibt dann etwa nur eine Datenaufnahmezeit von 6µs übrig, was mehr als eine Halbierung im Vergleich zum kontinuierlichen Scannen mit einer Pixeldauer von 13.7µs bedeutet. Hauptnachteil dieser deutlich reduzierten Datenaufnahmezeit pro Pixel ist eine Verringerung der Sensitivität (für obige Verhältnisse etwa um 3.5dB) und damit der Reichweite (etwa um 19%); weniger kritisch ist die reduzierte Auflösung und Genauigkeit der Relativgeschwindigkeitsbestimmung. Noch stärker wird der Verlust, wenn der Pixelabstand z. B. um Faktor 2 geringer gewählt wird, um mit halber Zahl an parallelen Sende-Empfangspfaden auskommen zu können (16 statt 32).
    • - Bei einem reellwertigen Mischer lässt sich nicht das Vorzeichen der Relativgeschwindigkeit bestimmen - die oben dargestellten Ansätze zum Lösen der Mehrdeutigkeit durch nicht bekanntes Vorzeichen der Empfangsfrequenz haben ja auf der überlagerten linearen Frequenzmodulation basiert.
    • - Wenn durch sehr schnelles Scannen (z. B. nach außen hin) die Strahlbreite kleiner als die Strahlbewegung während der Datenaufnahmepause zwischen zwei Pixeln ist, könnte ein in Scanrichtung sehr schmales Objekt übersehen werden.
    • - Ein kontinuierliches Scannen der Frequenz kann einfacher bzw. besser als ein gestuftes realisierbar sein.
    • - Ein kontinuierliches Scannen der Frequenz reduziert ein wenig den Speckle-Effekt (also statistisch variierender Empfangspegel von einem diffusen Reflektor), da der Speckle-Effekt frequenzabhängig ist; zusätzlich wird der Speckle-Effekt auch durch räumliches Scannen leicht reduziert, da sich während der Datenaufnahme eines Pixels die beleuchtete Fläche leicht ändert.
  • Um eine Frequenzänderung zu realisieren, kann z. B. entweder auf die konstante Frequenz einer Laserquelle eine sich ändernde Frequenz aufmoduliert werden (was aber hier wegen dem großen benötigten Frequenzbereich schwierig ist) oder eine Laserquelle mit direkt steuerbarer Frequenz verwendet werden. Gesteuert werden solche Laser typischerweise über eine mechanische Größe (z. B. mit Hilfe von piezoelektrischem Element) oder über eine elektrische Größe (Spannung, Strom). Die Generierung einer elektrischen Steuergröße kann durch digitale Bestimmung auf einer Recheneinheit, z. B. einem Prozessor, und Umwandlung in den analogen Bereich mit Hilfe eines Digital-Analog-Wandlers (DAC) gegebenenfalls gefolgt von einer Tiefpassfilterung realisiert werden; da der Frequenzverlauf und damit der benötigte Verlauf der Steuergröße signaltheoretisch betrachtet recht niederfrequent ist, kann bei der Bestimmung der Eingangswerte des DACs ein Delta-Sigma-Ansatz benutzt werden, was die Anforderungen an den DAC, insbesondere hinsichtlich seiner Auflösung, reduziert. Neben einer direkten Steuerung kann auch eine Regelschleife in Form einer PLL (Phase Locked Loop) verwendet werden. Falls sich mit einer Laserquelle nicht ein genügend großer Frequenzdurchstimmbereich realisieren lässt (um zum einen die für das Scannen benötigte Frequenzänderung von z. B. 1THz zu adressieren und/oder zum anderen Temperatur-, Alterungs- und Toleranzeffekte abzudecken), können mehrere Laserquellen implementiert werden, zwischen denen umgeschaltet und so die jeweils passende Quelle ausgewählt werden kann. Alternativ kann auch die für das Scannen benötigte Frequenzänderung stark reduziert werden, indem für die parallelen Sende-Empfangspfade Wellenleiter mit leicht unterschiedlichem Frequenzverhalten der Phasendifferenz Δφ(f) benachbarter Koppelstellen verwendet werden - bei einer Frequenz f strahlen dann die Wellenleiter in unterschiedliche Richtungen und ihre jeweils realisierten kleinen Scanbereiche schließen sich aneinander an (gegenenfalls mit gewissem Überlappbereich); dieser Ansatz wird später weiter erläutert.
  • Abschließend sei noch erwähnt, dass der Wellenleiter - wie in 16 dargestellt - nicht nur das Scannen, sondern natürlich auch die Fokussierung in seiner zugehörigen Raumrichtung verwirklicht, d. h. in jeder Schnittebene durch den Wellenleiter (genau gesagt durch die Linie, auf der seine Koppelstellen liegen) weist die Welle eine ebene Wellenfront auf.
  • Scannen in zweiter Raumrichtung
  • Im Folgenden soll erläutert werden, wie sich Fokussierung und Scannen in der zweiten Raumrichtung (senkrecht zu der vom Wellenleiter definierten Raumrichtung) realisieren lässt. Wie in 19 dargestellt, kann die Fokussierung mit Hilfe einer Linse 19.2 erfolgen; 19 oben zeigt die Anordnung aus der Richtung, in welcher sich der Wellenleiter 19.1 erstreckt. Der Wellenleiter liegt in der Brennebene der Linse, aber versetzt zur Brennlinie (weil später mehrere nebeneinanderliegende Wellenleiter betrachtet werden tritt das auf), so dass die nach Fokussierung durch die Linse eine ebene Wellenfront ausbildende Strahlung gegenüber der optischen Achse der Linse um den Strahlwinkel γ2,1 gekippt ist (in Ansicht nach 19 oben wird für γ2,1 das durch Unterstreichung unterschiedene Symbol γ2,1 verwendet, da dort nur der projizierte Winkel dargestellt ist). Da die Fokussierung in der erster Raumrichtung schon durch den Wellenleiter selber stattfindet, muss die Linse nur noch in der zweiten Raumrichtung, welche zur ersten senkrecht steht, fokussieren, so dass sie in Richtung des Wellenleiters einen konstanten Querschnitt aufweist; dies ist in 19 unten dargestellt. Dort sieht man auch die Definition der beiden Strahlwinkel γ1 und γ2,1 im dreidimensionalen Kontext - es sind also nicht Winkel gemäß Kugelkoordinaten; in 19 unten ist der Brechung der Linse an den beiden Oberflächen vereinfachend in einer Stelle zusammengefasst.
  • Es sei bemerkt, dass eine Linse mit konstantem Querschnitt in eine Dimension einfacher herzustellen ist als eine Linse ohne diese Eigenschaft, also insbesondere eine Linse für Bündelung in beide Raumrichtungen. Statt einer einzelnen Linse kann auch ein Linsensystem benutzt werden, wobei auch dort die Eigenschaft des in Wellenleiterrichtung konstanten Querschnitts erhalten bleibt.
  • Für das Scannen in diese zweite Raumrichtung kann ein für die benutzten Wellenlängen transparentes Material benutzt werden, dessen Dielektrizitätskonstante durch Anlegen einer Spannung (welche ein elektrisches Feld im Material erzeugt) oder Durchfließen eines Stroms (insbesondere um ein magnetisches Feld im Material zu erzeugen) geändert werden kann; Flüssigkristalle und ferroelektrische Materialien sind Beispiele für Materialien mit solchen Eigenschaften. 20 zeigt oben - aus gleicher Perspektive wie 19 oben - eine beispielhafte Anordnung mit dem aus einem solchen Material bestehenden Körper 20.3, der wie die Linse 20.2 in Ausdehnungsrichtung des Wellenleiters 20.1 konstanten Querschnitt (mit Dreiecksform) aufweist und somit eine prismenförmige Gestalt hat; eine seitliche Ansicht, d. h. aus 90° gedrehter Richtung, ist in 20 unten dargestellt - dort sieht man auch die an die beiden Seiten des prismenförmigen Körpers 20.3 angelegte Spannung U, die entweder direkt oder über den durch sie erzeugten Stromfluss durch den Körper seine Dielektrizitätskonstante ändert. Durch Änderung der angelegten Spannung U lässt sich die Differenz γ2,2 zwischen Eingangswinkel γ2,1 und Ausgangswinkel γ2 des Prismas 20.3 und damit der Strahlwinkel γ2 selber ändern, wodurch ein Scannen in der zweiten Raumrichtung, welche zur ersten orthogonal ist, realisiert werden kann. Es sei noch erwähnt, dass der prismenförmige Körper vorzugsweise größer als für den eigentlichen Strahlengang benötigt sein kann, um im relevanten Bereich möglichst homogene elektrische Felder und damit eine räumlich möglichst konstante Dielektrizitätskonstante zu erzielen. Prinzipiell könnte man sich auch überlegen, dass Linse und Prisma einen gemeinsamen Körper mit konstantem Querschnitt in Wellenleiterrichtung bilden; allerdings darf dann die Änderung der Dielektrizitätskonstante nicht über den ganzen Querschnitt konstant sein, weil sonst die Fokussierungseigenschaft und damit auch die Brennebene verändert wird (es würde also ein geeigneter, über den Querschnitt nichtkonstanter Feldverlauf benötigt). Statt diesem prismenförmigen Körper kann auch ein ebenes durchstrahltes Flüssigkristallelement, insbesondere in Form einer eindimensionalen Gitterstruktur, angewendet werden, welches durch Anlegen einer Spannung zwischen Ober- und Unterseite den Strahl in die zweite Raumrichtung umlenkt.
  • Als alternativer Ansatz für Fokussierung und Scannen kann ein Flüssigkristall-Array verwendet werden. In 21 ist eine mögliche Anordnung mit einem transparenten eindimensionalen Array 21.2 mit stabförmigen Elementen 21.3 dargestellt; die obere Ansicht in 21 zeigt das Array von oben, die mittlere Ansicht Anordnung und Strahlengang aus Richtung des Wellenleiters 21.1, und in der unteren, um 90° gedrehten Ansicht sieht man Anordnung und Strahlengang von der Seite. Durch Anlegen einer jeweiligen Spannung an die einzelnen stabförmigen Elemente (zwischen ihrer Ober- und Unterseite) kann die Phasendifferenz zwischen der an einer Seite eingehenden Welle und der an der anderen Seite austretenden Welle geändert werden - die realisierte Phasendifferenz ist abhängig vom Wert der angelegten Spannung. Dadurch kann erreicht werden, dass die Phase der Welle an der Oberseite einen linearen Verlauf aufweist, wodurch gleichzeitig die Fokussierung (also Generierung einer ebenen Welle) und ein vorgegebener Strahlwinkel γ2 realisiert werden kann; über Änderung der angelegten Spannungen kann der Strahlwinkel γ2 und somit das Scannen in dieser zweiten Strahlrichtung realisiert werden.
  • Flüssigkristalle haben häufig das Problem, dass sie auf eine Änderung der Ansteuerung träge reagieren, d. h. es dauert recht lange, bis sie auf einen neuen Ansteuerzustand eingeschwungen sind, was bei Verwendung von zweidimensionalen Flüssigkristall-Arrays zum zweidimensionalen Scannen sehr kritisch ist, da dort nach jedem Pixel umgeschaltet werden muss. Im Gegensatz dazu muss hier das eindimensionale Flüssigkristall-Array nur nach einem kompletten Scan in der ersten Raumrichtung, also im Beispiel oben nach etwa 4.5ms umgeschaltet werden, was gänzlich unproblematisch ist. Im Vergleich zu einem Flüssigkristall-Array zum zweidimensionalen Scannen hat man hier den weiteren Vorteil, dass viel weniger Ansteuerspannungen benötigt werden (da nur eine Dimension).
  • Die Zahl der benötigten stabförmigen Flüssigkristallelemente und somit der benötigten Ansteuerspannungen kann durch Einsatz einer zustätzlichen Linse, welche im Wesentlichen die Fokussierung in der zweiten Raumrichtung übernimmt und in Richtung des Wellenleiters wieder konstanten Querschnitt hat, reduziert werden; denn dann muss das Flüssigkristall-Array im Wesentlichen nur die Schwenkung der Strahlrichtung realisieren, was insbesondere bei kleinem Schwenkbereich einen Abstand zulässt, der weit über der Freiraumwellenlänge λ0 = 1550nm liegt.
  • Beim oben erläuterten ersten Ansatz mit Linse und Prisma mit steuerbarer Brechung besteht ein Nachteil darin, dass eine hohe Präzision der Linsengeometrie sowie ihres Abstands zum Wellenleiter benötigt wird (andernfalls kommt es zu optischer Verschwimmung beispielsweise durch Verschiebung der Brennebene); die benötigte hohe Präzision führt zu Aufwänden in der Sensorfertigung und/oder erhöhten Teilepreisen wegen geringen mechanischen Toleranzen. Dagegen können beim zweiten, auf einem Flüssigkristall-Array basierenden Ansatz Positionsfehler über entsprechende Ansteuerung der Elemente des Flüssigkristall-Arrays zur Korrektur der korrespondierenden Phasenfehler einfach kompensiert werden; gleiches gilt für Fehler in Position und Querschnitt einer gegebenenfalls zusätzlich verwendeten Linse.
  • Anstatt des bisher betrachteten transparenten Flüssigkristall-Arrays nach 21 kann auch ein reflektierendes Flüssigkristall-Array verwendet werden; auch für ein reflektierendes Flüssigkristall-Array kann über eine jeweils angelegte Spannung effektiv eine Phasendifferenz zwischen eingehender und ausfallender Welle realisiert werden, was man auch als Änderung des lokalen Ausfallswinkels relativ zum Einfallwinkel sehen kann. Eine entsprechende Anordnung ist in 22 dargestellt; die obere Ansicht zeigt die Anordnung mit Wellenleiter 22.1, einem polarisationsabhängigen Spiegel 22.4 (reflektiert für eine Polarisation und lässt Strahlung für die dazu senkrechte Polarisation durch) und einem eindimensionalen reflektierenden Array 22.2 mit stabförmigen Elementen 22.3 sowie mit 90°-Polarisationsdrehung von oben, die mittlere Ansicht zeigt Anordnung und Strahlengang aus Richtung des Wellenleiters 22.1, und in der unteren, um 90° gedrehten Ansicht sieht man Anordnung und Strahlengang von der Seite. Der Spiegel 22.4 zur Strahlumlenkung ermöglicht, dass sich der photonische Chip 22.5, welcher den Wellenleiter trägt, und das Flüssigkristall-Array 22.2 inklusive seiner Ansteuerung auf einer Platine 22.6 befinden können, was Komplexität und Fertigungsaufwand reduziert. Natürlich könnte auch eine Anordnung ohne Spiegel 22.4, also mit direktem Strahlengang zwischen Wellenleiter und reflektierendem Flüssigkristall-Array realisiert werden, für die dann z. B. zwei Platinen benötigt werden.
  • Zur Umlenkung des Strahls können ein oder mehrere weitere Spiegel eingesetzt werden, z. B. wenn die optische Achse des Senors senkrecht zur Platine liegen soll.
  • Alle weiteren Betrachtungen, welche oben bei der Anordnung mit transparentem Flüssigkristall-Array gemacht wurden, sind auch für die Anordnung mit reflektierendem Flüssigkristall-Array gültig - auch insbesondere, dass Fertigungstoleranzen der optisch relevanten Komponenten und ihrer Anordnung zueinander durch entsprechende Ansteuerung der Elemente des Flüssigkristall-Arrays kompensiert werden können.
  • Bisher wurde das Flüssigkristall-Array als eindimensional betrachtet. Bedingt durch Toleranzen (z. B. vom Flüssigkristall-Array selber bei keiner konstanten Dicke oder keinen konstanten optischen Eigenschaften über die Ausdehnung der stabförmigen Elemente) könnte es aber sein, dass in der ersten Raumrichtung (also der vom Wellenleiter definierten Richtung) keine absolut ebene Welle generiert wird. Um dies zu vermeiden, könnten - wie in 23 dargestellt - die stabförmigen Elemente in mehrere einzelne Elemente unterteilt und durch entsprechende Ansteuerung dieser Elemente Phasenfehler kompensiert werden. Allerdings ist ein solches zweidimensionales Flüssigkristall-Array komplexer und benötigt mehr Ansteuerspannungen. Verglichen mit einem zweidimensionalen Flüssigkristall-Array für zweidimensionales Scannen werden hier aber in einer Dimension (in welcher stabförmige Elemente zur Kompensierung von Fehlern unterteilt werden) deutlich weniger Elemente benötigt.
  • Statt einem reflektierenden Flüssigkristall-Array kann auch ein reflektierendes Flüssigkristallelement, insbesondere in Form einer eindimensionalen Gitterstruktur, angewendet werden, welches durch Anlegen einer Spannung den Strahl in die zweite Raumrichtung umlenkt; gegebenenfalls kann die Gitterstruktur auch mehrere Bereiche mit Ansteuerung über unterschiedliche Spannungen aufweisen, insbesondere um Fertigungstoleranzen der optisch relevanten Komponenten und ihrer Anordnung zueinander kompensieren zu können. Dazu muss dann aber der Strahl schon zuvor fokussiert sein; gegenüber der Anordnung in 22 benötigt man dann entweder einen fokussierenden Spiegel (näherungsweise mit parabolischer Form), eine reflektierende Linse (also mit reflektierender Beschichtung auf einer Seite) oder eine Kombination aus Spiegel und Linse, wobei diese Elemente weiterhin in Richtung des Wellenleiters eine konstante Form haben.
  • Abschließend sei erwähnt, dass Materialien, deren optischen Eigenschaften sich durch Anlegen einer elektrischen Steuergröße ändern lassen, noch in anderen als den oben erläuterten Anordnungen zur Realisierung des Scannens in der zweiten Raumrichtung eingesetzt werden können.
  • Anordnung der Wellenleiter und Scanmuster
  • Wie oben schon mehrfach erwähnt, gibt es parallele Sende-Empfangspfade, z. B. 32, und damit auch 32 Wellenleiter; wie diese auf dem photonischen Chip zueinander angeordnet und ausgestaltet werden können, soll im Folgenden erläutert werden. Grundsätzlich können diese Wellenleiter eingesetzt werden, um eine zusätzliche Parallelität bei der Erfassung in der ersten Raumrichtung (mit Scannen über Wellenleiter mit Frequenzänderung) und/oder der zweiten Raumrichtung (mit Scannen über Material mit elektrisch steuerbaren optischen Eigenschaften, z. B. in Form eines Flüssigkristall-Arrays) zu realisieren.
  • Zuerst soll nun der Ansatz betrachtet werden, dass alle Wellenleiter für Parallelität, also parallele Erfassung in der zweiten Raumrichtung eingesetzt werden. Wie in 24 dargestellt, sind die 32 Wellenleiter 24.2 dann parallel nebeneinander auf dem photonischen Chip 24.1 angeordnet (ein gegebenenfalls mäanderförmiger Verlauf ist dort aus Darstellungsgründen nicht gezeigt); alle Wellenleiter sind gleichartig gestaltet, so dass sie jeweils gleichen Strahlwinkel γ1 bei gleicher Frequenz realisieren. Abhängig vom Abstand der Wellenleiter können sie bezüglich der zweiten Raumrichtung direkt benachbarte Pixel bzw. Pixellinien oder weiter auseinanderliegende Pixellinien, zwischen denen andere Pixellinien liegen, adressieren; zumindest näherungsweise gilt, dass der geometrische Abstand der Wellenleiter zum geometrischen Abstand der durch sie realisierten Pixellinien proportional ist (wenn man von größeren Winkeln absieht). Zuerst wird ein solcher Abstand der Wellenleiter angenommen, dass sie 32 direkt benachbarte äquidistante Pixellinien realisieren. 25 zeigt, wie dann das zweidimensionale Pixelfeld erschlossen wird (also das Scanmuster); die für die einzelnen Pixelzuordnungen dabei benutzte Nomenklatur „w,f,u“ ist wie folgt definiert:
    • - w bezeichnet die Nummer des jeweiligen Wellenleiters: w =1,...,32,
    • - f bezieht sich auf das Scannen mit Hilfe der Wellenleiter durch kontinuierliche Frequenzänderung, also auf das kontinuierliche Scannen in der ersten Raumrichtung und somit für Komponente γ1 der Strahlrichtung; dieses kontinuierliche Scannen erschließt alle 500 Pixel über diese erste Raumrichtung, wobei f = 1,...,500 als die Nummer der jeweiligen Frequenz definiert ist (genau gesagt der jeweiligen Mittenfrequenz, da sich innerhalb eines Pixels ja die Frequenz kontinuierlich ändert),
    • - u bezieht sich auf das schrittweise Scannen mit Hilfe eines Material mit elektrisch steuerbaren optischen Eigenschaften, z. B. in Form eines über Spannungen gesteuerte Flüssigkristall-Arrays, also auf das schrittweise Scannen in der zweiten Raumrichtung und somit für Komponente γ2 der Strahlrichtung; dabei bezeichnet u die Nummer dieses schrittweisen Scannens (und damit der schrittweise geänderten elektrischen Steuergrößen, z. B. der angelegten Spannungen) - nach einem kontinuierlichen Frequenzscan in erster Raumrichtung, der etwa 4.5ms dauert, wird ein Schritt auf eine neues γ2 gemacht, d. h. der nächste kontinuierliche Frequenzscan bei einem neuen γ2 durchgeführt; weil jeder der 32 Wellenleiter schon selber ein unterschiedliches γ2 realisiert, sind für 320 Pixel in diese zweite Raumrichtung, also für 320 unterschiedliche γ2, nur 10 Scanschritte u = 1,...,10 nötig, und von Schritt zu Schritt springt die Strahlrichtung um 32 Pixel.
  • Der für diese Anordnung benötigte geringe Abstand der Wellenleiter kann schwierig zu implementieren sein, insbesondere bei einem stark mäanderförmigen Verlauf der Wellenleiter. Alternativ kann man den Abstand um Faktor 32 vergrößern, so dass die Wellenleiter Pixellinien im Abstand von 32 realisieren; dies ist in 26 dargestellt. Beim Scannen in der zweiten Raumrichtung wird pro Schritt nun nur um ein Pixel gesprungen; dies bedeutet eine starke Reduzierung des benötigten Scanbereichs in zweiter Raumrichtung, also über Material mit elektrisch steuerbaren optischen Eigenschaften, was für einen solchen Ansatz vorteilhaft ist und einfachere bzw. mehr Realisierungsmöglichkeiten eröffnen kann. Eine solche Anordnung erlaubt auch den oben erwähnten Ansatz, dass durch unterschiedliche Wahl der Frequenzmodulationsbandbreite B in benachbarten Scanebenen die Vorzeichenbestimmung der Empfangsfrequenz bei einem reellwertigen Mischer ermöglicht wird, sofern ein Objekt in wenigstens zwei benachbarten Pixeln (also aus benachbarten Scanebenen, d. h. Pixellinien) gesehen wird; über die 10 Scanschritte u = 1,...,10 ist dazu eine alternierende Richtung des kontinuierlichen Frequenzscannens für die erste Raumrichtung anzuwenden, was ein alternierendes Vorzeichen der Modulationsbandbreite B realisiert.
  • Bisher wurde angenommen, dass die Wellenleiter zumindest näherungsweise äquidistant zueinander liegen, was auch zu äquidistantem Abstand der Pixel in der zweiten Raumrichtung führt. Oft benötigt man aber nur im zentralen Winkelbereich maximale Auflösung, während sie nach außen hin abnehmen kann - auch sind dort größere Lücken zwischen den Pixeln möglich. Dies kann durch eine nichtäquidistante Anordnung der Wellenleiter erreicht werden. Als einfacher Fall wird ein geringer und jeweils gleicher Abstand a für die 16 mittleren Wellenleiter angenommen (derart, dass es zwischen den durch sie generierten Pixellinien keine Lücken gibt), während die jeweils äußeren 8 Wellenleiter doppelten Abstand 2·a untereinander haben und es zwischen ihnen und der Gruppe der 16 mittleren Wellenleiter einen großen Abstand 146·a gibt. Das resultierende zweidimensionale Pixelfeld ist in 27 dargestellt; beim Scannen in der zweiten Raumrichtung wird pro Schritt um 16-fachen Pixelabstand (bezogen auf Pixelabstand im mittleren Bereich) gesprungen. Im oberen und unteren Drittel des Pixelfeldes ist die Erfassung nun nur halb so dicht wie in der Mitte.
  • Im Gegensatz zu den bisherigen Anordnungen können die Wellenleiter auch für Parallelität, also parallele Erfassung in der ersten Raumrichtung eingesetzt werden. Dazu werden die Wellenleiter unterschiedlich gestaltet, so dass sie bei gleicher Frequenz unterschiedliche Strahlwinkel γ1 realisieren; die weiterhin parallel zueinander angeordneten Wellenleiter (wie in 24) können auch weiterhin Koppelstellen in gleichem Abstand haben, nur ist dann z. B. die Länge des mäanderförmigen Wellenleiters zwischen zwei Koppelstellen jeweils unterschiedlich zu gestalten. 28 zeigt das resultierende zweidimensionale Pixelfeld für einen geringen und konstanten Abstand der Wellenleiter; der Abstand ist dabei so gewählt, dass die realisierten Pixellinien in zweite Raumrichtung jeweils ein Pixel Abstand haben. Die unterschiedliche Ausgestaltung der 32 Wellenleiter ist so gewählt, dass sie bei gleicher Frequenz eine um jeweils 16 Pixel unterschiedliche Strahlrichtungskomponente γ1 (in der erster Raumrichtung) realisieren; um die komplette erste Raumrichtung zu erfassen (jetzt aus 16·32 = 512 Pixel bestehend), ist also nur noch ein kontinuierliches Frequenzscannen über 16 Pixel nötig, so dass sich die Frequenznummer nur noch über den Bereich f = 1,...,16 erstreckt. Das schrittweise Scannen in zweite Raumrichtung (mit Hilfe eines Materials mit elektrisch steuerbaren optischen Eigenschaften) muss nun komplett diese Raumrichtung, also alle 320 Pixel abdecken, so dass 320 Schritte nötig sind. Wie man in 28 erkennen kann, hat das zweidimensionale Pixelfeld nun nicht mehr genau eine rechteckförmige Gestalt, sondern bildet ein Parallelogramm. Eine näherungsweise rechteckförmige Gestalt mit leichter Drehung kann dadurch realisiert werden, dass bei jedem der 320 Schritte für die zweite Raumrichtung der benutzte Frequenzbereich zum Scannen in erste Raumrichtung leicht verändert wird. Die leichte Drehung dieses Rechtecks lässt sich dadurch kompensieren, dass der photonische Chip entsprechend gedreht auf der Platine anordnet oder schon auf dem Chip selbst die Anordnung der Wellenleiter gedreht wird.
  • Vorteil dieses Ansatzes ist, dass entweder der zum Scannen in erste Raumrichtung benötigte Frequenzbereich viel kleiner ist (etwa um Faktor 32, was einen Vorteil für die Realisierung der Laserquelle darstellt), oder dass bei gleichem Frequenzbereich wie bisher der Wellenleiter eine viel geringere frequenzbezogene Sensitivität der Phasendifferenz Δφ benötigt, wodurch seine Länge zwischen zwei Koppelstellen viel kürzer wird, wodurch sich auch seine Leitungsverluste reduzieren; allerdings ist dann die Frequenzänderung pro Pixel viel höher, so dass ein kontinuierliches Scannen zu einer zu hohen Abtastfrequenz führen könnte, so dass dann eine schrittweise Frequenzänderung nötig wäre.
  • Ein Nachteil dieses Ansatzes ist, dass durch die erhöhte Zahl an Schritten ein etwas höherer Overhead für das Umkonfigurieren der Steuergrößen zum Scannen anfällt (für das Material mit elektrisch steuerbaren optischen Eigenschaften und für die Frequenzmodulation der Laserquelle).
  • Dieser Nachteil des erhöhten Overheads für das Umkonfigurieren der Steuergrößen zum Scannen und auch das oben erwähnte Problem der zu hohen Abtastfrequenz lassen sich dadurch beheben, dass statt dem schrittweisen Scannen in zweite Raumrichtung ein kontinuierliches Scannen durchgeführt wird - die Steuergröße für das Material mit elektrisch steuerbaren optischen Eigenschaften wird also nicht schrittweise, sondern kontinuierlich geändert. Während eines kontinuierlichen Scans über den gesamten Erfassungsbereich in zweite Raumrichtung bewegt sich das kontinuierliche Scannen über Frequenz in erste Raumrichtung nur ein Pixel weiter; dies ist in 29 dargestellt. Insgesamt werden also 16 kontinuierliche Scans in zweite Raumrichtung benötigt. Durch diesen Ansatz ist das kontinuierliche Frequenzscannen viel langsamer, so dass bei Verwendung eines einfachen Wellenleiters mit geringer frequenzbezogener Sensitivität der Phasendifferenz Δφ die zeitliche Frequenzänderung (also die der Phasenmodulation überlagerte näherungsweise lineare Frequenzmodulation) klein genug ist, um mit einer moderaten Abtastfrequenz auszukommen. Bei diesem kontinuierlichen Scannen in zweite Raumrichtung könnte man das Frequenzscannen für erste Raumrichtung auch schrittweise gestalten, also während jedem Scan in zweite Raumrichtung die Frequenz konstant halten und danach für den nächsten Scan in zweite Raumrichtung auf einen neuen Wert stellen; man würde also dann 16 unterschiedliche Frequenzen verwenden. Statt einer Laserquelle, die in der Frequenz verstellt werden kann, könnten auch z. B. 16 Laserquellen mit unterschiedlichen konstanten Frequenzen benutzt werden, wobei dann zwischen diesen Laserquellen umgeschaltet würde.
  • Das kontinuierliche Scannen in zweite Raumrichtung kann mit nicht konstanter Scangeschwindigkeit erfolgen, um beispielsweise bei einem in Fahrtrichtung schauenden Lidarsensor eine höhere Winkelauflösung in Fahrtrichtung zu realisieren als zu den Rändern des Erfassungsbereich hin.
  • Natürlich kann die parallele Erfassung durch die 32 Wellenleiter auch auf beide Raumrichtungen aufgeteilt werden, um die resultierenden Vorteile zu kombinieren (zu dann natürlich reduziertem Umfang der Vorteile).
  • Der Ansatz mit mehreren unterschiedlichen Wellenleitern für unterschiedliche Strahlrichtungsbereiche in erster Raumrichtung kann bei einfacheren Lidarsystemen mit weniger Pixeln auch so realisiert werden, dass es insbesondere nur einen Sende-Empfangspfad gibt, der auf mehrere Wellenleiter umgeschaltet werden kann; dadurch wird insbesondere der benötigte Frequenzdurchstimmbereich der Laserquelle reduziert.
  • Alternative Ansätze für Scannen in zweite Raumrichtung
  • Bisher wurde für das Scannen in zweite Raumrichtung die Verwendung eines Materials mit elektrisch steuerbaren optischen Eigenschaften angenommen. Selbstverständlich sind auch andere Ansätze denkbar.
  • Im vorhergehenden Beispiel des kontinuierlichen Scannens in zweite Raumrichtung (also dem Scanmuster nach 29) könnte beispielsweise auch ein mechanischer Ansatz benutzt werden (z. B. mit rotierendem Spiegel oder Prisma).
  • Die Scanmuster nach 25-27 mit schrittweisem Schalten in der zweiten Raumrichtung könnten dadurch realisiert werden, dass an jedem der 32 parallelen Sende-Empfangspfade nicht nur ein Wellenleiter, sondern 10 Wellenreiter liegen, zwischen denen umgeschaltet werden kann; man hat dann eine Anordnung mit 320 nebeneinanderliegenden Wellenleitern, von denen während eines Frequenzscans für erste Raumrichtung jeweils nur 32 benutzt werden. Es sei noch erwähnt, dass man bei einem solchen Ansatz zum Umschalten meist kaskadierte Einfachschalter (also mit zwei Eingängen und einem Ausgang) benutzt, so dass die gesamte Schaltmatrix dann eine Zweierpotenz an Eingängen, also z. B. 8 hat, was im obigen Beispiel 256 Wellenleiter und somit 256 Pixel in zweite Raumrichtung bedeuten würde. Sollen die Pixel in zweite Raumrichtung nach außen hin weniger dicht liegen, also größeren Winkelabstand haben, dann ist der Abstand der nebeneinanderliegenden Wellenleiter nach außen hin zu erhöhen. Liegen die Pixel nach außen hin weniger dicht, dann kann es zur Vermeidung von Erfassungslücken generell (also nicht nur in diesem Ausführungsbeispiel) vorteilhaft sein, wenn die Strahlbreite in der jeweiligen Raumrichtung nach außen hin zunimmt, was häufig schon inhärent durch optische Fokussierungsfehler gegeben ist oder andernfalls in diesem Beispiel durch Lage der Wellenleiter außerhalb der Brennebene realisiert werden kann.
  • Für ein einfaches Lidarsystem insbesondere mit reduzierter Zahl an Pixeln in zweiter Raumrichtung kann es auch ausreichend sein, nur einen einzigen Sende-Empfangspfad mit Schaltmatrix auf mehrere nebeneinanderliegende Wellenleiter zur Erfassung der zweiten Raumrichtung einzusetzen.
  • Anschließend sei noch erwähnt, dass für alle obigen Ansätze die zwei zueinander senkrecht stehenden Raumrichtungen vorteilhafterweise in horizontale und vertikale Erfassungsrichtung gelegt werden, also sie sind quasi Azimut und Elevation zugeordnet, wobei - wie oben schon erwähnt - die beiden Strahlrichtungskomponenten γ1 und γ2 nicht der Definition von Azimut und Elevation in Kugelkoordinaten entsprechen. Grundsätzlich sind beide Zuordnungen möglich, d. h. beide Raumrichtungen können für die vertikale oder die horizontale Erfassungsrichtung benutzt werden; bedingt durch unterschiedliche Anforderungen an Erfassungsbereich und/oder Auflösung kann es eine vorteilhafte Zuordnung geben.
  • Bestimmung von Winkelfehlern
  • Die Strahlrichtung mit den Komponenten γ1 und γ2 hängt von den Steuergrößen und den Hardwareeigenschaften ab, insbesondere von:
    • - Zusammenhang zwischen Strahlwinkel γ1 des Wellenleiter und der Frequenz,
    • - Zusammenhang zwischen Laserfrequenz und ihrer Steuergröße,
    • - Zusammenhang zwischen Strahlwinkel γ2 und der oder den Steuergrößen für das Material mit elektrisch steuerbaren optischen Eigenschaften.
  • Solche Zusammenhänge können insbesondere von Sensor zu Sensor, über Temperatur und über Alterung variieren. Für eine korrekte Erfassung der Umgebung müssen diese Zusammenhänge genau bekannt sein, ansonsten kommt es zu Winkelfehlern (gemessener und tatsächlicher Winkel stimmen nicht überein), also insbesondere zu verzerrten und verschobenen Erfassungsbildern. Während man die Variationen zwischen den Sensoren initial in der Produktion bestimmen kann, ist das für Temperaturabhängigkeiten oft nicht realisierbar (da sonst Vermessungsaufwand in Produktion zu hoch wird), und Alterungseffekte lassen sich prinzipbedingt nur während der Lebenszeit eines Sensors ermitteln. Deshalb wird ein Verfahren benötigt, das Winkelfehler während des Betriebs bestimmen kann; darauf basierend kann man sie über geänderte Ansteuerung, also geänderte Wahl der Steuergrößen kompensieren.
  • Zusätzlich zu Winkelfehlern des Sensors durch geänderte Hardwareeigenschaften kann der Sensor auch noch eine Fehlausrichtung im Fahrzeug haben (insbesondere bedingt durch mechanische Toleranzen, Fahrzeugbeladung und Alterungseffekte). Eine solche Fehlausrichtung wirkt sich konstant über alle Erfassungsrichtungen der zugehörigen Raumrichtung aus, während die hardwarebedingten Abbildungsfehler winkelabhängig sein können.
  • Nun soll für in Fahrtrichtung schauende Sensoren erläutert werden, wie Abbildungsfehler ermittelt werden können. Von Radarsensoren ist bekannt, dass Winkelfehler (insbesondere durch Fehlausrichtung) dadurch bestimmt werden können, dass die gemessene radiale Relativgeschwindigkeit von stationären Objekten mit der Eigengeschwindigkeit verglichen wird. Der Radarsensor misst die radiale Komponente der Relativbewegung eines Objekts; relativ gesehen bewegt sich ein stationäres Objekt parallel zur Fahrtrichtung mit der Fahrzeugeigengeschwindigkeit vego auf den Sensor zu, so dass für die gemessene radiale Komponente vm dieser Bewegung - wie in 30 dargestellt - vego noch mit dem Kosinus des Azimutwinkels α des stationären Objekts zu multiplizieren ist: v m = v ego cos ( α ) .
    Figure DE102023201144A1_0102
  • Diese Beziehung gilt allerdings nur unter dem Elevationswinkel Null; da Radarsensoren nur einen kleinen Erfassungsbereich in Elevation um etwa 0° herum haben und die obige Beziehung mit sehr guter Näherung auch für kleine Elevationswinkel gilt, wird bei Radarsensoren meist nur sie benutzt. Weist der Radarsensor eine Fehlausrichtung auf, so entspricht der vom Sensor gemessene Azimutwinkel αm nicht dem realen Azimutwinkel α, d. h. die erwartete Messgeschwindigkeit vego·cos(αm) entspricht nicht der real gemessenen Geschwindigkeit vego·cos(α). Den realen Winkel α kann man grundsätzlich mit Hilfe der Bez. (59) bestimmen und die Differenz zum gemessenen Winkel stellt dann die Fehlausrichtung dar. Dabei ist allerdings noch zu berücksichtigen, dass Radarsensoren häufig nur für kleine Azimutwinkelbereiche Objekte erfassen (zumindest in guter Qualität), der Kosinus für kleine Winkel (also um Null herum) sehr flach ist und die selbst vom Fahrzeug gemessene und dem Sensor mitgeteilte Eigengeschwindigkeit in der Regel keine gute Qualität hat. Deshalb wird eine Parabelregression (Kosinus entspricht für kleine Werte einer Parabel) über die gemessenen Relativgeschwindigkeiten vmm) vieler stationärer Objekte durchgeführt und aus der Parabelverschiebung ergibt sich dann der Winkel der Fehlausrichtung.
  • Ein kohärentes Lidarsystem kann wie ein Radarsystem direkt den Doppler, also die radiale Relativgeschwindigkeit messen (beide Systeme arbeiten kohärent und unterscheiden sich de facto nur im elektromagnetischen Frequenzbereich). Somit lässt sich der obige Ansatz auf Lidarsysteme übertragen. Für Lidarsysteme sind neben Fehlausrichtung auch winkelabhängige Abbildungsfehler durch geänderte Hardwareeigenschaften zu erkennen, und das in horizontale und vertikale Raumrichtung; statt Bez. (59) wird also der Zusammenhang benötigt, welcher die Strahlrichtungskomponente α in horizontaler Raumrichtung sowie die Strahlrichtungskomponente β in vertikaler Raumrichtung berücksichtigt und in 31 abgeleitet ist: v m = v ego sqrt ( 1 sin 2 ( α ) sin 2 ( β ) ) .
    Figure DE102023201144A1_0103
  • Wenn einer der beiden Winkel Null ist, ergibt sich mit Hilfe von cos2(γ) + sin2(y) = 1: v m = v ego cos ( α ) f u ¨ β = 0 ,
    Figure DE102023201144A1_0104
    v m = v ego cos ( β ) f u ¨ α = 0 ,
    Figure DE102023201144A1_0105
    was auch zur obigen Bez. (59) korrespondiert. Für kleine Betragswerte der Winkel α und β gilt mit sehr guter Näherung: v m = v ego cos ( β ) f u ¨ r kleine  | α |  und  | β | .
    Figure DE102023201144A1_0106
  • Gemäß den Bez. (60) und (61c) hängt die gemessene Relativgeschwindigkeit von beiden Winkeln α und β des jeweiligen Pixels ab; deshalb kann man aus einem Pixel bei Unkenntnis der Winkelfehler in beiden Raumrichtungen diese nicht bestimmen. Allerdings sind die Winkelfehler in beiden Raumrichtungen voneinander unabhängig (sie werden nur durch Hardwareeigenschaften bzw. Steuergrößen für die jeweilige Raumrichtung bestimmt); bei einem Pixelfeld der Größe 500x320 hat man dann insgesamt 820 Fehlergrößen (wenn man den Extremfall annimmt, dass in den beiden Raumrichtungen jeweils die Fehler benachbarter Pixel unabhängig sind). Hätte man in jedem Pixel ein stationäres Objekt, dann hätte man 500·320 Messwerte, um nur 820 Fehlergrößen zu bestimmen, also viel mehr als nötig (820 Messwerte würden ausreichen). Tatsächlich hat man einerseits in einer geringeren Zahl an Pixeln stationäre Objekten, andererseits aber sind innerhalb einer Raumrichtung die Fehler benachbarter Pixel nicht unabhängig, sondern man kann den Verlauf des Winkelfehlers über eine Fehlerkurve mit wenigen Parametern (z. B. ein Polynom, oder mehrere Abschnitte mit linearem oder parabelförmigem Verlauf) genügend genau beschreiben, so dass nur diese wenigen unbekannten Parameter zu bestimmen sind; dafür hat man typischerweise genügend Messwerte pro Erfassungszyklus - und falls nötig, kann man die Bestimmung auch über mehrere oder viele Zyklen erweitern, da Temperatur- und Alterungseffekte vergleichsweise langsam verlaufen.
  • Stationäre Reflexionen bekommt man sehr zuverlässig von der Straßenoberfläche im näheren Bereich; sie decken einen großen bzw. den ganzen Bereich in die horizontalen Raumrichtung ab. Weil der Sensor die Entfernung r der Reflexionen der Straßenoberfläche misst und die Sensoreinbauhöhe hsen bekannt ist, ist auch der reale Winkel β in der vertikalen Raumrichtung bekannt, für den gemäß 31 gilt: sin ( β ) = h sen / r .
    Figure DE102023201144A1_0107
  • Über Beziehung (60) bzw. (61c), in denen es damit nur noch eine Unbekannte gibt, lässt sich dann der Verlauf des Winkelfehlers für horizontale Raumrichtung α bestimmen, wobei man bei typischerweise gegebenen kleinen Elevationswinkeln und damit bei Verwendung von Bez. (61c) nach Division mit cos(β) über Straßenreflexionen von unterschiedlichen β (also aus unterschiedlichen Entfernungen) einfach mitteln kann, bevor man aus dem sich ergebenden Verlauf in horizontale Raumrichtung α den Winkelfehler ermittelt. Sind die Winkelfehler in horizontaler Raumrichtung α und damit zu jedem Pixel den tatsächlichen Wert von α bekannt, dann lässt sich aus jedem Pixel (also auch denen, die nicht der Straßenoberfläche zuzuordnen sind) der Winkelfehler in vertikale Raumrichtung β bestimmen (es gibt ja dann nur noch eine Unbekannte in Bez. (60) bzw. (61c)).
  • Für die Bestimmung der Winkelfehler mit Hilfe von stationären Objekten wird die Fahrzeugeigengeschwindigkeit vego in hoher Genauigkeit benötigt, was meist von der selbst vom Fahrzeug gemessenen und dem Sensor mitgeteilten Eigengeschwindigkeit nicht gewährleistet ist. Deshalb muss der Lidarsensor die Eigengeschwindigkeit selbst bestimmen. Im einfachsten Fall geschieht das dadurch, dass das Maximum der gemessenen radialen Relativgeschwindigkeiten bestimmt wird, denn gemäß Bez. (60) kann die gemessene Relativgeschwindigkeit maximal die Eigengeschwindigkeit des Fahrzeugs annehmen - dies ist in Fahrtrichtung der Fall (also bei α = β = 0°). Allerdings setzt dieser Ansatz voraus, dass es in Fahrtrichtung oder zumindest nahe dazu stationäre Reflexionen gibt und dass die Relativgeschwindigkeitsmessung sehr genau ist (also insbesondere nicht verrauscht durch schlechtes Signal-zu-Rauschverhältnis). Wie oben erwähnt, kann der Verlauf der Winkelfehler pro Raumrichtung über eine Fehlerkurve mit wenigen Parametern (z. B. ein Polynom, oder mehrere Abschnitte mit linearem oder parabelförmigem Verlauf) genügend genau beschrieben werden, so dass nur diese wenigen unbekannten Parameter aus den Messwerten (also den gemessenen Relativgeschwindigkeiten von stationären Objekten) zu bestimmen sind; bei unbekannter Eigengeschwindigkeit kommt diese als weitere Unbekannte dazu und wird dann zumindest implizit ermittelt.
  • Sind die Winkelfehler bekannt, können sie in der vom Sensor ermittelten Detektionsliste korrigiert, also zu den Detektionen die realen Winkel angegeben werden. Zusätzlich kann der Verlauf der zum Scannen benutzten Steuergrößen für folgende Erfassungszyklen angepasst werden, um den Winkelfehler zu eliminieren (gegebenenfalls in iterativer Weise) - insbesondere auch, um den angestrebten Erfassungsbereich des zweidimensionalen Pixelfeldes genau zu realisieren.
  • Bestimmung der Lage der Straßenoberfläche in größeren Entfernungen
  • Oben wurde erläutert, dass die Straßenoberfläche für die Bestimmung von Winkelfehlern benutzt werden kann; dabei wurden Reflexionen der Straßenoberfläche im näheren Bereich benutzt.
  • Reflexionen der Straßenoberfläche in größerer Entfernung geben Aufschluss über die genaue Lage der Straßenoberfläche in der jeweiligen Entfernung (also in welchem Pixel und somit unter welchem vertikalen Winkel dort die Straßenoberfläche liegt, gegebenenfalls durch Interpolation noch auf Subpixelgenauigkeit verbessert), was für die Interpretation der erfassten Daten hilfreich sein kann. Als ein Beispiel sei die genaue Höhenbestimmung eines auf der Straße liegenden Gegenstands genannt; wenn man nicht nur die gemessenen Reflexionspunkte des Gegenstandes, sondern auch die genau Lage der Straßenoberfläche bei diesem Gegenstand kennt, ist die Höhenbestimmung genauer. Es sei bemerkt, dass nur im Nahbereich aus der bekannten Sensoreinbauhöhe und wegen der über kurze Entfernung gültigen Annahme eines nicht gekrümmten Straßenverlaufs a priori die Lage der Straßenoberfläche bekannt ist; in größeren Entfernungen gilt das nicht mehr (gekrümmter Straßenverlauf z. B. in einer Senke hat dann starken Effekt) und zusätzlich wirken sich dort auch kleine Veränderungen der vertikalen Sensorausrichtung (z. B. durch leichte Fahrzeugneigung bei Bremsen und Beschleunigen) schon signifikant aus. Allerdings erfasst ein Lidarsensor die Reflexionen der Straßenoberfläche in größerer Entfernung im Allgemeinen zu schwach, um sie detektieren zu können; ein wesentlicher Grund dafür zeigt 32 (Darstellung für besseres Verständnis in vertikale Richtung nicht maßstäblich). Dort ist ein Strahl mit Breite 0.05° dargestellt, dessen Zentrum bei 100m Entfernung auf die ebene Straße trifft, wobei Sensoreinbauhöhe hsen = 60cm ist; durch den sehr geringen Einfallswinkel auf die Straße bildet sich der Strahl über einen Entfernungsbereich von etwa 15m auf die Straße ab. Dies bedeutet, dass in der zweidimensionalen Korrelation Em,k die Straßenoberfläche über etwa 30 diskrete Entfernungen m sichtbar ist (also nicht nur bei einem m0), so dass sich die empfangene Leistung auf entsprechend viele Werte in der zweidimensionalen Korrelation aufteilt, was zu einem sehr schlechten Signal-zu-Rauschverhältnis führt und damit eine Detektion verhindern kann. Diese Reduzierung der empfangenen Leistung pro Entfernungswert m der zweidimensionalen Korrelation kann man auch so erklären, dass pro Entfernungswert nur etwa 1/30 der Strahlbreite und damit der ausgesendeten Leistung effektiv wird.
  • Für eine bessere Detektion der Straßenoberfläche kann man ausnutzen, dass sie bezogen auf horizontale Raumrichtung α über viele Pixel gesehen wird, also dass es viele Pixel gibt, bei denen das Strahlzentrum bei gleicher Entfernung die Straßenoberfläche trifft; wegen Bez. (62) haben diese Pixel selben Strahlwinkel β, also für vertikale Raumrichtung. Ein erster Ansatz besteht darin, dass über diese Pixel (im Bereich der prädizierten Fahrtrichtung) die zweidimensionale Korrelation Em,k nichtkohärent, also insbesondere durch Verwendung ihrer Betrags- oder Leistungswerte, akkumuliert wird, wobei das zumindest für alle Werte der diskreten Entfernung m gemacht wird, wo die Straße liegen kann. Bei den Entfernungen m, wo der akkumulierte Wert genügend weit über dem Rauschniveau liegt, befindet sich dann die Straße; das Rauschniveau in der einzelnen zweidimensionalen Korrelation Em,k ist ja bekannt (wird beispielsweise mit den Rechenlogiken nach 8 und 10 bestimmt), und daraus kann man dann das Rauschniveau nach nichtkohärenter Akkumulation gemäß theoretischen Zusammenhängen errechnen - oder man schätzt es direkt über die sich ergebenden Werte der nichtkohärenten Akkumulation, wobei dann ein genügend großer Bereich von m und gegebenenfalls unterschiedliche Werte von der diskreten Frequenz k ausgewertet werden müssen. Die Straße wird, wie oben erläutert, in einem ganzen Bereich der diskreten Entfernung m gesehen, der sich im Beispiel oben über etwa 30 Werte von m erstreckt; die Mitte m0 dieses Bereich stellt etwa die tatsächliche Entfernung der Straße dar. Statt die nichtkohärente Integration jeweils nur über Werte zu einer diskreten Laufzeit m zu machen, kann man sie auch über mehrere benachbarte Werte von m erweitern, da die Straße ja auch über zahlreiche m hinweg gesehen wird.
  • Die obige Auswertung muss nicht für jede diskrete Frequenz gemacht werden, sondern im Prinzip nur für diejenige Frequenz k0, wo die Straßenreflexionen liegen; da die Eigengeschwindigkeit des Fahrzeugs bekannt ist (mit Hilfe der Erfassungsdaten des Lidarsensors selbst in hoher Qualität), kennt man diese diskrete Frequenz in der Regel recht genau, so dass die Berechnung nur für eine oder wenige diskrete Frequenzen k durchgeführt werden muss. Bei Verwendung einer Rechenlogik nach 8 oder 10 sind dann die Werte der zweidimensionalen Korrelation Em,k zu diesen diskreten Frequenzen auszugeben. Wenn diese diskreten Frequenzen variieren können, dann ist eine Realisierung der Ausgabe sehr aufwändig; deshalb ist es unter Verwendung der Regenlogik nach 10 vorteilhaft, über eine eigengeschwindigkeitsabhänge Wahl der Drehfaktoren dn,m die benötigten diskreten Frequenzen immer an denselben Ausgängen der Rechenlogik zu haben.
  • Statt einer nichtkohärenten Integration über Werte der zweidimensionalen Korrelation Em,k kann auch folgender zweiter Ansatz gewählt werden: Die Empfangsfolge e(n) eines Pixels wird in zwei Folgen halber Länge aufgespalten, wobei die erste Folge aus den geradzahligen n und die zweite Folge aus den ungeradzahligen n gebildet wird. Zu diesen beiden Unterfolgen wird die jeweilige zweidimensionale Korrelation bestimmt und dann wird für jede relevante Entfernung m und Frequenz k der Wert der einen Korrelation mit dem konjugiert komplexen Wert der anderen multipliziert. Zwischen den beiden Unterfolgen besteht eine Phasendifferenz, welche sich aus der Empfangsfrequenz fe und dem zeitlichen Abstand von jeweils zwei Abtastwerten, also der Abtastzeit Ts ergibt; das aus den beiden Korrelationen gebildete Produkt weist bei der jeweiligen Entfernung m und der Frequenz k0 der Straßenreflexionen einen komplexen Wert auf, dessen Phase dieser Phasendifferenz entspricht, wobei sich diese Aussage natürlich nur auf den Signalanteil bezieht, nicht auf das überlagerte Rauschen.
  • Bei einem Wert von m ist diese Phase über alle Pixel mit Straßenreflexionen zumindest näherungsweise konstant, da die Relativgeschwindigkeit und damit die Empfangsfrequenz fe in dem kleinen Winkelbereich der Straße bei etwa 0° als konstant betrachtet werden kann (cos(α) in Bez. (61c) ist ja dann näherungsweise =1). Deshalb kann das Produkt über die Pixel hinweg kohärent integriert, also aufsummiert werden, was eine stärkere Verbesserung des Signal-zu-Rauschverhältnisse als bei nichtkohärenter Integration bewirkt. Soll zusätzlich noch über unterschiedliche m integriert werden, muss der entfernungsabhängige Frequenzanteil fr in der Empfangsfrequenz fe nach Bez. (12) korrigiert werden, bevorzugt als Teil der Drehfaktoren dn,m in der Rechenlogik nach 10. Bei Verwendung dieser Rechenlogik liegen auch inhärent die beiden zweidimensionalen Korrelationen zu den Unterfolgen von e(n) mit geradzahligen und ungeradzahligen n vor - und zwar am Ausgang der vorletzten Stufe der FFT in abwechselnder Folge. Die weiteren Überlegungen und Auswertungen gelten wie beim ersten Ansatz mit nichtkohärenter Integration.
  • Dieser zweite Ansatz mit Bildung des Produkts aus zwei Korrelationen und Summation über Pixel hinweg kann auch verallgemeinert werden. Wesentlich dabei ist, dass die zwei Korrelationen zumindest teilweise Empfangssignale benutzen, die von gleichen Reflexionspunkten auf der Straße, also gleichen Flächen stammen, damit man eine definierte Phasenbeziehung hat. Beispielsweise könnte auch die erste und die zweite Hälfte der Empfangsfolge pro Pixel für die Berechnung der beiden Korrelationen verwendet werden oder die Korrelationen zweier benachbarter Pixel, sofern diese überlappen; da die zu den beiden Korrelationen zugehörigen Empfangswerte aber dann zeitlich weiter auseinanderliegen, ist man gegebenenfalls sensitiv auf eine sich ändernde Geschwindigkeit (dann kann sich die Phasendifferenz über die Folge von Pixeln ändern).
  • Vorzeichenbestimmung der Empfangsfrequenz bei reellwertigem Mischer mit Hilfe nichtbinärer Phasenmodulation
  • Bei der bisher betrachteten binären Phasenmodulation mit den beiden Phasenwerten 0° und 180° und Verwendung eines reellwertigen Mischers treten in der zweidimensionalen Korrelation Em,k zwei Betragsspitzen bei (m0,+k0) und (m0,-k0) auf, so dass nur der Betrag der Empfangsfrequenz ermittelt werden kann. Oben wurde gezeigt, wie mit Hilfe einer überlagerten linearen Frequenzmodulation zumindest teilweise diese Mehrdeutigkeit gelöst werden kann. Im Folgenden wird ein alternativer Ansatz zum Bestimmen des Vorzeichens der Empfangsfrequenz bei reellwertigem Mischer vorgestellt.
  • Die Phasenmodulation φTX(n) soll nun nicht aus den zwei binären Werten 0° und 180° bestehen, sondern aus einem Satz an J Phasenwerten φj mit j = 0,...,J-1, die allgemeine Phasenwerte annehmen können; weiterhin wechselt die Phasenmodulation unregelmäßig, insbesondere pseudozufällig über diese J Phasenwerte. Die Phasenmodulationsfolge kann dann durch ein komplexwertiges b ( n ) = exp ( j ^ φ TX ( n ) )
    Figure DE102023201144A1_0108
    beschrieben werden, und mit der Bez. (3a) ergibt sich für die Empfangsfolge e(n) eines einzelnen Objekts: e ( n ) = a exp ( j ^ [ 2 π n / N k 0 φ TX ( n m 0 ) ] ) ,
    Figure DE102023201144A1_0109
    wobei das negative Vorzeichen von φTX(n-m0) daraus resultiert, dass für den komplexen Mischer - in Konsistenz zu den obigen Herleitungen - angenommen wird, dass er die Phasendifferenzen zwischen empfangenem und gesendetem Signal bildet (im anderen Fall, also wenn Mischer Phasendifferenz zwischen gesendetem und empfangenen Signal bilden würde, wäre Vorzeichen positiv). Bei reellwertigem Mischer erhält man den Realteil davon: e ( n ) = a / 2 exp ( + j ^ [ 2 π n / N k 0 φ TX ( n m 0 ) ] ) + a / 2 exp ( j ^ [ 2 π n / N k 0 φ TX ( n m 0 ) ] ) .
    Figure DE102023201144A1_0110
  • Die zweidimensionale Korrelation Em,k in Form der Bez. (8) wird als FFT über die Produktfolge p ( n ) = e ( n ) b ( n m ) = e ( n ) exp ( j ^ φ TX ( n m ) )
    Figure DE102023201144A1_0111
    gebildet, wobei b(n) nach Bez. (63) und keine Konjugiert-Komplex-Bildung für b(n-m) benutzt wird, was zu einer Korrelation mit dem ersten Anteil von e(n) in Bez. (65) zu Frequenz +k0 korrespondiert (eine Benutzung des konjugiert Komplexen von b(n-m) würde zum zweiten Anteil zu Frequenz -k0 korrespondieren). Mit Bez. (65) erhält man: p ( n ) = p 1 ( n ) + p 2 ( n )
    Figure DE102023201144A1_0112
    mit p 1 ( n ) = a / 2 exp ( j ^ [ φ TX ( n m ) φ TX ( n m 0 ) ] ) exp ( + j ^ 2 π n / N k 0 )  und
    Figure DE102023201144A1_0113
    p 2 ( n ) = a / 2 exp ( j ^ [ φ TX ( n m ) φ TX ( n m 0 ) ] ) exp ( + j ^ 2 π n / N k 0 ) .
    Figure DE102023201144A1_0114
  • Bei der diskreten Laufzeit, als Entfernung m = m0 des Objekts stellt der erste Anteil p1(n) einen kontinuierlich rotierenden Zeiger mit der diskreten Frequenz +k0 des Objekts dar (da φTX(n-m0)-φTX(n-m0) = 0), so dass er nach der FFT, also im Ergebnis der zweidimensionalen Korrelation Em,k die Betragsspitze bei der Frequenz +k0 und der diskreten Laufzeit m0 bildet.
  • Der zweite Anteil p2(n) generiert bei binärer Phasenmodulation (Phasenwerte 0° und 180°) die Betragsspitze bei der Frequenz -k0 und diskreter Laufzeit m0, weil φTX(n-m0)+φTX(n-m0) = 2·φTX(n-m0) nur die zwei effektiv identischen Werte 0° und 360° annehmen kann (beides mal ist der durch sie gebildete komplexe Zeiger =1). Bei Wahl anderer Phasenwerte kommt es dagegen in p2(n) zu Phasensprüngen, da 02·φTX(n-m0) nicht nur ganzzahlige Vielfache von 360° annimmt. Als Beispiel seinen nun die J = 4 Phasenwerte φj = 0,90°,180°,270° betrachtet (die Modulationsfolge b(n) weist also die 4 Werte +1,+ ĵ,-1,-ĵ auf). Dann nimmt exp(ĵ·2·φTX(n-m0)) die Werte +1 und -1 an, zwischen denen pseudozufällig gesprungen wird. Da alle 4 Phasenwerte mit gleicher Wahrscheinlichkeit bzw. Häufigkeit verwendet werden, ist der Mittelwert von exp(ĵ·2·φTX(n-m0)) zumindest mit sehr guter Näherung Null; bei der diskreten Frequenz -k0 des Objekts verschwindet dann der Beitrag von p2(n) zur zweidimensionalen Korrelation Em,k, so dass dort keine Betragsspitze mehr auftritt. Weil nun nur noch eine Betragsspitze auftritt (bei vorzeichenrichtiger Frequenz +k0), liegt die Empfangsfrequenz eindeutig und korrekt fest.
  • Das Verschwinden der Betragsspitze bei falscher Frequenz -k0 kann man durch jeden Satz an J über eine Umdrehung, also 360° gleichverteilte Phasenwerte φ j = 360 / J ( 0,   1,   ,  J 1 )  mit J > 2
    Figure DE102023201144A1_0115
    realisieren; minimal werden bei über 360° gleichverteilten Phasenwerten also J = 3 Phasenwerte φj = 0,120°,240° benötigt. Bei nicht über 360° gleichverteilten Phasenwerten kann man sogar mit J = 2 Phasenwerten, z. B. φj = 0,90°, für komplettes Verschwinden der Betragsspitze bei falscher Frequenz -k0 auskommen. Bei anderer Wahl der Phasenwerte wird die falsche Betragsspitze bei Frequenz -k0 im Allgemeinen nicht komplett eliminiert, sondern nur reduziert; im Beispiel der J = 2 Phasenwerte φj = 0,45° beträgt die Reduktion 3dB. Für die Erkennung der richtigen Betragsspitze wählt man die größere der beiden Betragsspitzen bei ±k0 aus; abgesehen von einem schlechten Signal-zu-Rauschverhältnis reicht zur korrekten Erkennung schon ein kleiner nominaler Unterschied der Beträge aus. Verallgemeinert kann gesagt werden, dass unter den verwendeten J Phasenwerten φj zumindest zwei Phasenwerte sein müssen, die weder gleich- noch gegenphasig sind, um bei einem reellwertigen Mischer das Vorzeichen der Empfangsfrequenz bestimmen zu können.
  • Phasenwerte, insbesondere wenn sie nicht nur gegenphasig sind, können meist nicht beliebig genau realisiert werden. Als Beispiel sollen die J = 4 äquidistanten Phasenwerte mit nominaler Lage φj,nom = 0,90°, 180°, 270° betrachtet werden; ihre realen Werte sollen φj,real = 15°, 75°, 195°, 255° betragen, also ihre Abstände weisen große Fehler von ±30° auf. In diesem Fall kommt es im ersten Anteil p1(n) zu Phasensprüngen von ±30° und somit nichtkonstanter Phase (also einem Phasenjitter), was zu einer Reduktion der Betragsspitze an richtiger Frequenz +k0 um nur 0.3dB führt und somit einem nur geringen Verlust an Sensitivität (die verlorene Energie wandert in eine kleines Rauschen bei anderen Dopplerfrequenzen k, welches aber deutlich unter dem durch die Phasenmodulation selber erzeugten Rauschniveau in der zweidimensionalen Korrelation liegt); an der falsche Frequenz -k0 ist die Betragsspitze nicht mehr komplett eliminiert, sondern ein kleiner Gleichanteil in den Phasen von p2(n) führt zu einer Betragsspitze, die um 11.4dB unterhalb der Betragsspitze bei der richtigen Frequenz +k0 liegt, so dass diese weiterhin korrekt erkannt werden kann. An diesem Beispiel wird ersichtlich, dass selbst recht große Fehler in der Realisierung der Phasenwerte noch unkritisch sind.
  • Abschließend sollen noch mögliche kostengünstige Realisierungen erörtert werden. Ein Ansatz besteht darin, zwischen unterschiedlich langen Leitungsstücken umzuschalten; 33 zeigt als Beispiel den Fall der J = 3 äquidistanten Phasenwerte, d. h. es wird zwischen drei unterschiedlich langen Leitungsstücken umgeschaltet, wobei durch die unterschiedliche Länge eine um 120° bzw. 240° unterschiedliche Phase realisiert wird. Für das obige Beispiel der J = 4 äquidistanten Phasenwerte kann man - wie in 34 dargestellt - eine Kombination von einem schaltbaren Invertierer 34.1 und einem Umschalter 34.2 zwischen zwei Leitungstücken, die einen Phasenunterschied von 90° aufweisen, verwenden.
  • Gesamtsystem
  • Ein Lidarsystem gemäß den obigen Ausführungen umfasst oder besteht vorzugsweise nur aus den folgenden drei Hauptkomponenten:
    • - Photonischer Chip, enthält:
      • • in Frequenz verstimmbare Laserquelle (vorzugsweise gibt es nur eine; nur falls Frequenzdurchstimmbereich zu gering ist, werden mehrere benötigt),
      • • Phasenmodulationseinheit bestehend aus schaltbarem Invertierer,
      • • 32 parallele Sende-Empfangspfade mit optischem Verstärker, Zirkulator, reellwertigem Überlagerungsmischer und Photodiode,
      • • 32 Wellenleiter (im Falle der Benutzung einer Schaltmatrix zum Scannen in zweiter Raumrichtung 320 Wellenleiter),
      • • Ausgang mit 32 analogen Empfangssignalen im hohen MHz-Bereich;
    • - Digitalchip, enthält:
      • • 32 Analog-Digital-Wandler für Empfangssignale, die vom photonischen Chip ausgegeben werden,
      • • festverdrahte Rechenlogik zur Bestimmung der zweidimensionalen Korrelation mit nachgelagerter Auswertung,
      • • Mikrocontroller und/oder DSP(s) zur weiteren Signalauswertung (insbesondere für Bestimmung einer Detektionsliste) und zur Berechnung der Steuergrößen für Laserfrequenz und Scanner für zweite Raumrichtung,
      • • Steuerausgänge für Laserfrequenz und Scanner für zweite Raumrichtung (können analog oder digital sein);
    • - Scanner in eine Raumrichtung (für zweite Raumrichtung), realisiert durch:
      • • Material mit elektrisch steuerbaren optischen Eigenschaften, insbesondere ein Flüssigkristallelement oder -Array, oder
      • • Schaltmatrix für jeden der 32 parallelen Sende-Empfangspfade oder
      • • mechanischer Ansatz, z. B. in Form eines oszillierenden oder rotierenden Spiegels oder Prismas,
      • • wobei für manche der Ansätze noch eine Linseneinheit und/oder Strahlumlenkeinheit benötigt wird.
  • In einem optimalen Fall befinden sich alle elektronischen Komponenten auf einer Platine; für manche Anordnungen können auch zwei Platinen nötig sein. Durch das Potential einer hohen Halbleiterintegration des vorgeschlagenen Ansatzes können Kosten und Baugröße signifikant reduziert werden.
  • Um den Aufwand an benötigter Hardware zu reduzieren, kann eine z. B. halbierte Zahl an parallelen Sende-Empfangspfaden durch halbierte Datenaufnahmezeit pro Pixel verwendet werden, wodurch dann sich dann auch die Größe und die Stromaufnahme der festverdrahte Rechenlogik halbiert. Eine generelle Leitlinie bei diesem Konzept ist, dass alle Komponenten über die gesamte Zeit aktiv sind (also verwendet werden) und dass die gesamte erzeugte und abgestrahlte Leistung zur Erfassung benutzt wird (d. h. insbesondere wird nur Leistung in Richtungen abgestrahlt, aus denen zur gleichen Zeit auch empfangen wird).
  • Alternative Phasenmodulationsform
  • Bisher wurde für die Phasenmodulation im kohärenten Lidarsystem nach 1 eine sich mit der Periode N wiederholende pseudozufällige binäre Folge (also bestehend aus den zwei Phasenwerten 0° und 180°) nach 2 betrachtet. Statt einer pseudozufälligen Folge könnten auch unregelmäßige Folgen mit anderer Definition verwendet werden, beispielsweise Folgen gekennzeichnet durch geringe Nebenkeulen der Autokorrelierten (z. B. ein aus der Literatur bekannter Gold-Code). Zumindest falls eine hohe Sensitivität gefordert ist, benötigen unregelmäßige Folgen aber immer die aufwändige Bestimmung der zweidimensionalen Korrelation Em,k insbesondere nach Bez. (8) und somit eine spezielle Rechenlogik, insbesondere nach 8 und 10. Falls eine solche Rechenlogik nicht vorliegt, sondern nur DSPs (insbesondere mit parallelen vektoriellen Recheneinheiten), sind Modulationsfolgen zu verwenden, die eine einfachere Auswertung erlauben (aber auch verbunden mit anderen Nachteilen sein können).
  • Als Beispiel werden zuerst eine Folge und ein Auswertungsansatz betrachtet, welche im Artikel „Phase-Coded-Based Modulation for Coherent Lidar" von Sebastian Banzhaf und Christian Waldschmidt, veröffentlicht in IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY, VOL. 70, NO. 10, OCTOBER 2021, vorgeschlagen sind. Dort wird die binäre Modulationsfolge b(n) der Länge N aus zwei Teilen zusammengesetzt: während der ersten Teilfolge b1(n) mit Länge N1 ist die Phase konstant, also z. B. b 1 ( n ) = 1  mit n = 0,   ,  N 1 1,
    Figure DE102023201144A1_0116
    und die zweite Teilfolge b2(n) der Länge N2 = N-N1 ist unregelmäßig, z. B. pseudozufällig: b 2 ( n ) = ± 1  mit n = N 1 ,   ,  N 1
    Figure DE102023201144A1_0117
  • Die Längen N1 und N2 können gleich sein, also N 2 = N 1 = N / 2 ,
    Figure DE102023201144A1_0118
    und die Modulationsfolge kann sich für mehrere Erfassungsrichtungen, also Pixel periodisch wiederholen; in 35 ist eine solche Modulationsfolge dargestellt, wobei sich die aus den Teilfolgen zusammengesetzte Folge mit der Periode N=4096 wiederholt.
  • Für die von einem Objekt i generierte Empfangsteilfolge e1,i(n) zur ersten, konstanten Modulationsteilfolge b1(n) gilt gemäß Bez. (3a): e 1 ,i ( n ) = a i exp ( 2 π j ^ n / N k 0, i )  mit n = m 0, i ,   ,  m 0, i + N / 2 1,
    Figure DE102023201144A1_0119
    d. h. sie trägt nur die Dopplerfrequenz des jeweiligen Objekts, welche über eine DFT bzw. FFT bestimmt werden kann. Wegen der unbekannten Zeitverschiebungen m0,i kennt man allerdings nicht die jeweilige genaue zeitliche Lage von e1,i(n) innerhalb der Empfangsfolge e(n); man kann vereinfachend beispielsweise die Zeitverschiebung Null annehmen, d. h. über die Empfangsteilfolge e ˜ 1 ( n ) = e ( n )  mit n = 0,   ,   N / 2 1
    Figure DE102023201144A1_0120
    bildet man die FFT E 1 ,k = FFT k ( e ˜ 1 ( n ) ) = FFT k ( e ( n ) )  mit n = 0,   ,   N / 2 1.
    Figure DE102023201144A1_0121
  • Allerdings führt die Annahme der Zeitverschiebung Null dazu, dass man für andere tatsächliche Zeitverschiebungen m0,i, also insbesondere für weit entfernte Ziele, in den ersten m0,i-1 Werten der Empfangsteilfolge ẽ1(n) keine Werte von der konstanten Modulationsteilfolge b1(n) hat, sondern hintere Werte der Modulationsteilfolge b2(n) der vorhergehenden Periode; damit reduziert sich die Höhe der jeweiligen Betragsspitze der FFT und damit ihr Abstand zum Rauschen, so dass sich die Sensitivität reduziert. Die Betragsspitzen der FFT Ẽ1,k der Empfangsteilfolge ẽ1(n) werden auf eine Detektionsschwelle überprüft. Die Frequenzen k0,j der J über der Detektionsschwelle liegenden Betragsspitzen werden für die Weiterverarbeitung benutzt; typischerweise sieht man diese Betragsspitzen in zwei benachbarten FFT-Werten (da sie nicht - wie bisher betrachtet - bei einem ganzzahligen Dopplerindex k0 liegen), so dass durch Interpolation dann jeweils ihre genau Lage, also eine nicht ganzzahlige Frequenz k0,j bestimmt werden kann. Diese Frequenzen k0,j entsprechen zumindest näherungsweise den Dopplerfrequenzen k0,i der Objekte oder einer Teilmenge von diesen (für Objekte mit sehr geringer Reflektivität kann es sein, dass sie zu keiner Betragsspitze über der Detektionsschwelle führen).
  • Die zweite Modulationsteilfolge b2(n) führt in der Empfangsfolge e(n) gemäß Bez. (3a) zu um m0,i zeitverschobenen und mit der jeweiligen Dopplerfrequenz k0,i multiplizierten, also modulierten Komponenten e 2 ,i ( n ) = a i b 2 ( n m 0 ,i ) exp ( 2 π j ^ n / N k 0 ,i )  mit n m 0, i = N / 2 ,   ,  N 1
    Figure DE102023201144A1_0122
  • Um die jeweilige Modulation durch die Dopplerfrequenz zu eliminieren, wird die Empfangsfolge e(n) jeweils um die Frequenz k0,j zurückgedreht: e ˜ 2 ,j ( n ) = e ( n ) exp ( 2 π j ^ n / N k 0 ,j )  mit n = N / 2 ,   ,  N 1 + M 1  und j = 1,    J 1 ;
    Figure DE102023201144A1_0123
    dabei muss der Bereich n = N/2,...,N-1+M-1 der Empfangsfolge e(n) betrachtet werden, in welchem der Empfang der zweiten Modulationsteilfolge b2(n) liegen kann, wobei M-1 zu der größten anzunehmenden bzw. interessierenden Objektentfernung korrespondiert. Es sei bemerkt, dass der Bereich n = N,...,N-1+M-1 des Empfangssignals nur bei einem kontinuierlichen Scannen benutzt werden kann, allerdings nicht bei einem geschalteten Scannen (dann ist das dortige Signal wegen anderer Erfassungsrichtung nicht kohärent).
  • Die so modifizierten Folgen ẽ2,j(n) beinhalten im korrespondierenden Index j verschobene Modulationsteilfolgen ai·b2(n-m0,i); Beiträge von Objekten mit anderen Dopplerfrequenzen k0,i (also k0,i ≠ k0,j) stellen eine zu b2(n) unkorrelierte Modulationsfolge dar, da sie noch mit der Differenzfrequenz k0,i-k0,j moduliert sind. Deshalb können nun die Folgen ẽ2,j(n) mit der zweiten Modulationsteilfolge b2(n) korreliert werden: E 2 ,j ,m = sum n = N / 2 ,   ,  N 1 ( e ˜ 2 ,j ( n + m ) b 2 ( n ) )  mit m = 0,   ,  M 1  und j = 1,   J 1 .
    Figure DE102023201144A1_0124
  • In diesen eindimensionalen Korrelationen Ẽ2,j,m treten Betragsspitzen an den Stellen m = m0,i, also an den diskreten Laufzeiten von Objekten auf; beim allgemeinen Fall einer nicht ganzzahligen diskreter Laufzeit m0,i erstreckt sich die Betragsspitze bei geeigneten Maßnahmen (z. B. Verschleifen der Modulationspulse auf eine näherungsweise dreiecksförmige Gestalt) über zwei benachbarte Werte von m, und man kann durch Interpolation ihre nichtganzzahlige Position ermitteln. Aus dem Index j der Korrelation Ẽ2,j,m, bei welcher die Betragsspitze auftritt, und der zu diesem j gehörigen Dopplerfrequenz k0,j ergibt sich die Dopplerfrequenz k0,i = k0,j des Objekts. So können aus über einer Detektionsschwelle liegenden Betragsspitzen der Korrelationen Ẽ2,j,m die Entfernungen und radialen Relativgeschwindigkeiten von Objekten in der jeweiligen Erfassungsrichtung bestimmt werden. Es sei bemerkt, dass Beiträge von Objekten mit jeweils anderen Dopplerfrequenzen k0,i (also k0,i ≠ k0,j) wegen ihrer Unkorreliertheit zu b2(n) nur zu Rauschen in den jeweiligen Korrelationen führen, also zu keinen Betragsspitzen über einer Detektionsschwelle; bei etwa gleich starken Reflexionssignalen von Objekten liegt dieses Rauschen deutlich unter den interessierenden Betragsspitzen und verdeckt diese damit nicht - nur wenn Reflexionssignale von Objekten stark unterschiedlich sind, können Objekte mit starkem Reflexionssignal über ihr Rauschen schwache Reflexionssignale mit anderer Dopplerfrequenz verdecken.
  • Mit der Modulationsfolge nach 35 und der oben erläuterten Auswertung benötigt man bei dem typischen Fall von einem Objekt in einem Pixel eine FFT für die Empfangsteilfolge e1(n) zur ersten Modulationsteilfolge b1(n) und eine Korrelation zwischen zweiter Modulationsteilfolge b2(n) und der frequenzrückgedrehten Empfangsteilfolge ẽ2,1(n) zur zweiten Modulationsteilfolge. Diese Korrelation im Zeitbereich kann man auch über eine Multiplikation der FFTs im Frequenzbereich mit anschließender inversen FFT realisieren (inverse FFT benötigt gleichen Rechenaufwand wie FFT selber); die FFT der Modulationsteilfolge b2(n) kann man einmal a priori bestimmen, so dass nur die FFT von der Empfangsteilfolge ẽ2,1(n) bestimmt werden muss. Insgesamt fällt also der Aufwand von drei FFTs an, während bei der zweidimensionalen Korrelation Em,k nach Bez. (8) insgesamt M = 500 FFTs zu rechnen sind, wobei diese FFTs etwa doppelte Länge haben, wenn gleiche Dauer eines Pixels angenommen wird. Damit ergibt sich eine sehr starke Reduktion des benötigten Rechenaufwands auf eine Größenordnung, welche moderne DSPs mit parallelen vektoriellen Recheneinheiten erschließen.
  • Nachteilig im Vergleich zu einer Modulationsfolge nach 2 und Auswertung über eine zweidimensionalen Korrelation Em,k nach Bez. (6) bzw. (8) sind insbesondere folgende Punkte:
    • - Die Sensitivität ist um etwas mehr als 3dB geringer, wenn gleiche Dauer eines Pixels angenommen wird; die halbe Länge der FFT (von der Empfangsteilfolge e1(n)) wie auch die halbe Länge der zeitlichen Korrelation (von ẽ2,j(n) zu der Modulationsteilfolge b2(n)) führt auf 3dB Verlust, und zusätzlich gibt es - wie oben erläutert - den Effekt, dass insbesondere für weit entfernte Ziele die ersten Werte der Empfangsteilfolge ẽ1(n) nicht von der konstanten Modulationsteilfolge b1(n) stammen, sondern von hinteren Werten der Modulationsteilfolge b2(n) der vorhergehenden Periode, so dass diese Werte effektiv nicht zur jeweiligen Betragsspitze der FFT beitragen.
    • - Wegen der halben Länge der FFT sind Auflösung und Genauigkeit für die Dopplerbestimmung, d. h. die Bestimmung der radialen Relativgeschwindigkeit um Faktor zwei schlechter.
    • - Die zeitliche Korrelation von ẽ2,j(n) mit b2(n) zur Bestimmung der Entfernung hat nur die halbe Länge. Damit reduziert sich der Dynamikbereich bei mehr als einem Objekt pro Pixel um 3dB, d. h. ein Objekt mit starkem Reflexionssignal erhöht den Rauschpegel relativ zu dem Pegel eines Objekts mit schwächerem Reflexionssignal um 3dB mehr, so dass die Wahrscheinlichkeit für das Nichtdetektieren eines solchen zweiten Objekts höher ist.
    • - Bei kontinuierlich scannenden Systemen können grundsätzlich Pixel überlappen, d. h. manche der Empfangswerte e(n) werden für zwei benachbarte Pixel benutzt, insbesondere um eine längere Datenaufnahmezeit pro Pixel und damit eine bessere Sensitivität zu erzielen. Bei einer Modulationsfolge nach 35 gibt es aber nur die Möglichkeit eines Überlapps von 50%, da man ja in jedem Pixel beide Modulationsteilfolgen benötigt. Kleinere Überlappe, welche häufig bevorzugt werden, sind nicht möglich.
  • Diese Nachteile der Modulationsfolge nach 35 und der oben erläuterten zugehörigen Auswertung, welche Stand der Technik sind, können durch die neue Modulationsfolge nach 36 zu einem signifikanten Teil behoben werden, ohne dass die für die Auswertung benötigte Rechenleistung signifikant ansteigt. Bei der Modulationsfolge b(n) nach 36 sind die beiden bisherigen Modulationsteilfolgen b1(n) und b2(n) alternierend ineinander geschachtelt: b 1 ( n ) = 1  mit n = 0,  2 , 4 , N 2,
    Figure DE102023201144A1_0125
    b 2 ( n ) = ± 1  mit n = 1,  3 , 5 , N 1.
    Figure DE102023201144A1_0126
  • Somit erstrecken sich beide Modulationsteilfolgen jeweils über die volle Modulationsdauer, wobei sie jeweils nur jeden zweiten Rasterwert einnehmen.
  • Die von einem Objekt i generierte Empfangsteilfolge e1,i(n) zur ersten, konstanten Modulationsteilfolge b1(n) kann entweder bei geradzahligen oder ungeradzahligen Werten von n liegen, abhängig davon, ob die diskrete Laufzeit m0,i des jeweiligen Objekts geradzahlig oder ungeradzahlig ist (hier wird zuerst angenommen, dass m0,i ganzzahlig ist): e 1 ,i ( n ) = a i exp ( 2 π j ^ n / N k 0 ,i )  mit n = 0,  2 , 4 , N 2  oder n = 1,  3 , 5 , N 1 ;
    Figure DE102023201144A1_0127
    bei diesem Bereich vom Index n stammen die ersten Werte vom Ende der vorherigen Modulationsperiode (wegen der Laufzeit des jeweiligen Objekts) - im Gegensatz zur vorher betrachteten Modulationsfolge nach 35 kommen diese Werte aber auch von der ersten, konstanten Modulationsfolge, sodass sie auch kohärent zur späteren FFT beitragen. Wegen der zwei möglichen Lagen der Empfangsteilfolgen e1,i(n) muss die FFT zur Bestimmung der Dopplerfrequenzen der Objekte nun zweimal berechnet werden - einmal über die erste Folge e ˜ 1 ,1 ( n ) = e ( n )  mit n = 0,  2 , 4 , N 2,
    Figure DE102023201144A1_0128
    und einmal über die zweite Folge e ˜ 1,2 ( n ) = e ( n )  mit n = 1,3,5, , N 1.
    Figure DE102023201144A1_0129
  • Die beiden FFTs E ˜ 1,1, k _ = FFT k _ ( e ˜ 1,1 ( n ) ) = FFT k _ ( e ( n ) )  mit n = 0,2,4, , N 2,
    Figure DE102023201144A1_0130
    E ˜ 1,2, k _ = FFT k _ ( e ˜ 1,2 ( n ) ) = FFT k _ ( e ( n ) )  mit n = 1,3,5, , N 1,
    Figure DE102023201144A1_0131
    beziehen sich auf die Ausgangsdimension, also die diskrete Frequenz k = 0,...,N/2-1, welche mit der bisher betrachteten diskreten Frequenz k wegen der effektiv halben Abtastrate über k _ = mod N/ 2 ( k )
    Figure DE102023201144A1_0132
    zusammenhängt. In 37 sind die beiden FFTs nach Bez. (79) betragsmäßig für zwei Objekte gleicher Empfangsamplitude bei (m0,1,k0,1) = (300,3846) und (mo=0,2,k0,2) = (101,1000) dargestellt; das erste Objekt bei der geradzahligen diskreten Laufzeit m0,1 = 300 bildet eine Betragssitze in der ersten FFT Ẽ1,1,k bei der Dopplerfrequenz k0,1 = k0,1-N/2 = 1798, das zweite Objekt bei der ungeradzahligen diskreten Laufzeit m0,2 = 101 bildet eine Betragssitze in der zweiten FFT Ẽ1,2,k bei der Dopplerfrequenz k0,2 = k0,2 = 1000.
  • Die Betragsspitzen der beiden FFTs Ẽ1,1,k und Ẽ1,2,k werden auf eine Detektionsschwelle überprüft. Die Frequenzen k0,j der J über der Detektionsschwelle liegenden Betragsspitzen werden für die Weiterverarbeitung benutzt; typischerweise sieht man diese Betragsspitzen jeweils in zwei benachbarten FFT-Werten (da sie nicht - wie im obigen Beispiel betrachtet - bei einem ganzzahligen Dopplerindex K0,j liegen), so dass durch Interpolation dann jeweils ihre genau Lage, also eine nicht ganzzahlige Frequenz k0,j bestimmt werden kann. Abgesehen von einem eventuell fehlenden Anteil N/2 (wegen der Modulofunktion nach Bez. (80)) entsprechen diese Frequenzen k0,j zumindest näherungsweise den Dopplerfrequenzen k0,i der Objekte oder einer Teilmenge von diesen (für Objekte mit sehr geringer Reflektivität kann es sein, dass sie zu keiner Betragsspitze über der Detektionsschwelle führen). Für die weitere Verarbeitung muss auch berücksichtigt werden, in welcher der beiden FFTs die Betragsspitze bei K0,j detektiert wurde, also ob die zugehörige diskrete Laufzeit geradzahlig oder ungeradzahlig ist; dazu wird die Größe m i { 0,1 }
    Figure DE102023201144A1_0133
    eingeführt, wobei mj = 0 ist, wenn die Betragsspitze in erster FFT Ẽ1,1,k auftritt und mj = 1 ist, wenn die Betragsspitze in zweiter FFT Ẽ1,2,k auftritt.
  • Die zweite Modulationsteilfolge b2(n) nach Bez. (76b) führt in der Empfangsfolge e(n) zu um m0,i, zeitverschobenen und mit der jeweiligen Dopplerfrequenz k0,i multiplizierten, also modulierten Komponenten e 2, i ( n ) = a i b 2 ( n m 0, i ) exp ( 2 π j ^ n/N k 0, i )  mit n m 0, i = 1,3,5, , N 1
    Figure DE102023201144A1_0134
  • Um die jeweilige Modulation durch die Dopplerfrequenz zu eliminieren, wird die Empfangsfolge e(n) um die Frequenz k0,j zurückgedreht: e ˜ 2, j ( n ) = e ( n + m _ i ) exp ( 2 π j ^ n/N k _ 0, j )  mit n = 1,3,5, , N 1  und j = 1, J 1
    Figure DE102023201144A1_0135
    dabei berücksichtigt die in Bez. (81) eingeführte Größe mj, ob die jeweilige Empfangsteilfolge in einem ungeradzahligen oder geradzahligen Raster liegt (also eine geradzahlige oder ungeradzahlige diskrete Laufzeit hat); und es sei noch bemerkt, dass - wie bei der Bestimmung der FFT - bei diesem Bereich vom Index n die ersten Empfangswerte vom Ende der vorherigen Modulationsperiode stammen (wegen der Laufzeit des jeweiligen Objekts), was für die nachfolgende Korrelation wegen der Periodizität der gesamten Modulationsfolge (hat Periode N) aber nicht die Kohärenz verletzt.
  • Die so modifizierten Folgen ẽ2,j(n) beinhalten im korrespondierenden Index j zyklisch verschobene Modulationsteilfolgen ai·b2(modN(n-m0,i)). Beiträge von Objekten mit anderen Dopplerfrequenzen k0,i (also k0,i ≠ k0,j) stellen eine zu b2(n) unkorrelierte Modulationsfolge dar, da sie noch mit der Differenzfrequenz k0,i-k0,j moduliert sind; gleiches gilt für Beiträge mit anderem mj, da diese mit b1(n) moduliert sind. Deshalb können nun die Folgen ẽ2,j(n) mit der zweiten Modulationsteilfolge b2(n) zyklisch korreliert werden: E ˜ 2, j , m _ _ = sum n = 1,3, , N 1 ( e ˜ 2, j ( n ) b 2 ( mod N ( n m _ _ ) ) )  mit  m _ _ = 0,2, , M 2  und j = 1, J 1.
    Figure DE102023201144A1_0136
  • In diesen eindimensionalen Korrelationen E ˜ 2, j , m _ _
    Figure DE102023201144A1_0137
    treten Betragsspitzen an den Stellen m _ _ 0, j = m 0, i m _ i
    Figure DE102023201144A1_0138
    auf, also an den diskreten Laufzeiten m0,i von Objekten minus der in Bez. (83) angewendeten Verschiebung mj, so dass sich die diskrete Laufzeit jeweils zu m 0, i = m _ _ 0, j + m _ i
    Figure DE102023201144A1_0139
    ergibt. Für das obige Beispiel mit zwei Objekten sind in 38 die Beträge der beiden Korrelationen E ˜ 2,1, m _ _
    Figure DE102023201144A1_0140
    zu ẽ2,1(n) mit k0,1 = 1798 und m1 = 0 sowie E ˜ 2,2, m _ _
    Figure DE102023201144A1_0141
    zu ẽ2,2(n) mit k0,2 = 1000 und m2 = 1 dargestellt; die Betragsspitzen liegen bei den Werten m _ _ 0,1 = 300
    Figure DE102023201144A1_0142
    sowie m _ _ 0,2 = 100,
    Figure DE102023201144A1_0143
    welche zu den diskreten Laufzeiten m 0,1 = m _ _ 0,1 + m _ 1 = 300
    Figure DE102023201144A1_0144
    sowie m 0,2 = m _ _ 0,2 + m _ 2 = 101
    Figure DE102023201144A1_0145
    korrespondieren.
  • Aus dem Index j der Korrelation E ˜ 2, j , m _ _ ,
    Figure DE102023201144A1_0146
    bei welcher die Betragsspitze auftritt, und der zu diesem j gehörigen Dopplerfrequenz K0,j ergibt sich die Dopplerfrequenz k0,i des Objekts nur bis auf einen potenziellen Offset von N/2 - siehe Bez. (80), welche berücksichtigt, dass die Dopplerfrequenz aus einer Folge mit halber Abtastrate bestimmt wird, d. h., eine zusätzliche halbe Periode auf volle Abtastrate bezogen kann damit nicht erkannt werden. Allerdings führt eine solche halbe Periode dazu, dass die komplexen Werte bei den jeweiligen Betragsspitzen in FFT Ẽ1,1,k bzw. Ẽ1,2,k und Korrelation E ˜ 2, j , m _ _
    Figure DE102023201144A1_0147
    zueinander um 180° gedreht sind, während sie im anderen Fall (also keine zusätzliche halbe Periode in Dopplerfrequenz) gleiche Phase haben. Mit diesem Zusammenhang lässt sich die Mehrdeutigkeit zur jeweiligen Dopplerfrequenz k0,i lösen, indem die beiden komplexen Werte korrigiert um die möglichen Phasenverschiebungen (0° und 180°) aufaddiert werden, also die Summe und Differenz der beiden komplexen Werte gebildet wird - hat die Summe größeren Betrag als die Differenz, dann ist die Dopplerfrequenz k0,i = k0,j, im anderen Fall ist die Dopplerfrequenz k0,i = k0,j+N/2; im obigen Beispiel ist für das erste Objekt (also für k=k0,1 und m _ _ = m _ _ 0,1
    Figure DE102023201144A1_0148
    ) die Differenz E ˜ 1,1, k _ E ˜ 2,1, m _ _
    Figure DE102023201144A1_0149
    größer als die Summe E ˜ 1,1, k _ + E ˜ 2,1, m _ _
    Figure DE102023201144A1_0150
    (wegen näherungsweiser Gegenphasigkeit der beiden Komponenten), so dass die Dopplerfrequenz k0,1 = k0,1+N/2 = 3846 ist, und für das zweite Objekt (also für k=k0,2 und m _ _ = m _ _ 0,2
    Figure DE102023201144A1_0151
    ) ist die Summe E ˜ 1,2, k _ + E ˜ 2,2, m _ _
    Figure DE102023201144A1_0152
    größer als die Differenz E ˜ 1,2, k _ E ˜ 2,2, m _ _
    Figure DE102023201144A1_0153
    (wegen näherungsweiser Gleichphasigkeit der beiden Komponenten), so dass die Dopplerfrequenz k0,2 = k0,2 = 1000 ist. Weil die Dopplerfrequenz nun über die volle Dauer einer Modulationsperiode bestimmt wird, besteht nicht mehr der Nachteil der Modulationsfolge nach 35 (gemäß Stand der Technik), wo Auflösung und Genauigkeit für die Dopplerbestimmung um Faktor zwei reduziert sind, da die FFT nur über halbe Modulationsdauer bestimmt wird.
  • Mit den oben dargestellten Zusammenhängen und Vorgehensweisen können aus den über einer Detektionsschwelle liegenden Betragsspitzen der Korrelationen E ˜ 2, j , m _ _
    Figure DE102023201144A1_0154
    die Entfernungen und radialen Relativgeschwindigkeiten von Objekten in der jeweiligen Erfassungsrichtung bestimmt werden. Es sei bemerkt, dass Beiträge von Objekten mit jeweils anderen Dopplerfrequenzen k0,i (also k0,i ≠ k0,j) und/oder anderem Wert mj wegen ihrer Unkorreliertheit zu b2(n) nur zu Rauschen in den jeweiligen Korrelationen führen, also zu keinen Betragsspitzen über einer Detektionsschwelle; bei etwa gleich starken Reflexionssignalen von Objekten liegt dieses Rauschen deutlich unter den interessierenden Betragsspitzen und verdeckt diese damit nicht - nur wenn Reflexionssignale von Objekten stark unterschiedlich sind, können Objekte mit starkem Reflexionssignal über ihr Rauschen schwache Reflexionssignale mit anderer Dopplerfrequenz verdecken.
  • Alternativ zum Ansatz, dass Detektionen aus über einer Detektionsschwelle liegenden Betragsspitzen der Korrelationen E ˜ 2, j , m _ _
    Figure DE102023201144A1_0155
    generiert werden, kann man die oben eingeführten Summen und Differenzen von FFT Ẽ1,1,k bzw. Ẽ1,2,k mit k = k0,j und Korrelation E ˜ 2, j , m _ _
    Figure DE102023201144A1_0156
    auf eine Detektionsschwelle prüfen, da derjenige Wert von Summe und Differenz, bei welchem die beiden Komponenten FFT und Korrelation phasenrichtig, d. h. kohärent, aufaddiert werden, ein um 3dB besseres Signal-zu-Rauschverhältnis aufweist als die Korrelation selber; dies ergibt sich daraus, dass bei der Summe bzw. Differenz über die ganze Modulationsfolge b(n) integriert wird, bei der Korrelation aber nur über die halbe. Damit hat die Summe bzw. Differenz auch das gleiche Signal-zu-Rauschverhältnis und damit die gleiche Sensitivität wie die optimale zweidimensionale Korrelation Em,k nach Bez. (6). Allerdings gilt das nur dann, wenn man in der FFT an der jeweils entsprechenden Stelle, also bei k = k0,j, schon eine Betragsspitze detektiert hat; da die FFT wegen halber Integrationsdauer ein 3dB schlechteres Signal-zu-Rauschverhältnis aufweist, muss man eine entsprechend reduzierte Detektionsschwelle anwenden. Diese reduzierte Detektionsschwelle hat eine erhöhte Wahrscheinlichkeit, dass fälschlicherweise Rauschspitzen detektiert werden; allerdings werden diese bei der effektiv schärferen Detektionsschwelle von Summe und Differenz von FFT und Korrelation dann wieder verworfen, so dass als einziger Nachteil ein leicht erhöhter Rechenaufwand bleibt (weil Korrelation E ˜ 2, j , m _ _
    Figure DE102023201144A1_0157
    öfters berechnet werden muss). Es sei noch bemerkt, dass man Summe und Differenz nicht für jedes m _ _
    Figure DE102023201144A1_0158
    bestimmen muss, sondern dass man die Korrelation E ˜ 2, j , m _ _
    Figure DE102023201144A1_0159
    auch erst mal auf eine etwa 3dB reduzierte Detektionsschwelle prüfen kann und nur an den Stellen, wo diese Detektionsschwelle überschritten wird, Summe und Differenz bildet. Weil der neue Ansatz aus Modulationsfolge nach 36 und oben beschriebener Auswertung die gleiche Sensitivität wie die optimale zweidimensionale Korrelation Em,k nach Bez. (6) aufweist, ist der Nachteil der Modulationsfolge nach 35 (Stand der Technik) einer 3dB schlechteren Sensitivität behoben. Nun soll noch kurz diskutiert werden, ob der neue Ansatz aus Summe und Differenz von FFT und Korrelation nicht auch bei der Modulationsfolge nach 35 angewendet werden könnte: dies geht nur dann, wenn die Empfangsphase über die ganze Modulationsfolge stabil linear ist (also instantane Frequenz konstant), was insbesondere bei kontinuierlichem räumlichem Scannen wegen Speckle-Effekten nur bedingt gegeben ist.
  • Der Ansatz von Summe und Differenz von FFT und Korrelation vermeidet auch den Nachteil der Modulationsfolge nach 35 (Stand der Technik) eines um 3dB reduzierten Dynamikbereichs bei mehr als einem Objekt pro Pixel, weil nun über die volle Modulationsfolge integriert wird.
  • Ein weiterer Vorteil der neuen Modulationsfolge nach 36 ist, dass beliebige Überlappe für zwei benachbarte Pixel realisiert werden können, da jeder Ausschnitt dieser periodischen Modulationsfolge (Periode N) die charakteristische Eigenschaft nach Bez. (76) hat.
  • Der benötigte Rechenaufwand für den neuen Ansatz mit der Modulationsfolge nach 36 unterscheidet sich von dem für die Modulationsfolge nach 35 (Stand der Technik) durch eine zusätzliche FFT der Länge N/2 (unabhängig von der Anzahl der Objekte im jeweiligen Pixel), wohingegen die Korrelationen nur halbe Länge aufweisen, was allerdings bei der Realisierung der Korrelation im Frequenzbereich (also über FFT und inverse FFT) keinen Vorteil darstellt. Beim typischen Fall von einem Objekt in einem Pixel sind zwei FFTs und eine Korrelation zu bestimmen. Bei dem oben erläuterten Ansatz mit reduzierter Detektionsschwelle für die FFTs können prinzipiell noch zusätzliche Berechnungen der Korrelation auftreten. Damit liegt der benötigte Rechenaufwand immer noch in einer Größenordnung, welche moderne DSPs mit parallelen vektoriellen Recheneinheiten erschließen, was zu einer günstigen Realisierung führt und keine spezielle Rechenlogik benötigt.
  • Für die Ausgangsdimension der FFT, also die diskrete Frequenz wurde oben (in diesem Abschnitt), wie allgemein üblich, der nicht symmetrisch liegende Bereich k = 0,...,N/2-1 betrachtet - ebenso für die diskrete Frequenz nach Auflösung der Mehrdeutigkeiten der nicht symmetrisch liegende Bereich k = 0,...N-1; die tatsächlichen Relativgeschwindigkeiten und damit Dopplerfrequenzen können beide Vorzeichen annehmen, so dass der obere Bereich, insbesondere die obere Hälfte von k = 0,...N-1 zu negativen Werten durch Subtraktion von N abzubilden ist.
  • Alternativ zur bisher betrachteten neuen Modulationsfolge nach 36 kann man für die Modulationsteilfolge b1(n) auch alternierende Werte (also abwechselnd +1 und -1) benutzen - dies ist in 39 dargestellt. Einziger wesentlicher Unterschied ist, dass die Empfangsteilfolgen zu diesem b1(n) eine zusätzlich Frequenz mit Periode zwei (bezogen auf die Modulationsrate von b1(n)) aufweisen, also die Betragsspitzen der beiden zugehörigen FFTs Ẽ1,1,k und Ẽ1,2,k um halbe FFT-Länge N/4 verschoben sind, was für die weitere Verarbeitung entsprechend zu korrigieren ist.
  • Bisher wurde in diesem Abschnitt der Fall betrachtet, dass die diskrete Laufzeit m0,i ganzzahlig und die Modulationsdauer Tm gleich der Abtastwiederholzeit Ts ist. Für eine nichtganzzahlige diskreter Laufzeit m0,i könnte es im Falle eines ideal rechteckförmigen Modulationssignals, welches seine ideale Form auch im Empfangssignal behält, passieren, dass genau an der Flanke abtastet wird, wo keine sinnvolle Information zu erhalten ist. Um dies zu vermeiden, kann die Abtastwiederholzeit Ts der Empfangsfolge kleiner, z. B. halb so groß wie die Modulationsdauer Tm vorgesehen werden und/oder die Form der Modulationspulse wird entweder direkt bei ihrer Generierung oder im Empfänger auf eine z. B. näherungsweise dreiecksförmige Gestalt verschliffen (letzteres realisiert ein im Empfänger vorhandener Tiefpass inhärent). Beim Ansatz mit Verschleifen des Modulationssignals und dem allgemeinen Fall einer nicht ganzzahligen diskreter Laufzeit m0,i treten in beiden FFTs Ẽ1,1,k und Ẽ1,2,k Betragsspitzen auf, so dass die Korrelation E ˜ 2, j , m _ _
    Figure DE102023201144A1_0160
    für beide mj = 0,1 bestimmt und durch Interpolation der Werte der Betragsspitzen beider Korrelationen das nichtganzzahlige m0,i ermittelt werden kann (man könnte auch schon durch Interpolation der Werte der Betragsspitzen der beiden FFTs das nichtganzzahlige m0,i bestimmen oder durch Kombination, also Summe bzw. Differenz der Werte von FFT und Korrelation). Beim Ansatz einer z. B. halb so großen Abtastzeit Ts (im Vergleich zur Modulationsdauer Tm) weist das Ineinanderschachteln der beiden Modulationsteilfolgen bezüglich der Abtastzeit die Periode 4 auf und im Empfangssignal stammen jeweils zwei aufeinanderfolgende Abtastwerte von der ersten Folge b1(n) und die nächsten zwei Abtastwerte von der zweiten Folge b2(n); deshalb sind zum einen für die Empfangsteilfolgen e1,i(n) vier mögliche Lagen zu berücksichtigen, also vier FFTs Ẽ1,1,k,...,Ẽ1,4,k zu berechnen, und zum anderen sind dabei die zu b2(n) korrespondierenden Abtastwerte zu Null zu setzen (weil sie nicht mehr im Raster der Periode 2 liegen und somit nicht mehr einfach weggelassen werden können), so dass die FFT über volle Anzahl der Empfangswerte (im Gegensatz zu halben Anzahl bisher) zu berechnen ist. In zumindest einem Teil dieser FFTs treten dann von einem einzelnen Objekt drei Betragsspitzen auf; die größte an der richtigen Position, also der Dopplerfrequenz des Objekts (Mehrdeutigkeiten gibt es im Gegensatz zu oben keine mehr, was von Vorteil ist), und zwei weitere, um 3dB kleinere Betragsspitzen ein Viertel der FFT-Länge davor und danach (diese sind für die weitere Verarbeitung zu ignorieren). Da in mehreren der vier FFTs Ẽ1,1,k,...,Ẽ1,4,k Betragsspitzen auftreten, kann durch Interpolation eine nichtganzzahlige diskrete Laufzeit ermittelt werden (unter Verwendung der Werte der FFTs oder der Korrelationen oder ihrer Kombinationen).
  • Neben dem bisher betrachteten Fall, dass die beiden Modulationsteilfolgen b1(n) und b2(n) alternierend, also mit Periode zwei ineinander geschachtelt werden, können grundsätzlich auch längere Perioden für das Ineinanderschachteln sowie optional noch eine ungleiche Zahl an Elementen von b1(n) und b2(n) pro Periode verwendet werden.
  • Im bisher in diesem Abschnitt betrachteten Lidarsystem nach 1 ist der Mischer komplexwertig ausgeführt, was gegenüber einem reellwertigen Mischer für den Empfangspfad einen deutlichen Mehraufwand (nahezu doppelt) darstellt. Bei Verwendung eines reellwertigen Mischers könnte man nur den Betrag der Relativgeschwindigkeit ermitteln, nicht das Vorzeichen, da es in den FFTs zwei Betragsspitzen bei +k0 und -k0 gibt. Zur Ermittlung des Vorzeichens wären Ansätze über Plausibilisierung und/oder Tracking, d. h. Verfolgung über mehrere Aufnahmezyklen nötig. Alternativ kann man - wie auch oben erläutert - eine komplexwertige Modulationsfolge, z. B. bestehend aus den 4 Werten +1, +j,-1 ,-j (zu den 4 äquidistanten Phasenwerten φj = 0,90°,180°,270°) verwenden. Für die erste Modulationsteilfolge b1(n) rotiert man dann periodisch über die vier Werte +1, +j,-1 ,-j, so dass bei einem Objekt mit der Relativgeschwindigkeit Null die Betragsspitze bei einem Viertel der FFT-Länge liegt - negative Relativgeschwindigkeiten liegen darunter (haben also geringere Frequenz), positive liegen darüber. Diese erste Modulationsteilfolge b1(n), die ihrerseits eine Periode 4 hat, ist weiterhin alternierend mit der zweiten Modulationsteilfolge b2(n) verschachtelt, welche auch diese vier Werte +1,+ĵ,-1,-ĵ z. B. in pseudozufälliger Folge annehmen kann. Zwar benötigt die Erzeugung einer solchen komplexwertigen Folge einen erhöhten Schaltungsaufwand (siehe z. B. 34), aber dieser wird nur einmal benötigt, während bei einem parallelen Empfänger der Aufwand für einen komplexwertigen Empfänger vielfach anfällt. Bei einer komplexwertigen Modulationsfolge ist für die Korrelation das konjugiert Komplexe der Modulationsfolge zu benutzen. Alternativ kann man auch das konjugiert Komplexe der Empfangsfolge benutzen, sofern diese komplexwertig ist.
  • Bisher wurde der Fall betrachtet, dass für die FFT keine Fensterfunktion benutzt wird, also keine Multiplikation der Eingangswerte der FFT mit einer Art Glockenkurve; dies wäre nur nötig bzw. sinnvoll, wenn in gleicher Entfernung in einem Pixel zwei Objekte mit ähnlicher Relativgeschwindigkeit und deutlich unterschiedlicher Reflexionsstärke auftreten können und separiert werden sollen. Insbesondere wenn keine Fensterfunktion am Eingang der FFT benutzt wird, wird die Sensitivität am Ausgang der FFT dann reduziert (also das Detektionsvermögen von Objekten mit schwacher Reflektivität und hoher Entfernung), wenn der zur Relativgeschwindigkeit korrespondierende Dopplerindex nicht ganzzahlig ist, also sich die Betragsspitze auf zwei benachbarte FFT-Werte aufteilt. Dieser Effekt kann dadurch reduzieret werden, dass die Länge der FFT höher gewählt wird als die ihres Eingangssignals, d. h. es werden an das Eingangssignal Nullen angehängt, was als Zero-Padding bezeichnet wird.
  • Hinsichtlich der zweiten Modulationsteilfolge b2(n) sei noch bemerkt, dass sie nicht nur aus einem pseudozufälligen Wechsel zwischen diskreten Phasenwerten gebildet sein kann, sondern auch aus einem Code, dessen Autokorrelierte geringe Nebenkeulen aufweist - z. B. einem aus der Literatur bekannten Gold-Code. Dies führt zu einem höheren Dynamikbereich der Korrelation, allerdings nur dann, wenn es keine Signalanteile (z. B. von Objekten anderer Relativgeschwindigkeit) gibt, welche im zu korrelierenden Signal Rauschen darstellen.
  • Die in diesem Abschnitt vorgestellten Modulationsfolgen bestehend aus zwei Teilfolgen, welche nach Stand der Technik sequenziell angeordnet oder in neuem Ansatz ineinander geschachtelt sind, können erfindungsgemäß auch in Kombination mit einer sich linear ändernden Frequenz nach Bez. (9) benutzt werden; ein Beispiel dazu zeigt 40. Einzige Auswirkung ist, dass die Empfangsfrequenz fe neben der Dopplerverschiebung fD noch einen laufzeitbedingten Anteil fr aufweist (siehe Bez. (12)); alle obigen Betrachtungen gelten somit weiterhin, einzig zu berücksichtigen ist, dass für die Bestimmung der Relativgeschwindigkeit von der Empfangsfrequenz noch der laufzeitabhängige Anteil abzuziehen ist, wobei die Laufzeit aus der Korrelation bekannt ist. Die überlagerte Frequenzmodulation ermöglicht die oben erörterten Systemansätze (insbesondere das kontinuierliche räumliche Scannen über Frequenz) und Vorteile (insbesondere Vorzeichenbestimmung der Empfangsfrequenz bei reellwertigem Mischer). Die in den vorhergehenden Abschnitten vorgestellten Ansätze sind auch für diese Phasenmodulation gültig bzw. lassen sich auf sie übertragen.
  • Es sei noch bemerkt, dass für die Erkennung der Straßenoberfläche in größeren Entfernungen die konstante oder periodische Teilfolge b1(n) den Vorteil hat, dass sie das Empfangssignal nicht über diskrete Entfernungen aufspaltet, so dass die gesamte Strahlbreite wirksam wird und das Signal-zu-Rauschverhältnis damit viel besser ist, wodurch sich schon eine hohe Wahrscheinlichkeit der Detektion der Straßenoberfläche im einzelnen Pixel ergibt.
  • Funktionsüberprüfung des Scannens
  • Würde das Scannen in eine oder beide Raumrichtungen insbesondere auf Grund eines Hardwarefehlers nicht funktionieren, so würde es in manchen Strahlrichtungen zu einer hohen Energiedichte kommen (weil sich dort das System deutlich häufiger als im Nominalzustand aufhält), wodurch die erlaubten Grenzwerte für Augensicherheit überschritten werden könnten. Deshalb muss das Scannen überwacht werden und sobald es zu einem Fehler kommt, ist die Abstrahlung des Lidarsensors zu stoppen.
  • Wenn der Sensor in eine Raumrichtung nicht mehr scannt, dann sind die Empfangssignale in dieser Raumrichtung über alle Pixel bei jeweils gleicher anderer Raumrichtung unverändert - abgesehen vom Systemrauschen und bewegten Objekten. Deshalb wird in beide Raumrichtungen auf Änderungen der Empfangssignale geprüft. Ein erster Ansatz ist, die Objektreflexionen, also die Betragsspitzen über einer Detektionsschwelle zu vergleichen; wie oben schon angedeutet muss man alle bewegten Objekte dabei ausschließen, wobei eine Identifikation über die gemessene Relativgeschwindigkeit und die bekannte Eigengeschwindigkeit möglich ist. Ein zweiter Absatz benutzt die näherungsweise bei Entfernung Null liegenden Empfangssignalanteile von internen Reflexionen und Verkopplungen sowie Reflexionen einer Abdeckung; diese werden ohnehin für eine Kompensation der Effekte (durch Korrekturwerte c1(n) in festverdrahteter Rechenlogik nach 8 und 10) bestimmt - dies wurde oben erläutert. Dabei wird benutzt, dass diese Empfangsanteile sich über das Scannen im Allgemeinen ändern.
  • Abschließende Bemerkungen
  • Anhand der obigen Anwendungsbeispiele lassen sich die dargestellten erfindungsgemäßen Überlegungen und Ausführungen auf allgemeine Bemessungen und Parameterauslegungen in einfacher Weise übertragen, d. h., sie können auch auf andere Zahlenwerte angewendet werden. Deshalb sind in Formeln und Bildern auch häufig allgemeine Parameter angegeben.
  • Einige der dargestellten neue Ansätze sind nicht nur in Kombination mit anderen, sondern schon für sich neu gegenüber dem Stand der Technik; als Beispiele seien genannt:
    • - die Ansätze zum Bestimmen und Realisieren der Korrekturwerte, um die Effekte von Verkopplungen und Reflexionen innerhalb des Lidarsystems oder von seiner unmittelbaren Umgebung, insbesondere einer Abdeckung zu kompensieren, können auch ohne überlagerte Frequenzmodulation benutzt werden,
    • - die Ansätze mit einer Sende-Empfangs-Einheit mit einem oder mehreren Wellenleitern für Scannen über Frequenz in erste Raumrichtung und einem Scanner für zweite Raumrichtung können auch in Kombination mit anderen Modulationsformen benutzt werden, insbesondere wenn die Frequenz schrittweise geändert wird, oder sogar für nichtkohärente Lidarsysteme,
    • - der Ansatz zur Bestimmung von Winkelfehlern (z. B. durch Änderung von Hardwareeigenschaften oder Fehlausrichtung des Sensors) ist auch bei anderen Modulationsformen nutzbar, da er im Wesentlichen nur auf der inhärent gegebenen Dopplermessfähigkeit von kohärenten Lidarsystemen basiert,
    • - der Ansatz zur Bestimmung der Lage der Straßenoberfläche in größeren Entfernungen kann auch bei anderen Modulationsformen, also beispielweise bei der reinen linearen Frequenzmodulation (meist aus zwei Frequenzrampen bestehend, deren Steigung entgegengesetztes Vorzeichen haben), benutzt werden; die benutzten Korrelationswerte beruhen dann auf einer entsprechend anderen Korrelationsberechnung (bei rein linearer Frequenzmodulation in Form einer FFT pro Frequenzrampe),
    • - der Ansatz zur Vorzeichenbestimmung der Empfangsfrequenz bei reellwertigem Mischer mit Hilfe nichtbinärer Phasenmodulation kann auch ohne überlagerte Frequenzmodulation benutzt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Phase-Coded-Based Modulation for Coherent Lidar“ von Sebastian Banzhaf und Christian Waldschmidt, veröffentlicht in IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY, VOL. 70, NO. 10, OCTOBER 2021 [0180]

Claims (19)

  1. Lidarsystem zur Umgebungserfassung, dadurch gekennzeichnet, dass - mehrere vorzugsweise parallel nebeneinanderliegende Wellenleiter mit jeweils mehreren Koppelstellen, vorzugsweise in äquidistantem Raster auf einer Linie, zum Senden und Empfangen benutzt werden, - in einer ersten Raumrichtung die Strahlrichtung der Wellenleiter durch Änderung der Frequenz der Welle geändert wird und - die mehreren Wellenleiter gleichartig oder unterschiedlich sind und unterschiedliche Strahlrichtungen in einer zweiten Raumrichtung, welche zur ersten zumindest näherungsweise senkrecht steht, und/oder in der ersten Raumrichtung erschließen, wobei vorzugsweise eine der beiden Raumrichtungen horizontal ist und die andere dann vertikal.
  2. Lidarsystem nach Anspruch 1, welches kohärent arbeitet und bei welchem vorzugsweise einer Modulation, insbesondere einer Phasenmodulation, eine kontinuierliche Frequenzänderung überlagert ist, wobei die kontinuierliche, insbesondere lineare Frequenzänderung innerhalb und über Pixel hinweg ausgeführt wird.
  3. Lidarsystem nach Anspruch 1 oder 2, bei welchem es eine weitere Vorrichtung zur Strahlrichtungsänderung für eine zweite Raumrichtung gibt.
  4. Lidarsystem nach Anspruch 3, bei dem eine Strahlrichtungsänderung für zweite Raumrichtung dadurch realisiert wird, dass Material durchstrahlt oder von Material reflektiert wird, bei welchem wenigstens eine optische Materialeigenschaft durch eine Steuergröße, insbesondere durch Anlegen von Spannung oder Durchfließen von Strom, geändert wird, wobei die Steuergröße und damit die Änderung der optischen Materialeigenschaft örtlich unterschiedlich sein kann.
  5. Lidarsystem nach Anspruch 4, bei welchem für Strahlrichtungsänderung für zweite Raumrichtung ein Körper aus vorzugsweise monolithischem Material durchstrahlt wird, welcher in Orientierungsrichtung der Wellenleiter einen konstanten, insbesondere dreieckförmigem Querschnitt aufweist und gegebenenfalls mit einer ebenfalls in dieser Dimension konstanten Querschnitt aufweisenden Linse für eine Strahlbündelung für die zweite Raumrichtung kombiniert sein kann, wobei die elektrische Steuergröße zum Verändern der optischen Eigenschaft bezüglich der Orientierungsrichtung des Körpers mit konstantem Körperquerschnitt angelegt ist.
  6. Lidarsystem nach Anspruch 4, bei welchem für Strahlrichtungsänderung für zweite Raumrichtung ein ebenes transparentes oder reflektierendes Flüssigkristallelement mit eindimensionaler Gitterstruktur und Steuerung über Spannung eingesetzt wird, wobei die Gitterstruktur gegebenenfalls auch mehrere Bereiche mit Ansteuerung über unterschiedliche Spannungen aufweisen kann, insbesondere um Fertigungstoleranzen der optisch relevanten Komponenten und ihrer Anordnung zueinander kompensieren zu können.
  7. Lidarsystem nach Anspruch 4, bei welchem für Strahlrichtungsänderung für zweite Raumrichtung ein transparentes oder reflektierendes Flüssigkristall-Array eingesetzt wird, wobei dieses Flüssigkristall-Array in Orientierungsrichtung der Wellenleiter jeweils nur wenige Elemente, vorzugsweise nur ein einziges, dann stabförmiges Element aufweist, vorzugsweise dieses Flüssigkristall-Array auch zur alleinigen Strahlbündelung oder Unterstützung der Strahlbündelung einer Linse für die zweite Raumrichtung benutzt wird und vorzugsweise mit Hilfe des Flüssigkristall-Arrays auch Fertigungstoleranzen der optisch relevanten Komponenten und ihrer Anordnung zueinander kompensiert werden.
  8. Lidarsystem nach einem der obigen Ansprüche, bei welchem es mehrere parallel arbeitende Sende-Empfangspfade mit jeweils einem Wellenleiter für Strahlrichtungsänderung in erster Raumrichtung durch Frequenzänderung gibt, vorzugsweise gespeist von einer gemeinsamen Laserquelle, und diese mehreren Sende-Empfangspfade in zumindest eine der beiden Raumrichtungen parallel unterschiedliche Strahlrichtungen erschließen.
  9. Lidarsystem nach Anspruch 8, bei dem unterschiedliche Strahlrichtungen in der zweiten Raumrichtung sowohl durch mehrere parallel arbeitende Sende-Empfangspfade mit vorzugsweise gleichartig strahlenden und nebeneinanderliegenden Wellenleitern als auch durch Änderung der optischen Eigenschaft eines durchstrahlten oder reflektierenden Materials über eine elektrische Steuergröße erzeugt werden und die Strahlrichtungen durch mehrere parallel arbeitende Sende-Empfangspfade für jeweils eine Ansteuerung des durchstrahlten oder reflektierenden Materials entweder eine Gruppe direkt benachbarter Pixel adressieren oder eine Gruppe mit zumindest teilweise weiter auseinanderliegenden Pixel, wobei die Ansteuerung des durchstrahlten bzw. reflektierenden Materials sukzessive so geändert wird, dass der gesamte interessierende Strahlrichtungsbereich abgedeckt wird, gegebenenfalls mit größerem Winkelabstand der Pixel nach außen hin über eine nichtäquidistante Anordnung der nebeneinanderliegenden Wellenleiter insbesondere mit beabstandeten Gruppen von Wellenleitern, wobei der Abstand innerhalb einer Gruppe nach außen hin zunimmt, und mit dann vorzugsweise nach außen hin zunehmender optischer Strahlbreite in zweiter Raumrichtung.
  10. Lidarsystem nach Anspruch 8, bei dem vorzugsweise nahe nebeneinanderliegende Wellenleiter unterschiedlich sind, um durch gleiche Frequenzänderung unterschiedliche Strahlrichtungsbereiche in erster Raumrichtung zu erschließen, so dass durch einen einzelnen Wellenleiter nur noch ein Teil des Strahlrichtungsbereichs in erster Raumrichtung abgedeckt wird.
  11. Lidarsystem nach Anspruch 10, bei dem die Strahlrichtungsänderung in zweite Raumrichtung in kontinuierlicher Weise mit Hilfe eines elektronischen oder mechanischen Ansatzes realisiert wird, wodurch ein langsames Scannen über Frequenzänderung in erster Raumrichtung insbesondere dadurch ermöglicht wird, dass während einem kompletten Scan in zweite Raumrichtung das Scannen über kontinuierliche Frequenzänderung in erste Raumrichtung nur jeweils etwa ein Pixel voranschreitet.
  12. Lidarsystem nach einem der obigen Ansprüche, bei welchem es einen Sende-Empfangspfad oder mehrere parallel arbeitende und vorzugsweise von einer gemeinsamen Laserquelle gespeiste Sende-Empfangspfade mit jeweils einer Schaltmatrix zur sequentiellen Umschaltung innerhalb einer jeweiligen Gruppe von Wellenleitern gibt, wobei die vorzugsweise gleichartigen Wellenleiter jeweils für Strahlrichtungsänderung in erster Raumrichtung durch Frequenzänderung benutzt werden und alle so nebeneinanderliegend angeordnet sind, dass sie die zweite Raumrichtung komplett erschließen, gegebenenfalls mit größerem Winkelabstand der Pixel nach außen hin über eine nichtäquidistante Anordnung der nebeneinanderliegenden Wellenleiter und mit dann vorzugsweise nach außen hin zunehmender optischer Strahlbreite in zweiter Raumrichtung.
  13. Lidarsystem nach einem der obigen Ansprüche, bei welchem es einen Sende-Empfangspfad mit einer Schaltmatrix zur sequenziellen Umschaltung zwischen mehreren vorzugsweise nahe nebeneinanderliegenden Wellenleitern gibt, wobei die Wellenleiter unterschiedlich sind, um durch jeweils gleichartige Frequenzänderung unterschiedliche Strahlrichtungsbereiche in erster Raumrichtung zu erschließen, so dass durch einen einzelnen Wellenleiter nur noch ein Teil des Strahlrichtungsbereichs in erster Raumrichtung abgedeckt wird und der benötigte Frequenzdurchstimmbereich der Laserquelle reduziert ist, und die Strahlrichtungsänderung in zweite Raumrichtung in kontinuierlicher Weise mit Hilfe eines elektronischen oder mechanischen Ansatzes realisiert wird, wodurch eine langsames Scannen über Frequenzänderung in erster Raumrichtung insbesondere dadurch ermöglicht wird, dass während einem kompletten Scan in zweite Raumrichtung das Scannen über kontinuierliche Frequenzänderung in erste Raumrichtung nur etwa ein Pixel voranschreitet.
  14. Lidarsystem nach einem der obigen Ansprüche, bei dem eine Strahlrichtungsänderung durch Frequenzänderung unterschiedlich schnell ist, insbesondere dadurch gekennzeichnet, dass sie in einem zentralen Bereich langsamer ist als in äußeren Bereichen.
  15. Lidarsystem nach einem der obigen Ansprüche, bei welchem eine Frequenzänderung zur Strahlrichtungsänderung durch eine oder mehrere in der Frequenz verstimmbare Laserquelle generiert wird und bei Benutzung mehrerer Laserquellen jede einzelne nur einen Teil des zur Strahlrichtungsänderung benötigten Frequenzbereichs abdeckt.
  16. Lidarsystem nach einem der obigen Ansprüche, bei dem es insbesondere durch Fehlausrichtung, durch nicht genau bekannte Frequenzen und/oder durch nicht genau bekannte Abhängigkeit der optischen Eigenschaft von der Steuergröße zu Abweichungen in den Strahlrichtungen kommen kann, dadurch gekennzeichnet, dass aus den gemessenen radialen Relativgeschwindigkeiten von stationären Objekten diese Abweichungen bestimmt werden, um diese Abweichungen später zu berücksichtigen und/oder zu korrigieren.
  17. Lidarsystem nach Anspruch 16, bei welchem als stationäre Objekte die Straßenoberfläche benutzt wird, vorzugsweise mit Bestimmung ihres Winkels in vertikale Richtung aus der gemessenen Entfernung und der Sensoreinbauhöhe.
  18. Lidarsystem nach einem der obigen Ansprüche, bei welchem die Vorrichtungen zur Änderung der Strahlrichtung dazu benutzt werden, eine Fehlausrichtung auszugleichen und/oder den Erfassungsbereich adaptiv, insbesondere abhängig von der Verkehrssituation, anzupassen.
  19. Lidarsystem nach einem der obigen Ansprüche, bei welchem eine Überwachung der Vorrichtungen zur Strahlrichtungsänderung, insbesondere zur Gewährung der Augensicherheit, dadurch realisiert ist, dass in jeweiliger Raumrichtung Empfangssignale hinsichtlich Objektreflexionen oder hinsichtlich der Anteile von internen Reflexionen und Verkopplungen sowie Reflexionen einer Abdeckung auf Änderungen geprüft werden.
DE102023201144.1A 2023-02-13 2023-02-13 Lidarsystem mit mehreren Wellenleitern zur Strahlrichtungsänderung über Frequenzänderung Pending DE102023201144A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102023201144.1A DE102023201144A1 (de) 2023-02-13 2023-02-13 Lidarsystem mit mehreren Wellenleitern zur Strahlrichtungsänderung über Frequenzänderung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023201144.1A DE102023201144A1 (de) 2023-02-13 2023-02-13 Lidarsystem mit mehreren Wellenleitern zur Strahlrichtungsänderung über Frequenzänderung

Publications (1)

Publication Number Publication Date
DE102023201144A1 true DE102023201144A1 (de) 2024-08-14

Family

ID=91962185

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023201144.1A Pending DE102023201144A1 (de) 2023-02-13 2023-02-13 Lidarsystem mit mehreren Wellenleitern zur Strahlrichtungsänderung über Frequenzänderung

Country Status (1)

Country Link
DE (1) DE102023201144A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080285010A1 (en) * 2007-05-16 2008-11-20 Omron Corporation Object detector
US20190377135A1 (en) * 2018-06-08 2019-12-12 Huawei Technologies Co., Ltd. Optical scanner with optically switched paths to multiple surface or edge couplers
DE102019101966A1 (de) * 2019-01-28 2020-07-30 Valeo Schalter Und Sensoren Gmbh Positionserfassungseinrichtung für eine Lichtsignalumlenkeinrichtung einer optischen Messvorrichtung zur Erfassung von Objekten, Lichtsignalumlenkeinrichtung, Messvorrichtung und Verfahren zum Betreiben einer Positionserfassungseinrichtung
WO2021249831A1 (de) * 2020-06-09 2021-12-16 Osram Gmbh Lidar system mit grobwinkelsteuerung
WO2022218795A1 (de) * 2021-04-12 2022-10-20 Conti Temic Microelectronic Gmbh Verfahren zur kalibrierung von sensorinformationen eines fahrzeugs sowie fahrassistenzsystem
DE102021115827A1 (de) * 2021-06-18 2022-12-22 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Optische messvorrichtung und verfahren
US20220413143A1 (en) * 2021-06-28 2022-12-29 Rockley Photonics Limited Sensing system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080285010A1 (en) * 2007-05-16 2008-11-20 Omron Corporation Object detector
US20190377135A1 (en) * 2018-06-08 2019-12-12 Huawei Technologies Co., Ltd. Optical scanner with optically switched paths to multiple surface or edge couplers
DE102019101966A1 (de) * 2019-01-28 2020-07-30 Valeo Schalter Und Sensoren Gmbh Positionserfassungseinrichtung für eine Lichtsignalumlenkeinrichtung einer optischen Messvorrichtung zur Erfassung von Objekten, Lichtsignalumlenkeinrichtung, Messvorrichtung und Verfahren zum Betreiben einer Positionserfassungseinrichtung
WO2021249831A1 (de) * 2020-06-09 2021-12-16 Osram Gmbh Lidar system mit grobwinkelsteuerung
WO2022218795A1 (de) * 2021-04-12 2022-10-20 Conti Temic Microelectronic Gmbh Verfahren zur kalibrierung von sensorinformationen eines fahrzeugs sowie fahrassistenzsystem
DE102021115827A1 (de) * 2021-06-18 2022-12-22 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Optische messvorrichtung und verfahren
US20220413143A1 (en) * 2021-06-28 2022-12-29 Rockley Photonics Limited Sensing system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Phase-Coded-Based Modulation for Coherent Lidar" von Sebastian Banzhaf und Christian Waldschmidt, veröffentlicht in IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY, VOL. 70, NO. 10, OCTOBER 2021

Similar Documents

Publication Publication Date Title
Sack et al. Application of efficient linear FM matched filtering algorithms to synthetic aperture radar processing
US5608404A (en) Imaging synthetic aperture radar
WO2024213209A1 (de) Lidarsystem mit strahlendem wellenleiterarray oder strahlender wellenleiterfläche und speisewellenleiter
US8593338B2 (en) Creating and processing universal radar waveforms
WO2024170024A1 (de) Neuartiges kohärentes lidarsystem zur umgebungserfassung
Milman SAR imaging by ω—κ migration
EP2294451A2 (de) Radarsystem mit verbesserter winkelbildung
US20100302092A1 (en) Method and apparatus for creating and processing universal radar waveforms
WO2024213207A1 (de) Lidarsystem mit wellenleiter mit steuerbarem effektiven brechungsindex und element mit steuerbaren optischen materialeigenschaften zur zweidimensionalen strahlrichtungsänderung
WO2024213208A1 (de) Lidarsystem mit strahlendem wellenleiterarray oder strahlender wellenleiterfläche sowie planarer linse für parallele erfassung
Vu et al. A comparison between fast factorized backprojection and frequency-domain algorithms in UWB lowfrequency SAR
DE102022214276A1 (de) Kohärentes Lidarsystem zur Umgebungserfassung mit Phasenmodulation und festverdrahteter Digitalschaltung
CN111007512B (zh) 车载雷达成像方法及装置、电子设备
DE102023201144A1 (de) Lidarsystem mit mehreren Wellenleitern zur Strahlrichtungsänderung über Frequenzänderung
DE102023201142A1 (de) Lidarsystem mit Wellenleiter und Element mit steuerbaren optischen Materialeigenschaften zur zweidimensionalen Strahlrichtungsänderung
DE102023201146A1 (de) Kohärentes Lidarsystem mit Phasenmodulation und vorzeichenrichtiger Bestimmung der Empfangsfrequenz
DE102004034429B4 (de) Radar Front-End
DE102023200261B4 (de) Kohärentes Lidarsystem zur Umgebungserfassung mit Phasenmodulation aus zwei periodisch ineinander geschachtelten Folgen
Chen Radar ambiguity function, time-varying matched filter, and optimum wavelet correlator
Doerry SAR processing with stepped chirps and phased array antennas.
Purchla et al. Simple motion compensation algorithm for unfocused synthetic aperture radar
DE112023002199T5 (de) Verwalten der leistungsfähigkeit eines optischen phased arrays basierend auf phasenverschiebungsvariationen
DE102004045273B4 (de) Verfahren zur Bilderzeugung bei einem Synthetischen Apertur Radar
Zhang et al. Application of fast factorized back-projection algorithm for high-resolution highly squinted airborne SAR imaging
DE102023208722A1 (de) Kohärentes Lidarsystem zur Umgebungserfassung mit binärer Leistungsmodulation und geringem Prozessierungsaufwand

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: AUMOVIO AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, 85057 INGOLSTADT, DE