[go: up one dir, main page]

DE202018006696U1 - Optischer Bildübertrager mit Helligkeitsverbesserung - Google Patents

Optischer Bildübertrager mit Helligkeitsverbesserung Download PDF

Info

Publication number
DE202018006696U1
DE202018006696U1 DE202018006696.6U DE202018006696U DE202018006696U1 DE 202018006696 U1 DE202018006696 U1 DE 202018006696U1 DE 202018006696 U DE202018006696 U DE 202018006696U DE 202018006696 U1 DE202018006696 U1 DE 202018006696U1
Authority
DE
Germany
Prior art keywords
optical
light
receiver
array
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202018006696.6U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ouster Inc
Original Assignee
Ouster Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=64096629&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE202018006696(U1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Ouster Inc filed Critical Ouster Inc
Publication of DE202018006696U1 publication Critical patent/DE202018006696U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • G02B27/0037Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration with diffracting elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0938Using specific optical elements
    • G02B27/095Refractive optical elements
    • G02B27/0955Lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/30Collimators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/46Systems using spatial filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/50Transmitters
    • H04B10/501Structural aspects
    • H04B10/503Laser transmitters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/60Receivers
    • H04B10/66Non-coherent receivers, e.g. using direct detection
    • H04B10/67Optical arrangements in the receiver
    • H04B10/671Optical arrangements in the receiver for controlling the input optical signal
    • H04B10/675Optical arrangements in the receiver for controlling the input optical signal for controlling the optical bandwidth of the input signal, e.g. spectral filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/60Receivers
    • H04B10/66Non-coherent receivers, e.g. using direct detection
    • H04B10/69Electrical arrangements in the receiver
    • H04B10/697Arrangements for reducing noise and distortion
    • H04B10/6973Arrangements for reducing noise and distortion using noise matching networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/80Optical aspects relating to the use of optical transmission for specific applications, not provided for in groups H04B10/03 - H04B10/70, e.g. optical power feeding or optical transmission through water
    • H04B10/801Optical aspects relating to the use of optical transmission for specific applications, not provided for in groups H04B10/03 - H04B10/70, e.g. optical power feeding or optical transmission through water using optical interconnects, e.g. light coupled isolators, circuit board interconnections
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F30/00Individual radiation-sensitive semiconductor devices in which radiation controls the flow of current through the devices, e.g. photodetectors
    • H10F30/20Individual radiation-sensitive semiconductor devices in which radiation controls the flow of current through the devices, e.g. photodetectors the devices having potential barriers, e.g. phototransistors
    • H10F30/21Individual radiation-sensitive semiconductor devices in which radiation controls the flow of current through the devices, e.g. photodetectors the devices having potential barriers, e.g. phototransistors the devices being sensitive to infrared, visible or ultraviolet radiation
    • H10F30/22Individual radiation-sensitive semiconductor devices in which radiation controls the flow of current through the devices, e.g. photodetectors the devices having potential barriers, e.g. phototransistors the devices being sensitive to infrared, visible or ultraviolet radiation the devices having only one potential barrier, e.g. photodiodes
    • H10F30/225Individual radiation-sensitive semiconductor devices in which radiation controls the flow of current through the devices, e.g. photodetectors the devices having potential barriers, e.g. phototransistors the devices being sensitive to infrared, visible or ultraviolet radiation the devices having only one potential barrier, e.g. photodiodes the potential barrier working in avalanche mode, e.g. avalanche photodiodes
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/10Integrated devices
    • H10F39/107Integrated devices having multiple elements covered by H10F30/00 in a repetitive configuration, e.g. radiation detectors comprising photodiode arrays
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/10Integrated devices
    • H10F39/12Image sensors
    • H10F39/18Complementary metal-oxide-semiconductor [CMOS] image sensors; Photodiode array image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F77/00Constructional details of devices covered by this subclass
    • H10F77/30Coatings
    • H10F77/306Coatings for devices having potential barriers
    • H10F77/331Coatings for devices having potential barriers for filtering or shielding light, e.g. multicolour filters for photodetectors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F77/00Constructional details of devices covered by this subclass
    • H10F77/30Coatings
    • H10F77/306Coatings for devices having potential barriers
    • H10F77/331Coatings for devices having potential barriers for filtering or shielding light, e.g. multicolour filters for photodetectors
    • H10F77/334Coatings for devices having potential barriers for filtering or shielding light, e.g. multicolour filters for photodetectors for shielding light, e.g. light blocking layers or cold shields for infrared detectors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F77/00Constructional details of devices covered by this subclass
    • H10F77/30Coatings
    • H10F77/306Coatings for devices having potential barriers
    • H10F77/331Coatings for devices having potential barriers for filtering or shielding light, e.g. multicolour filters for photodetectors
    • H10F77/337Coatings for devices having potential barriers for filtering or shielding light, e.g. multicolour filters for photodetectors using interference filters, e.g. multilayer dielectric filters
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F77/00Constructional details of devices covered by this subclass
    • H10F77/40Optical elements or arrangements
    • H10F77/407Optical elements or arrangements indirectly associated with the devices
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F77/00Constructional details of devices covered by this subclass
    • H10F77/40Optical elements or arrangements
    • H10F77/413Optical elements or arrangements directly associated or integrated with the devices, e.g. back reflectors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F77/00Constructional details of devices covered by this subclass
    • H10F77/95Circuit arrangements
    • H10F77/953Circuit arrangements for devices having potential barriers
    • H10F77/959Circuit arrangements for devices having potential barriers for devices working in avalanche mode
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/205Neutral density filters

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Light Receiving Elements (AREA)

Abstract

Optisches System zum Durchführen von Abstandsmessungen, wobei das optische System umfasst:
eine rotierbare Plattform;
eine Vielzahl von oberflächenemittierenden Lasern mit vertikalem Resonator, VCSELs, die in einem Array angeordnet und mit der rotierbaren Plattform gekoppelt sind, wobei jeder VCSEL in der Vielzahl von VCSELs konfiguriert ist, um diskrete Lichtpulse zu erzeugen und in ein Feld außerhalb des optischen Systems zu übertragen;
einen optischen Empfänger, der mit der rotierbaren Plattform gekoppelt ist, wobei der optische Empfänger eine Bulk-Empfängeroptik und eine Vielzahl von Fotosensoren umfasst, wobei jeder Fotosensor eine Vielzahl von Einzelphotonen-Lawinendioden, SPADs, umfasst, die auf einfallende Photonen reagieren;
eine Systemsteuerung, die an einer stationären Komponente des optischen Systems montiert ist; und
eine optische Kommunikationsverbindung, die operativ zwischen der Systemsteuerung und dem optischen Empfänger gekoppelt ist, um der Systemsteuerung zu ermöglichen, mit dem optischen Empfänger zu kommunizieren.

Description

  • HINTERGRUND
  • Ein Bildgeber detektiert Licht und erstellt ein digitales Bild einer Szene basierend auf diesem detektierten Licht. Das Bild enthält eine feste Anzahl von Zeilen und Spalten von Pixeln, wobei jedes Pixel einem verschieden Sichtfeld innerhalb der Szene zugeordnet ist. Elektronische Bildgeber verwenden typischerweise Fotodetektoren, um Licht in elektrische Signale umzuwandeln. Jeder Fotodetektor befindet sich an einer verschiedenen Position auf der Brennebene und entspricht üblicherweise einem einzelnen Pixel oder einer Komponente eines Pixels im Bild. Elektronische Bildgeber können typischerweise als einer von zwei Typen klassifiziert werden: ein Bildgeber mit passiver Beleuchtung oder ein Bildgeber mit aktiver Beleuchtung. Ein Bildgeber mit passiver Beleuchtung sammelt Umgebungslicht, wie beispielsweise Sonnenlicht, das von Objekten in einer Szene reflektiert wird, während ein Bildgeber mit aktiver Beleuchtung die Szene beleuchtet und reflektiertes Licht sammelt, das vom Bildgebersystem mit aktiver Beleuchtung selbst erzeugt wird.
  • Ein Schmalband-Bildgeber sammelt Licht innerhalb eines begrenzten Wellenlängenbereichs. Dies steht im Gegensatz zu einer herkömmlichen Kamera, die Licht über das gesamte sichtbare Spektrum oder in drei verschieden breiten RGB-Farbbändern detektiert, von denen jedes 100 nm oder breiter sein kann. Schmalband-Bildgeber sind aufgrund der Eigenschaften der optischen Filter, auf die sie sich stützen, schwieriger zu entwickeln als herkömmliche Kameras. Optische Filter dienen dazu, zu verhindern, dass ein Abschnitt des elektromagnetischen Spektrums die Fotodetektoren erreicht. Die meisten Schmalbandfilter stützen sich auf Dünnfilm-Interferenzeffekte, um Licht selektiv zu übertragen oder zu reflektieren (solche Filter werden oft als dielektrische Spiegel oder Bragg-Spiegel bezeichnet). Die spektrale Durchlässigkeit des schmalbandigen Filters hängt von der Anzahl, den Dicken, der Anordnung und den Brechungsindizes der einzelnen Schichten ab, die den Filter bilden. Die spektrale Durchlässigkeit des Filters hängt auch vom Einfallswinkel des Lichts auf den schmalbandigen Filter ab.
  • Aktuelle Schmalband-Bildgeber weisen entweder ein kleines Sichtfeld auf oder sind in ihrer Fähigkeit begrenzt, Wellenlängenbänder zu filtern, die schmaler als etwa 50 nm sind. Optische Filter sind empfindlich auf den Einfallswinkel, was es schwierig macht, einen schmalen Wellenlängenbereich zu erreichen. Zum Beispiel kann ein optischer Filter senkrechtes Licht mit einer Wellenlänge bei 940-945 nm und leicht schräges Licht bei einer Wellenlänge von 930-935 nm aufnehmen. Da die meisten Fotodetektoren in einer herkömmlichen Kamera einen großen Bereich von darauf einfallendem Lichtwinkeln aufweisen, würde ein einfaches Platzieren eines optischen Filters vor ihnen nicht tatsächlich eine Schmalbandfilterung erreichen. Das Einengen des auf den Fotodetektor einfallenden Lichtwinkels erfordert üblicherweise die Verwendung einer Linse mit einer längeren Brennweite, was das Sichtfeld der Kamera einengt.
  • Bildgeber mit einem breiten Sichtfeld haben Schwierigkeiten, gleichmäßig klare visuelle Bilder zu erzeugen und gleichmäßige Messungen über eine Szene anzufertigen. Zum Beispiel können die Pixel in der Mitte des Bilds heller erscheinen oder eine andere Wellenlänge von Licht im Vergleich zu den Pixeln an den Szenenextremitäten darstellen. Ein breites Sichtfeld ist für einige Anwendungen wünschenswert, da es eine bessere Situationswahrnehmung bereitstellt. Beispielsweise könnte ein kamerabasiertes Automobil-Sicherheitssystem, das dazu bestimmt ist, Fußgänger um ein Fahrzeug herum zu detektieren, eine Überwachung in einem Sichtfeld von 360 Grad um das Fahrzeug herum erfordern. Es sind weniger breite Sichtfeldsensoren erforderlich, um den gleichen Job zu erledigen (d. h. Bilder des vollen Sichtfelds von 360 Grad zu erzeugen) als viele schmale Sichtfeldsensoren, wodurch die Systemkosten sinken.
  • Schmalband-Bildgeber haben viele Anwendungen, einschließlich geografischer Kartierung, Astronomie und im LIDAR (Light Detection and Ranging). Schmalband-Bildgeber können charakteristische Lichtwellenlängen detektieren, wie sie von Pflanzen mit Chlorophyll oder von Elementen innerhalb von Sternen erzeugt werden. Schmalband-Bildgeber können beispielsweise verwendet werden, um die Vegetationsgesundheit zu bestimmen oder Ölablagerungen zu entdecken. Optische Empfängersysteme, wie z. B. LIDAR, können zur Objektdetektion und Entfernungsmessung verwendet werden. LIDAR-Systeme messen den Abstand zu einem Ziel oder Objekten in einer Landschaft, indem sie ein Ziel oder eine Landschaft mit Licht bestrahlen, Pulse von einem Laser verwenden und die Zeit messen, die Photonen benötigen, um zum Ziel oder zur Landschaft zu gelangen und nach Reflexion zu einem Schmalband-Bildgeber zurückzukehren. Andere LIDAR-Techniken, wie etwa Fotodemodulation, kohärentes LIDAR und bereichsgesteuertes LIDAR, stützen sich ebenfalls auf die Übertragung und Reflexion von Photonen, obwohl sie die Laufzeit von Laserlichtpulsen nicht direkt messen können. Für viele LIDAR-Anwendungen ist es für physische Größen von Übertrager und Empfänger vorteilhaft, klein und kompakt zu sein und gleichzeitig relativ kostengünstig zu sein. Für Anwendungen, bei denen Objekte mit Genauigkeit in großen Abständen erfasst werden müssen, ist es vorteilhaft, die Anzahl von Photonen zu erhöhen oder zu maximieren, die vom Übertrager emittiert und zurück zum Empfänger reflektiert werden, während Laserenergieemissionen innerhalb von vorgeschriebenen Sicherheitsgrenzen gehalten werden.
  • Mikrooptische Systeme sind Systeme, die miniaturisierte, optische Komponenten beinhalten, die typischerweise zwischen einigen Mikrometern und einem Millimeter groß sind. Mikrooptische Empfänger, die angrenzend aneinander angeordnet sind, sind anfällig für Übersprechen. Streulicht, das durch Rauheit von optischen Oberflächen, Unvollkommenheiten in transparenten Medien, Rückreflexionen usw. verursacht wird, kann an verschiedenen Merkmalen innerhalb des Empfängerkanals oder außerhalb des Empfängerkanals erzeugt werden. Wenn mehrere Empfängerkanäle angrenzend aneinander angeordnet sind, kann dieses Streulicht in einem Empfängerkanal von einem Fotosensor in einem anderen Kanal absorbiert werden, wodurch die Zeitsteuerung, Phase oder andere Informationen, die Photonen inhärent sind, kontaminiert werden. Das Minimieren von Übersprechen ist besonders wichtig bei aktiven Beleuchtungssystemen. Licht, das von einem nahegelegenen Retroreflektor (z. B. einem Nummernschild) reflektiert wird, kann Tausende oder Millionen Male intensiver sein als Licht, das von einer entfernten dunklen, lambertschen Oberfläche (z. B. schwarzer Baumwollkleidung) reflektiert wird. Somit könnten die Streulichtphotonen von einem Retroreflektor Photonen, die von anderen Oberflächen in nahegelegenen Fotosensoren reflektiert werden, stark übertreffen, wenn das Übersprechen nicht minimiert wird. Dies kann zur Unfähigkeit eines LIDAR-Systems führen, dunkle Objekte zu detektieren, die Sichtfelder nahe dem Sichtfeld, das von einem Retroreflektor eingenommen wird, einnehmen.
  • ZUSAMMENFASSUNG
  • Ausführungsformen der Offenbarung stellen optische Bildgebersysteme bereit, die eine schmalbandige Bildgebung mit breiten Sichtfeldern mit mikrooptischen Empfängerkanalarrays erreichen, die das Übersprechen minimieren und eine enge spektrale Selektivität ermöglichen, die über das empfangene Kanalarray gleichmäßig ist. Einige optische Bildgebersysteme gemäß der Offenbarung können ein Lichtübertragungsmodul beinhalten, das eine verbesserte Punkt-Beleuchtung bereitstellt, sodass ein Leistungspegel von Licht, das zu einem Lichterfassungsmodul zurückkehrt, erhöht wird, während gleichzeitig die räumliche Auflösung des gemessenen Bilds verbessert wird.
  • In einigen Ausführungsformen beinhaltet ein optisches System zum Durchführen von Abstandsmessungen eine Bulk-Übertrager-Optik, eine Beleuchtungsquelle und ein mikrooptisches Kanalarray, das zwischen der Beleuchtungsquelle und der Bulk-Übertrager-Optik angebracht ist. Die Beleuchtungsquelle beinhaltet eine Vielzahl von Lichtemittern, die ausgerichtet sind, um diskrete Lichtstrahlen durch die Bulk-Übertrager-Optik in ein Feld vor dem optischen System zu projizieren. Das mikrooptische Kanalarray definiert eine Vielzahl von mikrooptischen Kanälen, wobei jeder mikrooptische Kanal eine mikrooptische Linse beinhaltet, die von einem Lichtemitter aus der Vielzahl von Lichtemittern beabstandet ist, wobei die mikrooptische Linse konfiguriert ist, um einen Lichtkegel vom Lichtemitter zu empfangen und ein Punktbild reduzierter Größe des Emitters an einem Brennpunkt zu erzeugen, der vom Emitter an einer Stelle zwischen dem Emitter und der Bulk-Übertrager-Optik versetzt ist. Die mikrooptische Linse für jeden Kanal kann konfiguriert sein, um einen Lichtkegel von einem Lichtemitter zu empfangen und ein reales Punktbild reduzierter Größe des Emitters an einem Brennpunkt zwischen der mikrooptischen Linse und der Bulk-Übertrager-Optik zu erzeugen. Eine Divergenz des Lichtkegels vom Lichtemitter kann geringer sein als eine Divergenz eines Lichtkegels von der zweiten optischen Oberfläche der mikrooptischen Linse, um das reale Punktbild reduzierter Größe zu erzeugen.
  • In einigen zusätzlichen Ausführungsformen beinhaltet ein optisches System zum Durchführen von Abstandsmessungen ein Lichtemissionssystem und ein Lichtdetektionssystem. Das Lichtemissionssystem beinhaltet eine Bulk-Übertrager-Optik, eine Beleuchtungsquelle, die eine Vielzahl von Lichtemittern umfasst, die ausgerichtet sind, um diskrete Lichtstrahlen durch die Bulk-Übertrager-Optik in ein Feld vor dem optischen System zu projizieren, und ein mikrooptisches Kanalarray, das zwischen der Beleuchtungsquelle und der Bulk-Übertrager-Optik angebracht ist. Das mikrooptische Kanalarray definiert eine Vielzahl von mikrooptischen Kanälen, wobei jeder mikrooptische Kanal eine mikrooptische Linse beinhaltet, die von einem Lichtemitter aus der Vielzahl von Lichtemittern beabstandet ist, wobei die mikrooptische Linse konfiguriert ist, um einen Lichtkegel vom Lichtemitter zu empfangen und ein Punktbild reduzierter Größe des Emitters an einem Brennpunkt zu erzeugen, der vom Emitter an einer Stelle zwischen dem Emitter und der Bulk-Übertrager-Optik versetzt ist. Das Lichtdetektionssystem beinhaltet eine Bulk-Empfänger-Optik, die konfiguriert ist, um die diskreten Lichtstrahlen aus dem Feld zu empfangen, und eine optische Baugruppe mit einer Vielzahl von mikrooptischen Empfängerkanälen, die eine Vielzahl von diskreten, nicht überlappenden Sichtfeldern im Feld definieren. Die optische Baugruppe beinhaltet: eine Aperturschicht mit einer Vielzahl von diskreten Aperturen, die entlang einer Brennebene der Bulk-Empfängeroptik angeordnet sind; ein Array von Fotosensoren, die hinter der Aperturschicht angebracht sind; und eine Vielzahl von Linsen, die zwischen der Aperturschicht und dem Array von Fotosensoren positioniert sind.
  • In bestimmten Ausführungsformen beinhaltet ein optisches System zum Durchführen von Abstandsmessungen ein stationäres Gehäuse mit einem optisch transparenten Fenster und eine Lichtentfernungsmessvorrichtung, die innerhalb des Gehäuses angebracht ist. Die Lichtentfernungsmessvorrichtung beinhaltet einen optischen Übertrager, der mit einer Plattform gekoppelt ist. Der optische Übertrager beinhaltet eine Bulk-Übertrager-Optik, eine Beleuchtungsquelle und ein mikrooptisches Kanalarray, das zwischen der Beleuchtungsquelle und der Bulk-Übertrager-Optik angebracht ist. Die Beleuchtungsquelle beinhaltet eine Vielzahl von Lichtemittern, die ausgerichtet sind, um diskrete Lichtstrahlen durch die Bulk-Übertrager-Optik in ein Feld vor dem optischen System zu projizieren. Das mikrooptische Kanalarray kann zwischen der Beleuchtungsquelle und der Bulk-Übertrager-Optik angebracht sein, und das mikrooptische Kanalarray kann eine Vielzahl von mikrooptischen Kanälen definieren, wobei jeder mikrooptische Kanal eine mikrooptische Linse beinhalten kann, die von einem Lichtemitter aus der Vielzahl von Lichtemittern beabstandet ist, wobei die mikrooptische Linse konfiguriert ist, um einen Lichtkegel vom Lichtemitter zu empfangen und ein Punktbild reduzierter Größe des Emitters an einem Brennpunkt zu erzeugen, der vom Emitter an einer Stelle zwischen dem Emitter und der Bulk-Übertrager-Optik versetzt ist.
  • In einigen Ausführungsformen beinhaltet ein optisches System eine Bulk-Empfänger-Optik, die konfiguriert ist, um Lichtstrahlen zu empfangen, die von einem Feld außerhalb des optischen Systems stammen, und eine optische Baugruppe mit einer Vielzahl von mikrooptischen Empfängerkanälen, die eine Vielzahl von diskreten, nicht überlappenden Sichtfeldern im Feld definieren. In einigen Ausführungsformen kann die optische Baugruppe eine Aperturschicht mit einer Vielzahl von diskreten Aperturen, die entlang einer Brennebene der Bulk-Empfängeroptik angeordnet sind, ein Array von Fotosensoren, die hinter der Aperturschicht angebracht sind, und eine nicht gleichförmige optische Filterschicht beinhalten, die konfiguriert ist, um verschiedenen mikrooptischen Kanälen zu ermöglichen, verschiedene Wellenlängenbereiche zu messen. Der nicht gleichförmige optische Filter kann einen optischen Verlaufsfilter beinhalten, der in einer Dimension allmählich an Dicke zunimmt oder in einer Richtung schrittweise an Dicke zunimmt, sodass jeder Kanal eine konstante optische Filterschichtdicke aufweist, wobei jedoch die Dicken für verschiedene mikrooptische Kanäle verschieden sind.
  • In einigen zusätzlichen Ausführungsformen beinhaltet ein optisches System eine Bulk-Empfängeroptik, die konfiguriert ist, um Licht von einem Feld außerhalb des optischen Systems zu empfangen, eine Aperturschicht, die hinter der Bulk-Optik angebracht ist und eine Vielzahl von Aperturen beinhaltet, die sich an einer Brennebene der Bulk-Optik befinden, eine Linsenschicht, die eine Vielzahl von Kollimatorlinsen mit einer Brennweite beinhaltet, wobei die Linsenschicht hinter der Aperturschicht angebracht und von der Aperturschicht durch die Brennweite getrennt ist, eine nicht gleichförmige optische Filterschicht hinter der Linsenschicht und eine Fotosensorschicht, die eine Vielzahl von Fotosensoren beinhaltet. Die Aperturschicht, Linsenschicht, nicht gleichförmige optische Filterschicht und Fotosensorschicht sind angeordnet, um eine Vielzahl von mikrooptischen Kanälen zu bilden, die eine Vielzahl von diskreten, nicht überlappenden Sichtfeldern im Feld definieren, wobei jeder mikrooptische Kanal in der Vielzahl von mikrooptischen Kanälen eine Apertur aus der Vielzahl von Aperturen, eine Linse aus der Vielzahl von Linsen, einen Filter aus der Filterschicht und einen Fotosensor aus der Vielzahl von Fotosensoren beinhaltet und konfiguriert ist, um Licht, das von der Bulk-Empfängeroptik auf den Fotosensor des mikrooptischen Kanals einfällt, zu kommunizieren. Die nicht gleichförmige optische Filterschicht ist konfiguriert, um verschiedenen mikrooptischen Kanälen zu ermöglichen, verschiedene Wellenlängenbereiche zu messen.
  • In bestimmten Ausführungsformen beinhaltet ein optisches System eine Bulk-Empfänger-Optik, die konfiguriert ist, um Lichtstrahlen zu empfangen, die von einem Feld außerhalb des optischen Systems stammen, und eine optische Baugruppe mit einer Vielzahl von mikrooptischen Empfängerkanälen, die eine Vielzahl von diskreten, nicht überlappenden Sichtfeldern im Feld definieren. Die optische Baugruppe beinhaltet eine monolithische ASIC, die einen Prozessor, einen Speicher und eine Vielzahl von Fotosensoren beinhaltet, die in der ASIC hergestellt sind, eine Aperturschicht mit einer Vielzahl von diskreten Aperturen, die entlang einer Brennebene der Bulk-Empfängeroptik angeordnet sind, wobei das Array von Fotosensoren hinter der Aperturschicht angebracht ist; eine Vielzahl von Linsen, die zwischen der Aperturschicht und dem Array von Fotosensoren positioniert sind; und eine nicht gleichförmige optische Filterschicht mit verschiedenen zentralen Wellenlängen über ihre Struktur, um mindestens zwei verschiedenen mikrooptischen Empfängerkanälen zu ermöglichen, verschiedene Wellenlängenbereiche von Licht zu messen, wobei die Aperturschicht, die Vielzahl von Linsen und die nicht gleichförmige optische Filterschicht auf der ASIC gebildet sind, sodass sie einen Teil der monolithischen Struktur der ASIC bilden.
  • In einigen Ausführungsformen beinhaltet ein optisches System zum Durchführen von Abstandsmessungen ein stationäres Gehäuse mit einem optisch transparenten Fenster, eine drehende Lichtentfernungsmessvorrichtung, die innerhalb des Gehäuses angebracht ist, einen Motor, der innerhalb des Gehäuses angebracht und operativ gekoppelt ist, um die Lichtentfernungsmessvorrichtung einschließlich der Plattform, des optischen Übertragers und des optischen Empfängers innerhalb des Gehäuses zu drehen, und eine Systemsteuerung, die innerhalb des Gehäuses angebracht ist, wobei die Systemsteuerung konfiguriert ist, um den Motor zu steuern und Lichterfassungsoperationen der Lichtentfernungsmessvorrichtung zu starten und zu stoppen. Die Lichtentfernungsmessvorrichtung beinhaltet eine Plattform, einen optischen Übertrager, der mit der Plattform gekoppelt ist, und einen optischen Empfänger, der mit der Plattform gekoppelt ist. Der optische Übertrager beinhaltet eine Bulk-Übertrageroptik und eine Vielzahl von Übertragerkanälen, wobei jeder Übertragerkanal einen Lichtemitter beinhaltet, der konfiguriert ist, um ein schmalbandiges Licht zu erzeugen und durch die Bulk-Übertrageroptik in ein Feld außerhalb des optischen Systems zu übertragen. Der optische Empfänger beinhaltet eine Bulk-Empfängeroptik und eine Vielzahl von mikrooptischen Empfängerkanälen, wobei jeder mikrooptische Kanal eine Apertur beinhaltet, die mit einer Brennebene der Bulk-Empfängeroptik zusammenfällt, einen optischen Filter, der entlang eines Lichtwegs von der Bulk-Empfängeroptik positioniert und axial mit der Apertur ausgerichtet ist, und einen Fotosensor, der auf einfallende Photonen reagiert, die durch die Apertur und den optischen Filter geleitet werden.
  • In einigen zusätzlichen Ausführungsformen beinhaltet ein optisches System zum Durchführen von Abstandsmessungen ein stationäres Gehäuse mit einer Basis, einer Oberseite und einem optisch transparenten Fenster, das zwischen der Basis und der Oberseite angebracht ist, eine drehende Lichtentfernungsmessvorrichtung, die innerhalb des Gehäuses angebracht und mit dem optisch transparenten Fenster ausgerichtet ist, einen Motor, der innerhalb des Gehäuses angebracht und operativ gekoppelt ist, um die Lichtentfernungsmessvorrichtung einschließlich der Plattform, des optischen Übertragers und des optischen Empfängers innerhalb des Gehäuses zu drehen, und eine Systemsteuerung, die innerhalb des Gehäuses angebracht ist, wobei die Systemsteuerung konfiguriert ist, um den Motor zu steuern und Lichterfassungsoperationen der Lichtentfernungsmessvorrichtung zu starten und zu stoppen. Die Lichtentfernungsmessvorrichtung beinhaltet eine Plattform, einen optischen Übertrager, der mit der Plattform gekoppelt ist, und einen optischen Empfänger, der mit der Plattform gekoppelt ist. Der optische Übertrager beinhaltet eine telezentrische Bildraum-Bulk-Übertrageroptik und eine Vielzahl von Übertragerkanälen, wobei jeder Kanal einen Lichtemitter beinhaltet, der konfiguriert ist, um ein schmalbandiges Licht zu erzeugen und durch die Bulk-Übertrageroptik in ein Feld außerhalb des optischen Systems zu übertragen. Der optische Empfänger beinhaltet eine telezentrische Bildraum-Bulk-Empfängeroptik und eine Vielzahl von mikrooptischen Empfängerkanälen, wobei jeder mikrooptische Kanal eine Apertur beinhaltet, die mit einer Brennebene der Bulk-Empfängeroptik zusammenfällt, eine Kollimatorlinse hinter der Apertur, einen optischen Filter hinter der Kollimatorlinse und einen Fotosensor, der auf einfallende Photonen reagiert, die durch die Apertur in die Kollimatorlinse und durch den Filter geleitet werden.
  • In bestimmten Ausführungsformen beinhaltet ein optisches System zum Durchführen von Abstandsmessungen ein stationäres Gehäuse mit einer Basis, einer Oberseite und einem optisch transparenten Fenster, das zwischen der Basis und der Oberseite angebracht ist, eine Lichtentfernungsmessvorrichtung, die innerhalb des Gehäuses angebracht und mit dem optisch transparenten Fenster ausgerichtet ist, einen Motor, der innerhalb des Gehäuses angebracht und operativ gekoppelt ist, um die Lichtentfernungsmessvorrichtung innerhalb des Gehäuses zu drehen; und eine Systemsteuerung, die innerhalb des Gehäuses angebracht ist, wobei die Systemsteuerung konfiguriert ist, um den Motor zu steuern und Lichterfassungsoperationen der Lichtentfernungsmessvorrichtung zu starten und zu stoppen. Die Lichtentfernungsmessvorrichtung beinhaltet eine Plattform, eine Vielzahl von oberflächenemittierenden Lasern mit vertikalem Resonator (VCSELs), die in einem Array angeordnet sind, und einen optischen Empfänger, der mit der Plattform gekoppelt ist. Jeder VCSEL in der Vielzahl von VCSELs sind konfiguriert, um diskrete Lichtpulse zu erzeugen und in ein Feld außerhalb des optischen Systems zu übertragen. Der optische Empfänger beinhaltet eine Bulk-Empfängeroptik, eine Vielzahl von Fotosensoren, wobei jeder Fotosensor eine Vielzahl von Einzelphotonen-Lawinendioden (SPADs) umfasst, die auf einfallende Photonen reagieren, und einen optischen Filter, der zwischen der Bulk-Empfängeroptik und der Vielzahl von Fotosensoren angebracht und konfiguriert ist, um zu ermöglichen, dass ein Lichtband durch den Filter zu der Vielzahl von Fotosensoren geleitet wird, während Licht außerhalb des Bands blockiert wird die Vielzahl von Fotosensoren zu erreichen.
  • In einigen Ausführungsformen beinhaltet ein optisches System zum Durchführen von Abstandsmessungen eine rotierbare Plattform, einen optischen Übertrager, der mit der rotierbaren Plattform gekoppelt ist und eine Bulk-Übertrageroptik und eine Vielzahl von Übertragerkanälen umfasst, einen optischen Empfänger, der mit der rotierbaren Plattform gekoppelt ist und eine Bulk-Empfängeroptik und eine Vielzahl von mikrooptischen Empfängerkanälen umfasst, einen Motor, der innerhalb des Gehäuses angebracht und operativ gekoppelt ist, um die Plattform, den optischen Übertrager und den optischen Empfänger zu drehen, eine Systemsteuerung, die an einer stationären Komponente des optischen Systems montiert ist; und eine optische Kommunikationsverbindung, die operativ zwischen der Systemsteuerung und dem optischen Empfänger gekoppelt ist, um der Systemsteuerung zu ermöglichen, mit dem optischen Empfänger zu kommunizieren. Jeder Übertragerkanal beinhaltet einen Lichtemitter, der konfiguriert ist, um ein schmalbandiges Licht zu erzeugen und durch die Bulk-Übertrageroptik in ein Feld außerhalb des optischen Systems zu übertragen. Jeder mikrooptische Kanal beinhaltet eine Apertur, die mit einer Brennebene der Bulk-Empfängeroptik zusammenfällt, einen optischen Filter, der entlang eines Lichtwegs von der Bulk-Empfängeroptik positioniert und axial mit der Apertur ausgerichtet ist, und einen Fotosensor, der auf einfallende Photonen reagiert, die durch die Apertur und durch den Filter geleitet werden. Die optische Kommunikationsverbindung kann sich zwischen der stationären Komponente des optischen Systems und der rotierbaren Plattform erstrecken, um die Systemsteuerung operativ mit dem optischen Empfänger zu koppeln. Der optische Empfänger kann ferner eine Kollimatorlinse hinter der Apertur beinhalten und direkt mit dem optischen Filter gekoppelt sein, wobei der optische Filter hinter der Kollimatorlinse positioniert ist.
  • In einigen zusätzlichen Ausführungsformen beinhaltet ein optisches System zum Durchführen von Abstandsmessungen eine rotierbare Plattform, einen optischen Übertrager, der mit der rotierbaren Plattform gekoppelt ist und eine telezentrische Bildraum-Bulk-Übertragereroptik und eine Vielzahl von Übertragerkanälen umfasst, einen optischen Empfänger, der mit der rotierbaren Plattform gekoppelt ist und eine telezentrische Bildraum-Bulk-Empfängeroptik und eine Vielzahl von mikrooptischen Empfängerkanälen umfasst, einen Motor, der innerhalb des Gehäuses angebracht und operativ gekoppelt ist, um die Plattform, den optischen Übertrager und den optischen Empfänger zu drehen, eine Systemsteuerung, die an einer stationären Komponente des optischen Systems montiert ist, und eine optische Kommunikationsverbindung, die operativ zwischen der Systemsteuerung und dem optischen Empfänger gekoppelt ist, um der Systemsteuerung zu ermöglichen, mit dem optischen Empfänger zu kommunizieren. Jeder Übertragerkanal beinhaltet einen Lichtemitter, der konfiguriert ist, um ein schmalbandiges Licht zu erzeugen und durch die Bulk-Übertrageroptik in ein Feld außerhalb des optischen Systems zu übertragen. Jeder mikrooptische Kanal beinhaltet eine Apertur, die mit einer Brennebene der Bulk-Empfängeroptik zusammenfällt, eine Kollimatorlinse hinter der Apertur, einen optischen Filter hinter der Kollimatorlinse und einen Fotosensor, der auf einfallende Photonen reagiert, die durch die Apertur in die Kollimatorlinse und durch den Filter geleitet werden.
  • In bestimmten Ausführungsformen beinhaltet ein optisches System zum Durchführen von Abstandsmessungen eine rotierbare Plattform, eine Vielzahl von oberflächenemittierenden Lasern mit vertikalem Resonator (VCSELs), die in einem Array angeordnet und mit der rotierbaren Plattform gekoppelt sind, einen optischen Empfänger, der mit der rotierbaren Plattform gekoppelt ist, einen Motor, der innerhalb des Gehäuses angebracht und operativ gekoppelt ist, um die Plattform, die Vielzahl von VCSELs und den optischen Empfänger zu drehen; eine Systemsteuerung, die an einer stationären Komponente des optischen Systems angebracht ist, und eine optische Kommunikationsverbindung, die operativ zwischen der Systemsteuerung und dem optischen Empfänger gekoppelt ist, um der Systemsteuerung zu ermöglichen, mit dem optischen Empfänger zu kommunizieren. Jeder VCSEL in der Vielzahl von VCSELs sind konfiguriert, um diskrete Lichtpulse zu erzeugen und in ein Feld außerhalb des optischen Systems zu übertragen. Der optische Empfänger beinhaltet eine Bulk-Empfängeroptik und eine Vielzahl von Fotosensoren, wobei jeder Fotosensor eine Vielzahl von Einzelphotonen-Lawinendioden (SPADs) umfasst, die auf einfallende Photonen reagieren.
  • In einigen Ausführungsformen beinhaltet ein optisches System zum Durchführen von Abstand-Messungen eine Bulk-Empfängeroptik, eine Aperturschicht, die eine Vielzahl von Aperturen beinhaltet, eine erste Linsenschicht, die eine erste Vielzahl von Linsen beinhaltet, eine optische Filterschicht, die konfiguriert ist, um Licht zu empfangen, nachdem es durch die Bulk-Empfängeroptik geleitet wurde, und ein Strahlungsband durch zu leiten, während Strahlung außerhalb des Bands blockiert wird, und eine Fotosensorschicht, die eine Vielzahl von Fotosensoren beinhaltet, wobei jeder Fotosensor eine Vielzahl von Fotodetektoren beinhaltet, die konfiguriert sind, um Photonen zu detektieren, und eine zweite Vielzahl von Linsen, die konfiguriert sind, um einfallende Photonen, die am Fotosensor empfangen werden, auf die Vielzahl von Fotodetektoren zu fokussieren. Das optische System beinhaltet eine Vielzahl von Empfängerkanälen, wobei jeder Empfängerkanal in der Vielzahl von Empfängerkanälen eine Apertur aus der Vielzahl von Aperturen, eine Linse aus der Vielzahl von ersten Linsen, einen optischen Filter aus der optischen Filterschicht und einen Fotosensor aus der Vielzahl von Fotosensoren beinhaltet, wobei die Apertur für jeden Kanal ein diskretes, nicht überlappendes Sichtfeld für seinen jeweiligen Kanal definiert. Für jeden Empfängerkanal in der Vielzahl von Empfängerkanälen kann eine Eins-zu-Eins-Entsprechung zwischen der Vielzahl von Fotodetektoren und der zweiten Vielzahl von Linsen im Fotosensor für diesen Kanal bestehen, wobei jede der Linsen in der zweiten Vielzahl von Linsen konfiguriert sein kann, um Photonen auf ihre entsprechende Linse in der zweiten Vielzahl von Linsen zu fokussieren.
  • In einigen zusätzlichen Ausführungsformen beinhaltet ein optisches System zum Durchführen von Abstandsmessungen ein Lichtemissionssystem und ein Lichtdetektionssystem. Das Lichtemissionssystem beinhaltet eine Bulk-Übertrager-Optik und eine Beleuchtungsquelle. Die Beleuchtungsquelle beinhaltet eine Vielzahl von Lichtemittern, die ausgerichtet sind, um diskrete Lichtstrahlen durch die Bulk-Übertrager-Optik in ein Feld vor dem optischen System zu projizieren. Das Lichtdetetkionssystem beinhaltet eine Bulk-Empfängeroptik, eine Aperturschicht, die eine Vielzahl von Aperturen beinhaltet, eine erste Linsenschicht, die eine erste Vielzahl von Linsen beinhaltet, eine optische Filterschicht, die konfiguriert ist, um Licht zu empfangen, nachdem es durch die Bulk-Empfängeroptik geleitet wurde, und ein Strahlungsband durch zu leiten, während Strahlung außerhalb des Bands blockiert wird, und eine Fotosensorschicht, die eine Vielzahl von Fotosensoren beinhaltet. Jeder Fotosensor beinhaltet eine Vielzahl von Fotodetektoren, die konfiguriert sind, um Photonen zu detektieren, und eine zweite Vielzahl von Linsen, die konfiguriert sind, um einfallende Photonen, die am Fotosensor empfangen werden, auf die Vielzahl von Fotodetektoren zu fokussieren. Das optische System beinhaltet eine Vielzahl von Empfängerkanälen, wobei jeder Empfängerkanal in der Vielzahl von Empfängerkanälen eine Apertur aus der Vielzahl von Aperturen, eine Linse aus der Vielzahl von ersten Linsen, einen optischen Filter aus der optischen Filterschicht und einen Fotosensor aus der Vielzahl von Fotosensoren beinhaltet, wobei die Apertur für jeden Kanal ein diskretes, nicht überlappendes Sichtfeld für seinen jeweiligen Kanal definiert.
  • In bestimmten Ausführungsformen ist ein optisches System zum Durchführen von Abstandsmessungen einschließlich eines stationären Gehäuses mit einem optisch transparenten Fenster, einer Lichtentfernungsmessvorrichtung, die innerhalb des Gehäuses angebracht und mit dem optisch transparenten Fenster ausgerichtet ist, einem Motor, der innerhalb des Gehäuses angebracht und operativ gekoppelt ist, um die Lichtentfernungsmessvorrichtung einschließlich der Plattform, des optischen Übertragers und des optischen Empfängers innerhalb des Gehäuses zu drehen, und einer Systemsteuerung, die innerhalb des Gehäuses angebracht ist. Die Systemsteuerung ist konfiguriert, um den Motor zu steuern und Lichterfassungsoperationen der Lichtentfernungsmessvorrichtung zu starten und zu stoppen. Die Lichtentfernungsmessvorrichtung beinhaltet eine Plattform, einen optischen Übertrager, der mit der Plattform gekoppelt ist, einen optischen Empfänger, der mit der Plattform gekoppelt ist. Der optische Übertrager beinhaltet eine Bulk-Übertrageroptik und eine Vielzahl von Übertragerkanälen, wobei jeder Übertragerkanal einen Lichtemitter beinhaltet, der konfiguriert ist, um ein schmalbandiges Licht zu erzeugen und durch die Bulk-Übertrageroptik in ein Feld außerhalb des optischen Systems zu übertragen. Der optische Empfänger beinhaltet eine Bulk-Empfängeroptik, eine Aperturschicht, die eine Vielzahl von Aperturen beinhaltet, eine erste Linsenschicht, die eine erste Vielzahl von Linsen beinhaltet, eine optische Filterschicht, die konfiguriert ist, um Licht zu empfangen, nachdem es durch die Bulk-Empfängeroptik geleitet wurde, und ein Strahlungsband durch zu leiten, während Strahlung außerhalb des Bands blockiert wird, und eine Fotosensorschicht, die eine Vielzahl von Fotosensoren beinhaltet. Jeder Fotosensor beinhaltet eine Vielzahl von Fotodetektoren, die konfiguriert sind, um Photonen zu detektieren, und eine zweite Vielzahl von Linsen, die konfiguriert sind, um einfallende Photonen, die am Fotosensor empfangen werden, auf die Vielzahl von Fotodetektoren zu fokussieren. Das optische System beinhaltet eine Vielzahl von Empfängerkanälen, wobei jeder Empfängerkanal in der Vielzahl von Empfängerkanälen eine Apertur aus der Vielzahl von Aperturen, eine Linse aus der Vielzahl von ersten Linsen, einen optischen Filter aus der optischen Filterschicht und einen Fotosensor aus der Vielzahl von Fotosensoren beinhaltet, wobei die Apertur für jeden Kanal ein diskretes, nicht überlappendes Sichtfeld für seinen jeweiligen Kanal definiert.
  • Ein besseres Verständnis der Art und der Vorteile von Ausführungsformen der vorliegenden Offenbarung kann unter Bezugnahme auf die folgende ausführliche Beschreibung und die beigefügten Zeichnungen erlangt werden.
  • Figurenliste
    • 1 ist ein Blockdiagramm eines beispielhaften passiven optischen Bildgebersystems gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 2 ist ein vereinfachtes Diagramm eines beispielhaften Lichtdetektionssystems für ein passives optisches Bildgebersystem gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • Die 3A und 3B sind perspektivische Ansichten eines vereinfachten Diagramms von verschiedenen Ausführungsformen von mikrooptischen Empfängerschichten mit Verlaufsfilterschichten gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 4 ist ein Blockdiagramm eines rotierenden LIDAR-Systems gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 5A-5B sind einfache Veranschaulichungen beispielhafter Implementierungen von Festkörper-LIDAR-Systemen gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 6A-6B sind einfache Veranschaulichungen beispielhafter Implementierungen von abtastenden LIDAR-Systemen gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 7 ist ein beispielhaftes Diagramm einer perspektivischen Ansicht, das eine Ausführungsform eines LIDAR-Systems zeigt, das eine 360-Abtast-Architektur verwendet, gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 8 ist ein veranschaulichendes Beispiel für die Lichtübertragungs- und - detektionsoperation für ein Lichtentfernungsmesssystem gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 9 ist ein Flussdiagramm, das ein Verfahren zum Verwenden kodierter Pulse in einem optischen Messsystem veranschaulicht.
    • 10 ist ein vereinfachtes Diagramm, das eine detaillierte Ansicht eines beispielhaften aktiven optischen Bildgebersystems mit einem breiten Sichtfeld veranschaulicht und in der Lage ist zur schmalbandigen Bildgebung gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 11-14 sind vereinfachte Querschnittsansichtsdiagramme verschiedener exemplarischer verbesserter Lichtemissionssysteme gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 15A-15C sind Querschnittsansichten vereinfachter Diagramme beispielhafter aktiver Bildgebersysteme mit verschiedenen Implementierungen von korrigierenden optischen Strukturen für Astigmatismus gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 16A ist ein vereinfachtes Querschnittsansichtsdiagramm eines Teils eines Lichtdetektionssystems 1600, bei dem kein Übersprechen zwischen Kanälen vorliegt.
    • 16B ist ein vereinfachtes Querschnittsansichtsdiagramm eines Teils eines Lichtdetektionssystems 1601, bei dem Übersprechen zwischen Kanälen vorliegt.
    • 17 ist ein vereinfachtes Querschnittsdiagramm einer exemplarischen mikrooptischen Empfängerkanalstruktur gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 18A-18D sind vereinfachte Querschnittsansichtsdiagramme verschiedener Aperturschichten für einen Empfängerkanal gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 19A-19D sind vereinfachte Querschnittsansichtsdiagramme verschiedener Abstandsstrukturen zwischen der Aperturschicht und der optischen Linsenschicht für einen Empfängerkanal gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 20A-20G sind vereinfachte Querschnittsansichtsdiagramme verschiedener optischer Filterschichten für einen Empfängerkanal gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 21A-21K sind vereinfachte Querschnittsansichtsdiagramme verschiedener Fotosensorschichten mit Diffusoren für einen Empfängerkanal gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 22A-22I sind vereinfachte Querschnittsansichtsdiagramme verschiedener halbkugelförmiger Empfängerstrukturen für einen Empfängerkanal gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 23A-23E sind vereinfachte Querschnittsansichtsdiagramme verschiedener unterer Mikrolinsenschichten für einen Empfängerkanal gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 24 und 25 sind vereinfachte Querschnittsansichtsdiagramme exemplarischer Empfängerkanäle gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 26-30 sind vereinfachte Draufsichtsdiagramme exemplarischer mikrooptischer Empfängerarrays gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Einige Ausführungsformen der Offenbarung betreffen optische Bildgebersysteme, die ein Bild aus Umgebungslicht in einem Feld und/oder Licht erzeugen können, das von einem optischen Übertrager emittiert wird, das von einem Objekt im Feld reflektiert wurde. So kann beispielsweise in einigen Ausführungsformen ein optisches Bildgebersystem ein passives System sein, das eine Szene oder einen bestimmten Bereich nicht aktiv beleuchtet und stattdessen Umgebungslicht in der Szene oder dem Bereich detektiert, das von einem oder mehreren Objekten in der Szene oder dem Bereich reflektiert wird. Ein passives optisches Bildgebersystem kann ein Lichterfassungsmodul zum Empfangen von Umgebungslicht im Feld beinhalten. Das Lichterfassungsmodul kann ein breites Sichtfeld, ein schmalbandiges optisches Bildgebungssystem (WFNBI) sein, das Bildgebungsinformationen sammelt. Das Lichterfassungsmodul kann eine oder mehrere Bulk-Empfänger-Optiken, ein mikrooptisches Empfängersystem und eine Systemsteuerung zum Betreiben des Lichterfassungsmoduls beinhalten. Gemäß einigen Ausführungsformen der vorliegenden Offenbarung kann das mikrooptische Empfängersystem eine oder mehrere mikrooptische Empfängerschichten und einen oder mehrere Fotosensoren beinhalten, wobei jeder Fotosensor einen oder mehrere Fotodetektoren beinhalten kann, die empfangenes Licht messen können.
  • Eine Bulk-Abbildungsoptik, wie hierin definiert, kann eine oder mehrere optische Oberflächen sein, die möglicherweise mehrere Linsenelemente beinhalten, die klare Aperturen von mehr als einem Millimeter aufweisen und die positioniert sind, um Licht zu empfangen, das von einer mikrooptischen Übertrager-/Empfängerschicht projiziert wird oder empfangenes Licht darauf fokussiert. Eine Bulk-Abbildungsoptik, die von einem optischen Emitter empfangenes Licht projiziert, wie beispielsweise eine mikrooptische Übertragerschicht, wird hierin manchmal als Bulk-Übertrageroptik oder als Ausgabe-Bulk-Abbildungsoptik bezeichnet. Eine Bulk-Optikschicht, die Licht, das von einem Feld empfangen wird, auf einen optischen Detektor fokussiert, wie beispielsweise eine mikrooptische Empfängerschicht, wird hierin manchmal als Bulk-Empfängeroptik oder als Eingangs-Bulk-Abbildungsoptik bezeichnet. Eine telezentrische Eingangs-Bildraum-Bulk-Bildgebungsoptik ermöglicht es dem System, schmalbandiges Licht gleichmäßig über ein breites Sichtfeld (FOV) zu messen. Die mikrooptische Empfängerschicht kann ein ein- oder zweidimensionales Array von mikrooptischen Empfängerkanälen beinhalten, wobei jeder mikrooptische Empfängerkanal mehrere Komponenten aufweist, einschließlich einer oder mehrerer von einer Apertur, einer kollimierenden Mikrolinse, einem optischen Filter und einem Fotosensor. In einigen Fällen weist die mikrooptische Empfängerkanalstruktur eine säulenförmige Anordnung mit Umfassungen mit absorbierenden und/oder reflektierenden Seitenwänden und/oder Fokussiertrichtern auf. Der mikrooptische Empfängerkanal maximiert die Sammlung von eingehenden Strahlen durch seine Apertur, kollimiert das Licht, um es senkrecht zum optischen Filter zu machen, und minimiert das Übersprechen mit angrenzenden mikrooptischen Empfängerkanälen aufgrund des Mischens von Eingängen von benachbarten Aperturen, wie unten ausführlich erörtert wird. In verschiedenen Fällen modifizieren Bulk-Abbildungsoptiken gemäß der vorliegenden Offenbarung Licht oder andere Strahlung für ein gesamtes Array von Emittern oder Fotosensoren. Mikrooptische Strukturen können als Teil des Arrays beinhaltet sein und können Licht für verschiedene Emitter und/oder Fotosensoren im Array unterschiedlich modifizieren. In einigen Ausführungsformen gibt es ein oder mehrere mikrooptische Elemente für jedes einzelne Array-Element (Fotosensor und/oder Emitter).
  • In einigen Ausführungsformen kann das optische Bildgebersystem ein aktives System sein, das Licht in ein Feld emittieren und dann das emittierte Licht detektieren kann, nachdem es von Oberflächen eines Objekts im Feld reflektiert wurde. Ein aktives optisches Bildgebersystem kann ein Lichtübertragungsmodul zusätzlich zu einem Lichterfassungsmodul beinhalten und als eine Lichtentfernungsmessvorrichtung konfiguriert sein. Das Lichtübertragungsmodul kann eine Übertragerschicht beinhalten, die aus einem Array von einzelnen Emittern besteht, wobei jeder Emitter mit einem entsprechenden mikrooptischen Empfängerkanal im Lichterfassungsmodul gepaart werden kann, oder es kann ein gleichmäßiger Beleuchter sein, der Licht gleichmäßig über die Szene verteilt, ohne eine spezifische Paarung zwischen einzelnen Emittern und Empfängerkanälen. In einigen Fällen kann das Lichtübertragungsmodul ein mikrooptisches Übertrager-Kanalarray beinhalten, um das von dem Array von Emittern ausgegebene Licht zu verbessern. Während der Operation durchläuft das von dem Array von Emittern (z. B. Laserpulse) ausgegebene Licht das mikrooptische Übertrager-Kanalarray und tritt in eine Bulk-Übertrageroptik mit einer großen numerischen Apertur ein, um Licht besser aus dem mikrooptischen Übertrager-Kanalarray aufnehmen zu können. Das Licht verlässt dann die Bulk-Übertrager-Optik und beleuchtet eine Vielzahl von Punkten auf einem entfernten Feld. Das mikrooptische Übertrager-Kanalarray kann die Helligkeit von Strahlen verbessern, die von der Bulk-Übertrager-Optik ausgehen, um eine verbesserte Punkt-Beleuchtung bereitzustellen, während gleichzeitig die räumliche Auflösung des gemessenen Bilds verbessert wird, wie hierin ausführlicher erörtert wird.
  • Gemäß einigen Ausführungsformen der vorliegenden Offenbarung ist das Bildgebersystem ein breites Sichtfeld, schmalbandiges optisches System. Somit kann der Bildgeber Bilder aufnehmen und Licht über ein FOV von mindestens 10 Grad detektieren. In bestimmten Ausführungsformen kann der Bildgeber Bilder aufnehmen und Licht über ein FOV von mindestens 20 und über ein FOV von mindestens 30 Grad in einigen Ausführungsformen detektieren. Darüber hinaus kann der Bildgeber Licht bei einer Wellenlänge von etwa 10 nm oder weniger detektieren. In einigen bestimmten Ausführungsformen kann das Lichterfassungsmodul Licht bei einer Wellenlänge von etwa 5 nm oder weniger detektieren. In einigen Ausführungsformen kann das Bildgebersystem Licht bei einer Wellenlänge von weniger als 5 nm über ein FOV von etwa 32 Grad aufnehmen. Das FOV kann in vertikaler oder horizontaler Richtung oder in einem anderen Winkel dazwischen sein.
  • Um die Funktion und Konfiguration von passiven und aktiven optischen Bildgebersystemen gemäß Ausführungsformen der Offenbarung besser zu verstehen, wird hierin jeweils ausführlich erörtert.
  • I. PASSIVE OPTISCHE BILDGEBERSYSTEME
  • Ein passives optisches Bildgebersystem empfängt Umgebungslicht, um ein Bild zu erzeugen. 1 ist ein Blockdiagramm eines beispielhaften passiven optischen Bildgebersystems 100 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Das passive optische Bildgebersystem 100 beinhaltet eine passive Lichtaufnahmevorrichtung 102 zum Aufnehmen von Licht, das innerhalb eines Felds vorhanden ist. Die passive Lichtaufnahmevorrichtung 102 kann eine Systemsteuerung 104 und ein Lichterfassungsmodul 106 beinhalten. Bilddaten können durch die passive Lichtaufnahmevorrichtung 102 erzeugt werden, indem Licht empfangen wird, das in einem Feld vorhanden ist, in dem das passive optische Bildgebersystem 100 positioniert ist. Das empfangene Licht kann Licht sein, das natürlich im Feld vorhanden ist, d. h. Umgebungslicht, im Gegensatz zu Licht, das von einem Übertrager innerhalb des Systems 100 emittiert wird.
  • Das Lichterfassungsmodul 106 kann ein Sensorarray 108 beinhalten, das z. B. ein eindimensionales oder zweidimensionales Array von Fotosensoren sein kann. Jeder Fotosensor (auch nur als „Sensor“ bezeichnet oder manchmal von einem Fachmann als „Pixel“ bezeichnet) kann eine Sammlung von Fotodetektoren beinhalten, z. B. SPADs oder dergleichen, oder ein Sensor kann ein einzelner Photonendetektor (z. B. eine APD) sein. Das Lichterfassungsmodul 106 beinhaltet ein optisches Erfassungssystem 110, das zusammen mit dem Sensorarray 108 ein Lichtdetektionssystem 112 bilden kann. In einigen Ausführungsformen kann das optische Erfassungssystem 110 eine Bulk-Empfängeroptik 114 und optische Komponenten 116 beinhalten, wie beispielsweise eine Aperturschicht, eine Kollimatorlinsenschicht und einen optischen Filter, die mit dem Sensorarray 108 kombiniert werden können, um ein Array von mikrooptischen Empfängerkanälen zu bilden, wobei jeder mikrooptische Empfängerkanal Licht misst, das einem Bildpixel in einem bestimmten Sichtfeld des umgebenden Felds entspricht, in dem das System 100 positioniert ist. Weitere Details verschiedener Ausführungsformen von mikrooptischen Empfängerkanälen gemäß der vorliegenden Offenbarung werden unten in Verbindung mit den 17-30 ausführlich erörtert.
  • In einigen Ausführungsformen ist das Sensorarray 108 des Lichterfassungsmoduls 106 als Teil einer monolithischen Vorrichtung auf einem einzelnen Substrat (unter Verwendung beispielsweise einer CMOS-Technologie) hergestellt, die sowohl ein Array von Fotosensoren, einen Prozessor 118 und einen Speicher 120 zur Signalverarbeitung des gemessenen Lichts von den einzelnen Fotosensoren (oder Gruppen von Fotosensoren) im Array beinhaltet. Die monolithische Struktur einschließlich des Sensorarrays 108, des Prozessors 118 und des Speichers 120 kann als dedizierte ASIC hergestellt werden. In einigen Ausführungsformen können die optischen Komponenten 116 auch ein Teil der monolithischen Struktur sein, in der das Sensorarray 108, der Prozessor 118 und der Speicher 120 ein Teil sind. In solchen Fällen können optische Komponenten 116 auf der ASIC gebildet werden, z. B. mit Epoxid (nicht reversibel) gebunden werden, sodass sie Teil der monolithischen Struktur wird, wie weiter unten erörtert wird. Wie oben erwähnt, können der Prozessor 118 (z. B. ein digitaler Signalprozessor (DSP), Mikrocontroller, ein feldprogrammierbares Gate-Array (FPGA) und dergleichen) und der Speicher 120 (z. B. SRAM) die Signalverarbeitung durchführen. Als Beispiel für die Signalverarbeitung kann der Speicher 120 des Lichterfassungsmoduls 106 für jeden Fotosensor oder jede Gruppierung von Fotosensoren detektierte Photonen im Laufe der Zeit akkumulieren und diese detektierten Photonen können verwendet werden, um ein Bild des Felds neu zu erzeugen.
  • In einigen Ausführungsformen wird die Ausgabe vom Prozessor 118 zur weiteren Verarbeitung an die Systemsteuerung 104 gesendet, z. B. können die Daten durch einen oder mehrere Codierer der Systemsteuerung 104 kodiert und dann als Datenpakete an die Benutzerschnittstelle 115 gesendet werden. Die Systemsteuerung 104 kann auf mehrere Arten realisiert werden, einschließlich z. B. durch Verwendung einer programmierbaren logischen Vorrichtung wie einem FPGA, als ASIC oder Teil einer ASIC, unter Verwendung eines Prozessors 122 mit Speicher 124 und einer Kombination der vorstehenden. Die Systemsteuerung 104 kann mit einer stationären Basissteuerung kooperieren oder unabhängig von der Basissteuerung (über vorprogrammierte Anweisungen) arbeiten, um das Lichterfassungsmodul 106 durch Senden von Befehlen zu steuern, die die Lichterfassung starten und stoppen und die Fotodetektorparameter einstellen. In einigen Ausführungsformen weist die Systemsteuerung 104 eine oder mehrere verdrahtete Schnittstellen oder Verbinder zum Austauschen von Daten mit dem Lichterfassungsmodul 106 auf. In anderen Ausführungsformen kommuniziert die Systemsteuerung 104 mit dem Lichterfassungsmodul 106 über eine drahtlose Zusammenschaltung, wie etwa eine optische Kommunikationsverbindung.
  • Das passive optische Bildgebersystem 100 kann mit einer Benutzerschnittstelle 115 interagieren, die jede geeignete Benutzerschnittstelle sein kann, um es einem Benutzer zu ermöglichen, mit einem Computersystem zu interagieren, z. B. einer Anzeige, einem Touchscreen, einer Tastatur, einer Maus und/oder einem Trackpad zur Verbindung mit einem Laptop, einem Tablet und/oder einem Computersystem einer tragbaren Vorrichtung, das eine CPU und einen Speicher enthält. Die Benutzerschnittstelle 115 kann lokal zu dem Objekt sein, auf dem das passive optische Bildgebersystem 100 montiert ist, kann aber auch ein fernbedientes System sein. Zum Beispiel können Befehle und Daten zu/von dem passiven optischen Bildgebersystem 100 durch ein Mobilfunknetz (LTE usw.), ein persönliches Netzwerk (Bluetooth, Zigbee usw.), ein lokales Netzwerk (WiFi, IR usw.) oder ein Wide Area Network wie das Internet geleitet werden.
  • Die Benutzerschnittstelle 115 von Hardware und Software kann die Bildgeberdaten von der Vorrichtung dem Benutzer präsentieren, kann aber auch einem Benutzer ermöglichen, das passive optische Bildgebersystem 100 mit einem oder mehreren Befehlen zu steuern. Beispielhafte Befehle können Befehle beinhalten, die das Bildgeber-System aktivieren oder deaktivieren, den Belichtungspegel des Fotodetektors, die Vorspannung, die Abtastdauer und andere Operationsparameter (z. B. emittierte Pulsmuster und Signalverarbeitung) spezifizieren, Licht-Emitter-Parameter wie Helligkeit spezifizieren. Darüber hinaus können Befehle dem Benutzer ermöglichen, die Art und Weise zum Anzeigen von Ergebnissen auszuwählen. Die Benutzerschnittstelle kann Bildgebersystemergebnisse anzeigen, die z. B. ein Einzelframe-Schnappschuss-Bild, ein ständig aktualisiertes Videobild und/oder eine Anzeige anderer Lichtmessungen für einige oder alle Pixel beinhalten können.
  • Wie hierin erwähnt, können eine oder mehrere Komponenten des optischen Erfassungssystems 110 Teil einer monolithischen Struktur mit dem Sensorarray 108, dem Prozessor 118 und dem Speicher 120 sein. Beispielsweise können eine Aperturschicht, eine Kollimatorlinsenschicht und eine optische Filterschicht von optischen Komponenten 116 über einem Halbleitersubstrat gestapelt und mit Epoxid gebunden werden, wobei mehrere ASICs auf Waferebene vor oder nach dem Zerteilen darauf hergestellt werden. Beispielsweise kann die optische Filterschicht ein dünner Wafer sein, der gegen die Fotosensorschicht platziert und dann an die Fotosensorschicht gebunden wird, um die optische Filterschicht mit der Fotosensorschicht zu binden, damit die optische Schicht einen Teil der monolithischen Struktur bildet; die Kollimatorlinsenschicht kann auf die optische Filterschicht geformt werden; und die Aperturschicht kann durch das Schichten eines nicht transparenten Substrats auf ein transparentes Substrat oder durch das Beschichten eines transparenten Substrats mit einem opaken Film gebildet werden. Alternativ kann die Fotosensorschicht hergestellt und zerteilt werden, und die optische Filterschicht, die Kollimatorlinsenschicht und die Aperturschicht können hergestellt und zerteilt werden. Jede zerteilte Fotosensorschicht und optische Schichten können dann miteinander gebunden werden, um eine monolithische Struktur zu bilden, wobei jede monolithische Struktur die Fotosensorschicht, die optische Filterschicht, die Kollimatorlinsenschicht und die Aperturschicht beinhaltet. Durch Binden der Schichten mit der ASIC können die ASIC und die gebundenen Schichten eine monolithische Struktur bilden. Der Wafer kann dann in Vorrichtungen zerteilt werden, wobei jede Vorrichtung mit einer jeweiligen Bulk-Empfängeroptik 114 gepaart werden kann, um das Lichterfassungsmodul 106 zu bilden. In noch weiteren Ausführungsformen können eine oder mehrere Komponenten des Lichterfassungsmoduls 106 außerhalb der monolithischen Struktur liegen. Beispielsweise kann die Aperturschicht als separates Metallblech mit Stiftlöchern implementiert werden. Eine detailliertere Ansicht eines optischen Erfassungssystems und eines Sensorarrays gemäß einer Ausführungsform der Offenbarung wird hierin in Bezug auf 2 erörtert.
  • 2 ist ein vereinfachtes Diagramm eines beispielhaften Lichtdetektionssystems 200 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Das Lichtdetektionssystem 200 kann für das Lichtdetektionssystem 112 repräsentativ sein, das vorstehend in Bezug auf 1 erörtert wurde. Das Lichtdetektionssystem 200 kann ein optisches Erfassungssystem und ein Sensorarray beinhalten. Das optische Erfassungssystem kann Bulk-Empfängeroptik, eine Aperturschicht, eine Kollimatorlinsenschicht und eine optische Filterschicht beinhalten; und das Sensorarray kann ein Array von Fotosensoren beinhalten, wobei jeder Fotosensor einen oder mehrere Fotodetektoren zum Messen von Licht beinhalten kann. Gemäß einigen Ausführungsformen arbeiten diese Komponenten zusammen, um Licht von einem Feld zu empfangen. So kann beispielsweise das Lichtdetektionssystem 200 eine Bulk-Empfänger-Optik 202 und eine mikrooptische Empfänger-(Rx)-Schicht 204 beinhalten. Während der Operation treten Lichtstrahlen 206 aus mehreren Richtungen in die Bulk-Empfängeroptik 202 ein und werden durch die Bulk-Empfängeroptik 202 fokussiert, um Lichtkegel 208 zu bilden. Die mikrooptische Empfängerschicht 204 ist so positioniert, dass die Aperturen 210 mit der Brennebene der Bulk-Empfängeroptik 202 zusammenfallen. In einigen Ausführungsformen kann die mikrooptische Empfängerschicht 204 ein eindimensionales oder zweidimensionales Array von mikrooptischen Empfängerkanälen 212 sein, wobei jeder mikrooptische Empfängerkanal 212 aus einer jeweiligen Apertur 210, Kollimatorlinse 214 und Fotosensor 216 gebildet ist, die entlang derselben Achse in der Richtung des Lichtstroms positioniert sind, z. B. horizontal von links nach rechts, wie in 2 dargestellt. Darüber hinaus kann jeder mikrooptische Empfängerkanal 212 auf verschiedene Arten konfiguriert werden, um Interferenzen von Streulicht zwischen Fotosensoren abzuschwächen, wie hierin weiter erörtert wird. Während der Operation misst jeder mikrooptische Empfängerkanal 212 Lichtinformationen für ein anderes Pixel (d. h. Position im Feld).
  • Am Brennpunkt der Bulk-Empfängeroptik 202 fokussieren sich Lichtstrahlen 206 und verlaufen durch Aperturen 210 in einer Aperturschicht 211 und in jeweilige Kollimatorlinsen 214. Jede Kollimatorlinse 214 kollimiert das empfangene Licht, sodass die Lichtstrahlen alle in etwa dem gleichen Winkel, z. B. parallel zueinander, in den optische Filter eintreten. Die Apertur und Brennweite der Bulk-Empfängeroptik 202 bestimmen den Kegelwinkel der jeweiligen Lichtstrahlen, die an der Apertur 210 zu einem Fokus kommen. Die Aperturgröße und die Brennweite der Kollimatorlinsen 214 bestimmen, wie gut die eingelassenen Strahlen kollimiert werden können, was bestimmt, wie schmal ein Bandpass im optischen Filter 218 implementiert werden kann. Die Aperturen 210 können verschiedene Funktionen während der Operation des Lichtdetektionssystems 200 erfüllen. Beispielsweise können die Aperturen 210 (1) das Pixel-FOV einschränken, sodass es eine enge räumliche Selektivität trotz einer großen Teilung in der Fotosensorebene aufweist, (2) eine kleine punktartige Quelle in der Brennebene der Kollimationslinse bereitstellen, um eine enge Kollimation von Strahlen zu erreichen, bevor sie durch den Filter geleitet werden, wobei eine bessere Kollimation zu einem engeren Band führt, das durch den Filter geleitet werden kann, und (3) Streulicht abweisen.
  • Der optische Filter 218 blockiert unerwünschte Lichtwellenlängen. Interferenzbasierte Filter neigen dazu, eine starke Winkelabhängigkeit in ihrer Leistung aufzuweisen. Beispielsweise könnte ein 1 nm breiter Bandpassfilter mit einer Mittenwellenlänge (CWL) von 900 nm bei einem Einfallswinkel von null Grad eine CWL von 898 nm bei einem Einfallswinkel von fünfzehn Grad aufweisen. Bildgebungssysteme verwenden typischerweise Filter mit mehreren zehn Nanometern Breite, um diesen Effekt aufzunehmen, sodass die Verschiebung in CWL viel kleiner als die Bandpassbreite ist. Die Verwendung der mikrooptischen Schicht 204 ermöglicht jedoch, dass alle Strahlen in etwa dem gleichen Einfallswinkel in den optischen Filter 218 eintreten, wodurch die Verschiebung in CWL minimiert wird und die Verwendung sehr enger Filter (z. B. weniger als 10 nm breit) ermöglicht wird. Der Fotosensor 216 erzeugt elektrische Ströme oder Spannungen als Reaktion auf einfallende Photonen. In einigen Ausführungsformen ist der optische Filter 218 über das gesamte Array von mikrooptischen Empfängerkanälen 212 gleichförmig, sodass jeder einzelne mikrooptische Empfängerkanal 212 im Array den gleichen Bereich von Lichtwellenlängen empfängt.
  • In einigen Ausführungsformen sind Fotosensoren 216 auf einer Seite gegenüber den Kollimatorlinsen 214 positioniert, sodass Lichtstrahlen 206 zuerst durch die Kollimatorlinsen 214 und den optische Filter 218 geleitet werden, bevor sie die Fotosensoren 216 belichten. Jeder Fotosensor 216 kann eine Vielzahl von Fotodetektoren sein, wie beispielsweise ein Mini-Array von mehreren Einzelphotonen-Lawinendetektoren (SPADs). Ein Array von Mini-Arrays von SPADs kann auf einem einzelnen monolithischen Chip hergestellt werden, wodurch die Herstellung vereinfacht wird. In einigen alternativen Ausführungsformen kann jeder Fotosensor 216 ein einzelner Fotodetektor sein, z. B. eine Standardfotodiode, eine Lawinenfotodiode, eine Resonanzhohlraumfotodiode oder ein anderer Fotodetektortyp.
  • In einigen anderen Ausführungsformen ist der optische Filter 218 nicht gleichförmig. Zum Beispiel ermöglicht ein Verlaufsfilter verschiedenen mikrooptischen Kanälen, einen verschiedenen Wellenlängenbereich zu messen. Mit anderen Worten ermöglicht ein Verlaufsfilter verschiedenen mikrooptischen Kanälen in einem Array von mikrooptischen Kanälen, verschiedene Mittenwellenlängen (CWL) aufzuweisen. Ein Verlaufsfilter ändert typischerweise allmählich den Bereich erlaubter Wellenlängen in einer oder zwei Dimensionen. Ein Verlaufsfilter könnte jedoch auch einen Filter umfassen, bei dem sich der Bereich erlaubter Wellenlängen in einer oder beiden Dimensionen schnell (z. B. schrittweise) ändert. Die verschiedenen CWLs für die Kanäle können auf verschiedene Arten erstellt werden. Beispielsweise kann sich die Dicke des Filters ändern oder der Brechungsindex kann sich ändern. Durch Modifizieren der Filterschicht, z. B. durch Ändern ihrer chemischen Zusammensetzung, z. B. durch Modifizieren, dass sie eine nicht gleichförmige Dotierungskonzentration aufweist, kann der Brechungsindex geändert werden. Infolgedessen kann jeder Kanal (oder jede Zeile/Spalte von Kanälen) eine optische Filterschicht aufweisen, die eine verschiedene Dotierungskonzentration aufweist, was zu einer verschiedenen CWL für jeden Kanal (oder jede Zeile/Spalte von Kanälen) führt, ohne eine modifizierte Dicke aufzuweisen. Rotieren eines eindimensionalen Arrays von mikrooptischen Kanälen mit einem optischen Verlaufsfilter ermöglicht es dem System, Licht bei verschiedenen Wellenlängen für jeden Fotosensor zu messen. Abtasten eines zweidimensionalen Arrays von mikrooptischen Kanälen, wobei sich der Verlaufsfilter entlang der Richtung der Abtastung ändert, ermöglicht es dem passiven optischen Abbildungssystem, Licht bei mehreren Wellenlängen für jede Position im Raum zu messen, verwendet jedoch mehrere Fotodetektoren im Fotosensor, um dies zu tun. Solche optischen Systeme, die Verlaufsfilter verwenden, erfordern eine Synchronisation der Fotosensorabtastung, sodass verschiedene Wellenlängenmessungen für denselben Fotosensor mit dem gleichen Sichtfeld vorgenommen werden. Bildgebungssysteme, die zwischen vielen verschiedenen Wellenlängen unterscheiden, werden manchmal als Hyperspektral-Bildgeber bezeichnet. Ein Hyperspektral-Bildgeber erfordert oft, dass Licht aus den Wellenlängen von Bedeutung alle in etwa der gleichen Ebene fokussiert werden. Dies kann durch Verwendung einer achromatischen, apochromatischen, superachromatischen oder ähnlichen Linse erreicht werden, die zum Begrenzen der Effekte der chromatischen Aberration ausgelegt ist.
  • Hyperspektral-Bildgeber sammeln Informationen aus mehreren Wellenlängenbändern über das elektromagnetische Spektrum. Die absoluten oder relativen Intensitäten der Wellenlängenbänder können Informationen über chemische Konzentrationen bereitstellen. Beispielsweise kann der Chlorophyllgehalt bestimmter Pflanzen unter Verwendung von nur wenigen Wellenlängenbändern geschätzt werden. Ähnliche Techniken können verwendet werden, um wertvolle Mineralien zu finden oder Toxine zu identifizieren. Spektrale Informationen können auch verwendet werden, um die Klassifizierung von Fußgängern, Automobilen und anderen Objekten zu unterstützen, die in ähnlicher Weise in einer automobilen Umfeld vorkommen.
  • Ein Verlaufsfilter mit neutraler Dichte weist eine Übertragung auf, die räumlich über den Filter variiert, aber die Übertragung ist weitgehend unabhängig von der Wellenlänge (z. B. genauso durchlässig für rotes Licht wie für blaues Licht) an jeder gegebenen Stelle. In einem Abtastbildgebungssystem kann ein Verlaufsfilter mit neutraler Dichte verwendet werden, um denselben Punkt im Raum mit variierenden Abschwächungsgraden abzubilden, wodurch eine zusammengesetzte Messung mit einem höheren Dynamikbereich ermöglicht wird, als dies mit einem nicht-Verlaufsfilter erreichbar wäre. Ein besseres Verständnis einer mikrooptischen Empfängerschicht mit einem Verlaufsfilter kann unter Bezugnahme auf die 3A und 3B erreicht werden.
  • Die 3A und 3B sind perspektivische Ansichten eines vereinfachten Diagramms verschiedener Ausführungsformen von mikrooptischen Empfängerschichten mit Verlaufsfilterschichten gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Insbesondere ist 3A eine perspektivische Ansicht eines vereinfachten Diagramms einer mikrooptischen Empfängerschicht 300 mit einer Verlaufsfilterschicht 302 und 3B ist eine perspektivische Ansicht eines vereinfachten Diagramms einer mikrooptischen Empfängerschicht 301 mit einer Verlaufsfilterschicht 312. Wie in 3A und 3B veranschaulicht, beinhaltet die mikrooptische Empfängerschicht 300 und 301 jeweils vier mikrooptische Empfängerkanäle 304, 306, 308 und 310, die in zwei Dimensionen als ein 2x2-Array angeordnet sind. Obwohl 3A und 3B Ausführungsformen mit nur 2x2-Arrays veranschaulichen, versteht ein Fachmann, dass solche Ausführungsformen nicht einschränkend sind und dass andere Ausführungsformen so konfiguriert werden können, dass sie eine beliebige Anzahl von mikrooptischen Empfängerkanälen aufweisen. Es ist zu beachten, dass in diesen Diagrammen die Dicken der Filterschichten 302 und 312 und die Dicken der umgebenden Schichten, die nicht maßstabsgetreu sind, als die Dicken der Schichten aus brechendem Material in einem Interferenzfilter interpretiert werden sollten. Wenn sich diese Dicken ändern, ändern sich die Eigenschaften (z.B. Durchlassband CWL) des Interferenzfilters. Diese Ausführungsformen können in einem hyperspektralen passiven optischen Bildgebersystem verwendet werden.
  • Wie in den 3A und 3B dargestellt, weist die Verlaufsfilterschicht 302 in einer Dimension über mehrere Spalten von mikrooptischen Empfängerkanälen eine allmählich zunehmende Dicke auf, und die Verlaufsfilterschicht 312 weist in einer Dimension eine schrittweise zunehmende Dicke auf, die für jeden mikrooptischen Empfängerkanal eine konstante Dicke aufweist. Die mikrooptischen Empfängerkanäle 304 und 308 weisen die gleiche Filterdicke auf und detektieren die gleiche Lichtwellenlänge. Die mikrooptischen Empfängerkanäle 306 und 310 weisen die gleiche Filterdicke auf und detektieren die gleiche Lichtwellenlänge. Die mikrooptischen Empfängerkanäle 304 und 308 können eine andere Filterdicke als die mikrooptischen Empfängerkanäle 306 und 310 aufweisen und somit eine andere Lichtwellenlänge detektieren. Während eines ersten Zeitintervalls messen die mikrooptischen Empfängerkanäle 304 und 308 die Intensität einer ersten Lichtwellenlänge für jeweils zwei Pixel. In einigen Ausführungsformen bewegt oder rotiert das hyperspektrale passive optische Bildgebersystem die mikrooptische Empfängerschicht, sodass während eines zweiten Zeitintervalls die mikrooptischen Empfängerkanäle 306 und 310 die Intensität einer zweiten Lichtwellenlänge für jeweils die gleichen zwei Pixel messen. In anderen Ausführungsformen kann ein hyperspektrales passives optisches Bildgebersystem gemäß der Offenbarung eine stationäre mikrooptische Empfängerschicht beinhalten und ein sich bewegendes Ziel abtasten.
  • II. AKTIVE OPTISCHE BILDGEBERSYSTEME
  • Wie hierin erörtert, können optische Bildgebersysteme auch als aktive optische Bildgebersysteme konfiguriert sein. Aktive optische Bildgebersysteme können sich von passiven optischen Bildgebersystemen darin unterscheiden, dass aktive optische Bildgebersysteme ihr eigenes Licht in ein Feld emittieren und das emittierte Licht detektieren, nachdem es von Oberfläche(n) eines Objekts im Feld reflektiert wurde. In einigen Ausführungsformen können aktive optische Bildgebersysteme als LIDAR-Vorrichtungen verwendet werden, bei denen emittiertes und empfangenes reflektiertes Licht korreliert werden kann, um einen Abstand zum Objekt zu bestimmen, von dem das emittierte Licht reflektiert wurde. Ein besseres Verständnis eines aktiven optischen Bildgebersystems kann unter Bezugnahme auf 4 ermittelt werden.
  • 4 veranschaulicht ein Blockdiagramm eines LIDAR-Systems 400 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Das LIDAR-System 400 kann eine Lichtentfernungsmessvorrichtung 402 und eine Benutzerschnittstelle 415 beinhalten. Die Lichtentfernungsmessvorrichtung 402 kann eine Entfernungsmesssystemsteuerung 404, ein Lichtübertragungsmodul (Tx) 406 und ein Lichterfassungsmodul (Rx) 408 beinhalten. Entfernungsmessdaten können durch die Lichtentfernungsmessvorrichtung 402 erzeugt werden, indem ein oder mehrere Lichtpulse 410 vom Lichtübertragungsmodul 406 an Objekte in einem Sichtfeld übertragen werden, das die Lichtentfernungsmessvorrichtung 402 umgibt. Reflektierte Abschnitte 412 des übertragenen Lichts werden dann vom Lichterfassungsmodul 408 nach einiger Verzögerungszeit detektiert. Basierend auf der Verzögerungszeit kann der Abstand zur reflektierenden Oberfläche bestimmt werden. Es können auch andere Entfernungsmessverfahren eingesetzt werden, z. B. kontinuierliche Welle, Doppler und dergleichen.
  • Das Tx-Modul 406 beinhaltet ein Emitter-Array 414, das ein eindimensionales oder zweidimensionales Array von Emittern sein kann, und ein optisches Tx-System 416, das zusammen mit dem Emitter-Array 414 ein Lichtemissionssystem 438 bilden kann. Das optische Tx-System 416 kann eine Bulk-Übertrageroptik beinhalten, die bildraumtelezentrisch ist. In einigen Ausführungsformen kann das optische Tx-System 416 ferner eine oder mehrere mikrooptische Strukturen beinhalten, die die Helligkeit von Strahlen erhöhen, die von der Bulk-Übertrager-Optik ausgehen, wie hierin in Bezug auf 11-14 und/oder zur Strahlformung, Strahllenkung oder dergleichen erörtert. Das Emitterarray 414 oder die einzelnen Emitter können Laserquellen sein. Das Tx-Modul 406 kann ferner einen optionalen Prozessor 418 und Speicher 420 beinhalten, obwohl diese Rechenressourcen in einigen Ausführungsformen in die Entfernungsmesssystemsteuerung 404 integriert werden können. In einigen Ausführungsformen kann eine Pulskodiertechnik verwendet werden, z. B. Barker-Codes und dergleichen. In solchen Fällen kann der Speicher 420 Pulscodes speichern, die angeben, wann Licht übertragen werden soll. In einigen Ausführungsformen werden die Pulscodes als eine Sequenz von im Speicher gespeicherten Ganzzahlen gespeichert.
  • Lichterfassungsmodul 408 kann im Wesentlichen im Aufbau dem Lichterfassungsmodul 106 ähnlich sein, das hierin in Bezug auf 1 erörtert wurde. Somit können Details des Prozessors 422, des Speichers 424, des Sensorarrays 426 und des optischen Rx-Systems 428 (wenn zusammen mit dem Sensorarray 426 genommen, ein Lichtdetektionssystem 436 bilden) hierin in Bezug auf 1 referenziert werden, und der Kürze halber werden hierin nur Unterschiede in Bezug auf diese Komponenten erörtert. Für das LIDAR-System 400 kann jeder Fotosensor (z. B. eine Sammlung von SPADs) des Sensorarrays 426 einem bestimmten Emitter des Emitter-Arrays 414 entsprechen, z. B. infolge einer geometrischen Konfiguration des Lichterfassungsmoduls 408 und des Tx-Moduls 406. So kann beispielsweise in einigen Ausführungsformen das Emitterarray 414 entlang der Brennebene der Bulk-Übertrager-Optik angeordnet werden, sodass jeder Beleuchtungsstrahl, der von der Bulk-Übertrager-Optik in das Feld vor dem System projiziert wird, im Wesentlichen die gleiche Größe und Geometrie aufweist wie das Sichtfeld eines entsprechenden Empfängerkanals in einem beliebigen Abstand vom System über einen anfänglichen Schwellenabstand hinaus.
  • In einigen Ausführungsformen kann der Prozessor 418 die Signalverarbeitung der Rohsignale von den einzelnen Photonendetektoren (oder Gruppen von Detektoren) im Array durchführen. Als Beispiel für die Signalverarbeitung kann der Speicher 424 (z. B. SRAM) für jeden Photonendetektor oder jede Gruppierung von Photonendetektoren Zählungen von detektierten Photonen über aufeinanderfolgende Zeitklassen akkumulieren und diese zusammengenommenen Zeitklassen können verwendet werden, um eine Zeitreihe des reflektierten Lichtpulses (d. h. eine Zählung von Photonen gegenüber der Zeit) neu zu erzeugen. Diese Zeitreihe aggregierter Photonenzählungen wird hierin als Intensitätshistogramm (oder einfach Histogramm) bezeichnet. Der Prozessor 418 kann angepasste Filter und Spitzendetektionsverarbeitung implementieren, um Rücklaufsignale in der Zeit zu identifizieren. Zusätzlich kann der Prozessor 418 bestimmte Signalverarbeitungstechniken (z. B. durch den Prozessor 422) erreichen, wie beispielsweise angepasste Multiprofilfilterung, um die Wiederherstellung einer Photonenzeitreihe zu unterstützen, die weniger anfällig für Pulsformverzerrung ist, die aufgrund von SPAD-Sättigung und -Löschung auftreten kann. In einigen Ausführungsformen können alle oder Teile einer solchen Filterung durch den Prozessor 458 durchgeführt werden, der in einem FPGA ausgeführt sein kann.
  • In einigen Ausführungsformen wird die Photonenzeitreihenausgabe vom Prozessor 418 zur Entfernungsmesssystemsteuerung 404 zur weiteren Verarbeitung gesendet, z. B. können die Daten durch einen oder mehrere Codierer der Entfernungsmesssystemsteuerung 404 kodiert und dann als Datenpakete an die Benutzerschnittstelle 415 gesendet werden. Die Entfernungsmesssystemsteuerung 404 kann auf mehrere Arten realisiert werden, einschließlich z. B. durch Verwendung einer programmierbaren logischen Vorrichtung wie einem FPGA, als ASIC oder Teil einer ASIC, unter Verwendung eines Prozessors 430 mit Speicher 432 und einer Kombination der vorstehenden. Die Entfernungsmesssystemsteuerung 404 kann mit einer stationären Basissteuerung kooperieren oder unabhängig von der Basissteuerung (über vorprogrammierte Anweisungen) arbeiten, um das Lichterfassungsmodul 408 durch Senden von Befehlen zu steuern, die die Lichtdetektion starten und stoppen und die Fotodetektorparameter einzustellen. Ebenso kann die Entfernungsmesssystemsteuerung 404 das Lichtübertragungsmodul 406 durch Senden von Befehlen oder Weiterleiten von Befehlen von der Basissteuerung steuern, die Start- und Stopplichtemissionssteuerungen und Steuerungen beinhalten, die andere Lichtemitterparameter (z. B. Pulscodes) einstellen können. In einigen Ausführungsformen weist die Entfernungsmesssystemsteuerung 404 eine oder mehrere verdrahtete Schnittstellen oder Verbinder zum Austauschen von Daten mit dem Lichterfassungsmodul 408 und mit dem Lichtübertragungsmodul 406 auf. In anderen Ausführungsformen kommuniziert die Entfernungsmesssystemsteuerung 404 mit dem Lichterfassungsmodul 408 und dem Lichtübertragungsmodul 406 über eine drahtlose Zusammenschaltung, wie etwa einen optischen Kommunikationslink.
  • Die Lichtentfernungsmessvorrichtung 402 kann sowohl in stationären als auch in Abtastarchitekturen verwendet werden. Der Elektromotor 434 ist eine optionale Komponente im LIDAR-System 400, die verwendet werden kann, um Systemkomponenten, z. B. das Tx-Modul 406 und das Rx-Modul 408, als Teil einer Abtast-LIDAR-Architektur zu rotieren. Die Systemsteuerung 404 kann den Elektromotor 434 steuern und kann die Rotation starten, die Rotation stoppen und die Rotationsgeschwindigkeit nach Bedarf variieren, um ein Abtast-LIDAR-System zu implementieren. Beispielhafte stationäre LIDAR-Vorrichtungen werden unten in Bezug auf 5A und 5B erörtert, während beispielhafte abtastende LIDAR-Vorrichtungen hierin in Bezug auf 6A, 6B und 7 weiter erörtert werden.
  • Das LIDAR-System 400 kann mit einer oder mehreren Instanziierungen einer Benutzerschnittstelle 415 interagieren. Die verschiedenen Instanziierungen können variieren und können ein Computersystem mit einem Monitor, einer Tastatur, einer Maus, einer CPU und einem Speicher; einen Touchscreen in einem Automobil oder einem anderen Fahrzeug; eine tragbare Vorrichtung mit einem Touchscreen; oder jede andere geeignete Benutzerschnittstelle beinhalten, aber nicht darauf beschränkt sein. Die Benutzerschnittstelle 415 kann lokal zu dem Objekt sein, auf dem das LIDAR-System 400 montiert ist, kann aber auch ein fernbedientes System sein. Zum Beispiel können Befehle und Daten zu/von dem LIDAR-System 400 durch ein Mobilfunknetz (LTE usw.), ein persönliches Netzwerk (Bluetooth, Zigbee usw.), ein lokales Netzwerk (WiFi, IR usw.) oder ein Wide Area Network wie das Internet geleitet werden.
  • Die Benutzerschnittstelle 415 von Hardware und Software kann die LIDAR-Daten von der Vorrichtung dem Benutzer oder einer Fahrzeugsteuereinheit (nicht dargestellt) präsentieren, kann aber auch einem Benutzer ermöglichen, das LIDAR-System 400 mit einem oder mehreren Befehlen zu steuern. Beispielhafte Befehle können Befehle beinhalten, die das LIDAR-System aktivieren oder deaktivieren, den Belichtungspegel des Fotodetektors, die Vorspannung, die Abtastdauer und andere Operationsparameter (z. B. emittierte Pulsmuster und Signalverarbeitung) spezifizieren, Licht-Emitter-Parameter wie Helligkeit spezifizieren. Darüber hinaus können Befehle dem Benutzer ermöglichen, die Art und Weise zum Anzeigen von Ergebnissen auszuwählen. Die Benutzerschnittstelle kann LIDAR-Systemergebnisse anzeigen, die z. B. ein Einzelframe-Schnappschuss-Bild, ein ständig aktualisiertes Videobild und/oder eine Anzeige anderer Lichtmessungen für einige oder alle Pixel beinhalten können. In einigen Ausführungsformen kann die Benutzerschnittstelle 415 Abstände (Nähe) von Objekten vom Fahrzeug verfolgen und möglicherweise Warnungen an einen Fahrer bereitstellen oder solche Verfolgungsinformationen zur Analyse der Leistung eines Fahrers bereitstellen.
  • In einigen Ausführungsformen, beispielsweise wenn das LIDAR-System 400 für die Fahrzeugnavigation verwendet wird, kann die Benutzerschnittstelle 415 Teil einer Fahrzeugsteuereinheit sein, die die Ausgabe von der Lichtentfernungsmessvorrichtung 402 und/oder der Benutzerschnittstelle 415 über ein Netzwerk, wie beispielsweise eines der oben beschriebenen verdrahteten oder drahtlosen Netzwerke, empfängt und anderweitig mit dieser kommuniziert. Ein oder mehrere Parameter, die mit der Steuerung eines Fahrzeugs assoziiert sind, können durch die Fahrzeugsteuereinheit basierend auf den empfangenen LIDAR-Daten modifiziert werden. So kann beispielsweise das LIDAR-System 400 in einem vollständig autonomen Fahrzeug ein Echtzeit-3D-Bild des umgebenden Umfelds um das Auto herum bereitstellen, um die Navigation in Verbindung mit GPS und anderen Daten zu erleichtern. In anderen Fällen kann das LIDAR-System 400 als Teil eines fortschrittlichen Fahrerassistenzsystems (ADAS) oder als Teil eines Sicherheitssystems eingesetzt werden, das z. B. 3D-Bilddaten an eine beliebige Anzahl von verschiedenen Systemen bereitstellen kann, z. B. adaptive Geschwindigkeitsregelung, automatisches Parken, Fahrermüdigkeitsüberwachung, Totwinkelüberwachung, Kollisionsvermeidungssysteme usw. Wenn die Benutzerschnittstelle 415 als Teil einer Fahrzeugsteuereinheit implementiert ist, können Warnungen an einen Fahrer bereitgestellt werden oder die Verfolgung einer Nähe eines Objekts kann verfolgt werden.
  • A. Festkörperarchitektur
  • LIDAR-Systeme können gemäß einigen Ausführungsformen der vorliegenden Offenbarung als ein Festkörper-LIDAR-System konfiguriert sein, das eine stationäre Architektur aufweist. Solche LIDAR-Systeme rotieren nicht und benötigen somit keinen separaten Motor, z. B. den Elektromotor 434 in 4, um die Sensor- und Übertrager-Module zu rotieren. Beispielhafte Festkörper-LIDAR-Systeme sind in 5A und 5B gezeigt.
  • 5A und 5B sind einfache Veranschaulichungen beispielhafter Implementierungen von Festkörper-LIDAR-Systemen. Insbesondere veranschaulicht 5A eine Implementierung 500, bei der Festkörper-LIDAR-Systeme 502a-d in den Außenbereichen eines Straßenfahrzeugs 505, wie beispielsweise eines Automobils, gemäß einigen Ausführungsformen der vorliegenden Offenbarung implementiert sind; und 5B veranschaulicht eine Implementierung 501, bei der Festkörper-LIDAR-Systeme 504a-b auf dem Straßenfahrzeug 505 implementiert sind, gemäß einigen Ausführungsformen der vorliegenden Offenbarung. In jeder Implementierung kann die Anzahl der LIDAR-Systeme, die Platzierung der LIDAR-Systeme und die Sichtfelder jedes LIDAR-Systems gewählt werden, um einen Großteil, wenn nicht die Gesamtheit, eines Sichtfelds von 360 Grad des umgebenden Umfelds um das Fahrzeug herum zu erhalten. Automobilimplementierungen für die LIDAR-Systeme werden hierin lediglich zur Veranschaulichung gewählt und die hierin beschriebenen Sensoren können in anderen Arten von Fahrzeugen, z. B. Booten, Flugzeugen, Zügen usw., sowie in einer Vielfalt von anderen Anwendungen verwendet werden, bei denen 3D-Tiefenbilder nützlich sind, wie etwa medizinische Bildgebung, Mobiltelefone, Augmented Reality, Geodäsie, Geomatik, Archäologie, Geografie, Geologie, Geomorphologie, Seismologie, Forstwirtschaft, atmosphärische Physik, Laserführung, airborne laser swath mapping (ALSM) und Laseraltimetrie.
  • Unter Bezugnahme auf 5A können Festkörper-LIDAR-Systeme 502a-d an den Außenbereichen eines Fahrzeugs in der Nähe des vorderen und hinteren Kotflügels montiert werden. Die LIDAR-Systeme 502a-d können jeweils an einer jeweiligen Ecke des Fahrzeugs 505 positioniert werden, sodass sie in der Nähe der äußersten Ecken des Fahrzeugs 505 positioniert sind. Auf diese Weise können die LIDAR-Systeme 502a-d den Abstand des Fahrzeugs 505 von Objekten im Feld in den Bereichen 506a-d besser messen. Jedes Festkörper-LIDAR-System kann in eine verschiedene Richtung weisen (möglicherweise mit teilweise und/oder nicht überlappenden Sichtfeldern zwischen den Einheiten), um ein zusammengesetztes Sichtfeld aufzunehmen, das größer ist als jede Einheit, die in der Lage ist, alleine aufzunehmen. Objekte innerhalb der Szene können Abschnitte von Lichtpulsen 510 reflektieren, die vom LIDAR-Tx-Modul 508 emittiert werden. Ein oder mehrere reflektierte Abschnitte 512 von Lichtpulsen 510 wandern dann zurück zum LIDAR-System 502a und können vom Rx-Modul 509 empfangen werden. Das Rx-Modul 509 kann im gleichen Gehäuse wie das Tx-Modul 508 angebracht sein.
  • Obwohl 5A vier Festkörper-LIDAR-Systeme veranschaulicht, die an den vier Ecken eines Fahrzeugs montiert sind, sind Ausführungsformen nicht auf solche Konfigurationen beschränkt. Andere Ausführungsformen können weniger oder mehr Festkörper-LIDAR-Systeme aufweisen, die an anderen Bereichen eines Fahrzeugs montiert sind. So können beispielsweise LIDAR-Systeme auf einem Dach eines Fahrzeugs 505 montiert sein, wie in 5B dargestellt. In solchen Ausführungsformen können LIDAR-Systeme einen höheren Blickwinkel aufweisen, um die Bereiche 506a-d um das Fahrzeug 505 herum besser zu beobachten.
  • B. Abtastarchitektur
  • In einigen Ausführungsformen können LIDAR-Systeme gemäß der vorliegenden Offenbarung eine Abtastarchitektur verwenden, in der das LIDAR-System zwischen einem Winkel oszilliert, der kleiner als 360 Grad ist. So können beispielsweise die LIDAR-Systeme 504a-b in der Implementierung 501 von 5B jeweils eine Abtastarchitektur verwenden, um die gesamte Szene vor und/oder hinter dem Fahrzeug 505 abzutasten, z. B. im Bereich 514 zwischen dem Sichtfeld 506a und 506b und im Bereich 516 zwischen dem Sichtfeld 506c und 506d. Der/die Ausgangsstrahl(e) einer oder mehrerer Lichtquellen (nicht gezeigt, können aber eine Vielzahl verschiedener geeigneter Quellen zum Emittieren von Strahlung sein, einschließlich, aber nicht beschränkt auf Laser, in jedem für LIDAR-Systeme geeigneten Wellenlängenspektrum, wie im Infrarot-, im nahen Infrarot-, ultravioletten, sichtbaren, z. B. grünen Laserwellenlängenspektrum und dergleichen), die sich in den Abtast-LIDAR-Systemen befinden, können als Lichtpulse ausgegeben und abgetastet werden, z. B. rotiert zwischen einem Winkel, der kleiner als 360 Grad ist, um eine Szene um das Fahrzeug zu beleuchten. In einigen Ausführungsformen kann das Abtasten, dargestellt durch die Rotationspfeile 514 und 516, durch mechanische Mittel implementiert werden, z. B. durch Montieren der Lichtemitter an einer rotierenden Säule oder Plattform oder durch die Verwendung anderer mechanischer Mittel, wie beispielsweise Galvanometer. Chipbasierte Strahllenktechniken können auch verwendet werden, z. B. durch Verwendung von Mikrochips, die einen oder mehrere MEMS-basierte Reflektoren verwenden, z. B. eine digitale Mikrospiegelvorrichtung (DMD-Vorrichtung), eine digitale Lichtverarbeitungsvorrichtung (DLP-Vorrichtung) und dergleichen. In einigen Ausführungsformen kann das Abtasten durch nicht mechanische Mittel erfolgen, z. B. durch Verwendung elektronischer Signale, um ein oder mehrere optische Phasenarrays zu lenken.
  • Andere Ausführungsformen können eine Abtastarchitektur implementieren, die durch die gesamten 360 Grad des umgebenden Umfelds um ein Fahrzeug abtastet. Solche Abtast-LIDAR-Systeme können sich wiederholt kontinuierlich um 360 Grad im Uhrzeigersinn oder gegen den Uhrzeigersinn drehen und können somit einen separaten Motor, z. B. den Elektromotor 434 in 4, verwenden, um die Sensor- und Übertrager-Module zu rotieren. Beispielhafte rotierende LIDAR-Systeme sind in 6A und 6B gezeigt.
  • Die 6A ist eine Oben-Unten-Ansicht eines vereinfachten Diagramms eines beispielhaften abtastenden LIDAR-Systems 600, das für ein Fahrzeug 605, wie beispielsweise ein Auto, implementiert ist und in der Lage ist zur kontinuierlichen 360-Grad-Abtastung gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Der/die Ausgangsstrahl(e) einer oder mehrerer Lichtquellen (wie Infrarot- oder im nahen Infrarot gepulste IR-Laser, nicht gezeigt), die sich im LIDAR-System 600 befinden, können abgetastet, z. B. rotiert, werden, um eine kontinuierliche Szene 620 um das Fahrzeug zu beleuchten. In einigen Ausführungsformen kann das Abtasten, dargestellt durch den Rotationspfeil 615, durch jedes geeignete mechanische Mittel implementiert werden, das hierin in Bezug auf 5B erörtert wird, z. B. durch Montieren der Lichtemitter an einer rotierenden Säule oder Plattform oder jedes andere mechanische Mittel, wie beispielsweise durch die Verwendung von Galvanometern oder chipbasierten Lenktechniken. Während der Operation können Objekte um das Fahrzeug 605 in jeder Richtung und innerhalb der Ansicht des LIDAR-Systems 600 Abschnitte der Lichtpulse 611 reflektieren, die von einem übertragenden Modul 608 im LIDAR-System 600 emittiert werden. Ein oder mehrere reflektierte Abschnitte 617 von Lichtpulsen 611 wandern dann zurück zum LIDAR-System 600 und können von dessen Erfassungsmodul 609 detektiert werden. In einigen Fällen kann das Erfassungsmodul 609 im gleichen Gehäuse wie das Übertragungsmodul 608 angebracht sein.
  • Obwohl 6A Festkörper-LIDAR-Systeme veranschaulicht, die auf einem Dach eines Fahrzeugs 605 montiert sind, sind Ausführungsformen nicht auf solche Konfigurationen beschränkt. Andere Ausführungsformen können Festkörper-LIDAR-Systeme aufweisen, die an anderen Bereichen eines Fahrzeugs montiert sind. So können beispielsweise LIDAR-Systeme an den Ecken eines Fahrzeugs montiert sein, wie in 6B dargestellt. 6B veranschaulicht eine Implementierung 601, bei der Festkörper-LIDAR-Systeme 604a-d in den Außenbereichen eines Straßenfahrzeugs, wie beispielsweise eines Autos, gemäß einigen Ausführungsformen der vorliegenden Offenbarung implementiert sind. In dieser Implementierung kann jedes LIDAR-System 604a-d ein drehendes LIDAR-System sein, das Abstände um die vollen 360 Grad messen kann. Da jedoch zumindest einige dieser Messungen in Bezug auf das Fahrzeug 605 gemessen werden, können diese Messungen ignoriert werden. Somit kann jedes LIDAR-System 605a -d nur eine Teilmenge der Messungen von 360-Grad-Abtastung verwenden, z. B. werden nur die Winkel, die die Bereiche 619a -d abdecken, die das Fahrzeug 605 nicht aufnehmen, verwendet.
  • 7 ist eine vereinfachte beispielhafte perspektivische Ansicht eines LIDAR-Systems 700, das eine 360-Abtast-Architektur verwendet, gemäß einigen Ausführungsformen der vorliegenden Offenbarung. In einigen Ausführungsformen kann das LIDAR-System 700 eine Lichtentfernungsmessvorrichtung 701 beinhalten, die sich im Uhrzeigersinn oder gegen den Uhrzeigersinn dreht, um das umgebende Feld um ein Fahrzeug herum zu beobachten. Das System 700 kann ein stationäres Gehäuse 702, ein optisch transparentes Fenster 704 und einen stationären Deckel 706 zum Bereitstellen von Schutz für die internen Komponenten des LIDAR-Systems 700 beinhalten. Das Fenster 704 kann sich vollständig um einen Umfang des stationären Gehäuses 702 erstrecken, das so konfiguriert sein kann, dass es eine zylindrische Form aufweist. Die internen Komponenten des Systems 700 können die Lichtentfernungsmessvorrichtung 701 beinhalten, die eine rotierende Plattform 708 und Erfassungs- und Übertragungsmodule 710 beinhalten kann, die auf der rotierenden Plattform 708 montiert sind. In einigen Ausführungsformen ist die Lichtentfernungsmessvorrichtung 701 mit dem Fenster 704 ausgerichtet, sodass die Module 710 positioniert sind, um Licht durch das Fenster 704 zu emittieren und zu empfangen, und dass emittiertes Licht nicht auf das stationäre Gehäuse 702 oder den stationären Deckel 706 emittiert wird. So fällt beispielsweise in der ausgerichteten Position das horizontale Zentrum der Lichtentfernungsmessvorrichtung 701 mit dem horizontalen Zentrum des Fensters 704 zusammen. Die Erfassungs- und Übertragungsmodule 710 können beispielsweise das Lichterfassungsmodul 408 und das Lichtübertragermodul 406 sein und können optional eine Wärmesenke (nicht gezeigt) beinhalten, um die mikrooptischen Schichten zu kühlen. Das LIDAR-System 700 kann auch eine Systemsteuerung 712 (z. B. die Steuerung 404) und einen Elektromotor 714 (z. B. den Motor 434) beinhalten, die sich innerhalb des stationären Gehäuses 702 befinden. Elektromotor 714 rotiert die Plattform 708, wodurch die Erfassungs- und Übertragungs-Module 710 in einer drehenden Weise rotiert werden, z. B. kontinuierlich um 360 Grad im Uhrzeigersinn oder gegen den Uhrzeigersinn. Die Systemsteuerung 712 kann mit den Erfassungs- und Übertragungsmodulen 710 unter Verwendung einer optischen Kommunikationsverbindung 716 kommunizieren. Die optische Kommunikationsverbindung 716 ermöglicht den Erfassungs- und Übertragungsmodulen 710, mit der stationären Systemsteuerung 712 zu kommunizieren, die mechanisch mit dem stationären Gehäuse 702 gekoppelt ist und nicht mit der Plattform 708 rotiert, durch die optische Kommunikationsverbindung 716 ohne mechanischen Verschleiß. In einigen Ausführungsformen kann die Systemsteuerung 712 den Motor steuern und Lichtdetektionsoperationen des LIDAR-Systems 700 starten und stoppen. Die Systemsteuerung 712 kann zwei oder mehr gestapelte planare Leiterplatten beinhalten, die in einer parallelen Beziehung angeordnet sind, was in der gemeinsam genutzten und gleichzeitig eingereichten Patentanmeldung mit dem Titel „Compact Lidar System“, Aktenzeichen 103033-P010 US1-1073278 , die hierin durch Bezugnahme in ihrer Gesamtheit für alle Zwecke aufgenommen ist, näher erläutert wird.
  • III. OPERATION VON AKTIVEN BILDGEBERSYSTEMEN
  • 8 ist ein veranschaulichendes Beispiel für die Lichtübertragungs- und - detektionsoperation für ein Lichtentfernungsmesssystem gemäß einigen Ausführungsformen. 8 zeigt ein Lichtentfernungsmesssystem 800 (z. B. ein Festkörper- oder und/oder Abtastsystem), das dreidimensionale Abstandsdaten eines Volumens oder einer Szene sammelt, das bzw. die das System umgibt. 8 ist eine idealisierte Zeichnung, um Beziehungen zwischen Emitter und Sensoren hervorzuheben, und somit sind andere Komponenten nicht gezeigt.
  • Das Lichtentfernungsmesssystem 800 beinhaltet ein Lichtemitterarray 810 und ein Lichtsensorarray 820. Das Lichtemitterarray 810 beinhaltet ein Array von Lichtemittern, z. B. ein Array von oberflächenemittierenden Lasern mit vertikalem Resonator (VCSELs) und dergleichen, wie etwa Emitter 812 und Emitter 816. Das Lichtsensorarray 820 beinhaltet ein Array von Fotosensoren, z. B. die Sensoren 822 und 826. Die Fotosensoren können pixelierte Lichtsensoren sein, die für jeden Fotosensor einen Satz von diskreten Fotodetektoren einsetzen, wie etwa Einzelphotonen-Lawinendioden (SPADs) und dergleichen. Verschiedene Ausführungsformen können jedoch andere Typen von Photonensensoren einsetzen.
  • Jeder Emitter kann leicht von seinem Nachbarn versetzt sein und kann konfiguriert sein, um Lichtpulse in ein anderes Sichtfeld von seinen benachbarten Emittern zu übertragen, wodurch ein entsprechendes Sichtfeld beleuchtet wird, das nur mit diesem Emitter assoziiert ist. So emittiert beispielsweise der Emitter 812 einen Beleuchtungsstrahl 814 (gebildet aus einem oder mehreren Lichtpulsen) in das kreisförmige Sichtfeld 832 (dessen Größe der Klarheit halber übertrieben dargestellt ist). Ebenso emittiert der Emitter 816 einen Beleuchtungsstrahl 818 (auch als Emitterkanal bezeichnet) in das kreisförmige Sichtfeld 834. Während in 8 nicht dargestellt, um Komplikationen zu vermeiden, emittiert jeder Emitter einen entsprechenden Beleuchtungsstrahl in sein entsprechendes Sichtfeld, was dazu führt, dass ein 2D-Array von Sichtfeldern beleuchtet wird (in diesem Beispiel 21 verschiedene Sichtfelder).
  • Jedes Sichtfeld, das von einem Emitter beleuchtet wird, kann als Pixel oder Punkt im entsprechenden 3D-Bild betrachtet werden, das aus den Entfernungsmessdaten erzeugt wird. Jeder Emitterkanal kann für jeden Emitter unterschiedlich sein und mit anderen Emitterkanälen nicht überlappen, d. h. es gibt eine Eins-zu-Eins-Zuordnung zwischen dem Satz von Emittern und dem Satz von nicht überlappenden Sichtfeldern oder Ansichten. Somit kann das System im Beispiel von 8 21 verschiedene Punkte im 3D-Raum samplen. Ein dichteres Samplen von Punkten kann erreicht werden, indem ein dichteres Array von Emittern vorhanden ist oder indem die Winkelposition der Emitterstrahlen über die Zeit abgetastet wird, so dass ein Emitter mehrere Punkte im Raum samplen kann. Wie oben beschrieben, kann das Abtasten durch Rotieren der gesamten Emitter-/Sensorbaugruppe erfolgen.
  • Jeder Sensor kann leicht von seinem Nachbarn versetzt sein und wie die oben beschriebenen Emitter kann jeder Sensor ein verschiedenes Sichtfeld der Szene vor dem Sensor sehen. Darüber hinaus fällt das Sichtfeld jedes Sensors im Wesentlichen zusammen, z. B. es überlappt mit und ist gleich groß wie das Sichtfeld eines jeweiligen Emitterkanals.
  • In 8 ist der Abstand zwischen den entsprechenden Emitter-Empfänger-Kanälen im Verhältnis zum Abstand zu Objekten im Sichtfeld übertrieben dargestellt. In der Praxis ist der Abstand zu den Objekten im Sichtfeld viel größer als der Abstand zwischen den entsprechenden Emitter-Empfänger-Kanälen und somit ist der Lichtweg vom Emitter zum Objekt ungefähr parallel zum Weg des reflektierten Lichts zurück vom Objekt zum Sensor (d. h. es wird fast „zurückreflektiert“). Dementsprechend gibt es einen Bereich von Abständen vor dem System 800, über den die Sichtfelder einzelner Sensoren und Emitter überlappen.
  • Da die Sichtfelder der Emitter mit den Sichtfeldern ihrer jeweiligen Sensoren überlappen, kann jeder Empfängerkanal idealerweise den reflektierten Beleuchtungsstrahl detektieren, der von seinem jeweiligen Emitterkanal stammt, mit idealerweise keinem Übersprechen, d. h. es wird kein reflektiertes Licht von anderen Beleuchtungsstrahlen detektiert. Somit kann jeder Fotosensor einer jeweiligen Lichtquelle entsprechen. So emittiert beispielsweise der Emitter 812 einen Beleuchtungsstrahl 814 in das kreisförmige Sichtfeld 832 und ein Teil des Beleuchtungsstrahls wird vom Objekt 830 reflektiert. Idealerweise wird ein reflektierter Strahl 824 nur vom Sensor 822 detektiert. Somit teilen sich der Emitter 812 und der Sensor 822 das gleiche Sichtfeld, z. B. das Sichtfeld 832, und bilden ein Emitter-Sensor-Paar. Ebenso bilden der Emitter 816 und der Sensor 826 ein Emitter-Sensor-Paar, das sich das Sichtfeld 834 teilt. Während die Emitter-Sensor-Paare in 8 als an den gleichen relativen Stellen in ihrem jeweiligen Array befindlich dargestellt sind, kann jeder Emitter mit jedem Sensor gepaart werden, je nach dem Design der im System verwendeten Optik.
  • Während einer Entfernungsmessung wird das reflektierte Licht aus den verschiedenen Sichtfeldern, das um das Volumen verteilt ist, das das LIDAR-System umgibt, von den verschiedenen Sensoren gesammelt und verarbeitet, was zu Entfernungsmessinformationen für alle Objekte in jedem jeweiligen Sichtfeld führt. Wie oben beschrieben, kann eine Laufzeittechnik verwendet werden, bei der die Lichtemitter präzise zeitlich abgestimmte Pulse emittieren und die Reflexionen der Pulse von den jeweiligen Sensoren nach einiger verstrichener Zeit detektiert werden. Die verstrichene Zeit zwischen Emission und Detektion und die bekannte Lichtgeschwindigkeit wird dann verwendet, um den Abstand zur reflektierenden Oberfläche zu berechnen. In einigen Ausführungsformen können zusätzliche Informationen vom Sensor erhalten werden, um andere Eigenschaften der reflektierenden Oberfläche zusätzlich zur Entfernung zu bestimmen. So kann beispielsweise die Dopplerverschiebung eines Pulses vom Sensor gemessen und verwendet werden, um die relative Geschwindigkeit zwischen dem Sensor und der reflektierenden Oberfläche zu berechnen. Die Pulsstärke kann verwendet werden, um das Zielreflexionsvermögen zu schätzen, und die Pulsform kann verwendet werden, um zu bestimmen, ob das Ziel ein hartes oder diffuses Material ist.
  • In einigen Ausführungsformen kann das LIDAR-System aus einem relativ großen 2D-Array von Emitter- und Empfängerkanälen zusammengesetzt sein und als Festkörper-LIDAR arbeiten, d. h. es kann Frames von Entfernungsmessdaten erhalten, ohne die Ausrichtung der Emitter und/oder Sensoren abtasten zu müssen. In anderen Ausführungsformen können die Emitter und Sensoren abgetastet werden, z. B. um eine Achse rotiert werden, um sicherzustellen, dass die Sichtfelder der Sätze von Emittern und Sensoren einen vollen 360-Grad-Bereich (oder einen nützlichen Teil des 360-Grad-Bereichs) des umgebenden Volumens zu samplen. Die vom Abtastsystem gesammelten Entfernungsmessdaten, z. B. über einen vordefinierten Zeitraum, können dann in einen oder mehrere Datenframes nachverarbeitet werden, die dann in ein oder mehrere Tiefenbilder oder 3D-Punktwolken weiterverarbeitet werden können. Die Tiefenbilder und/oder 3D-Punktwolken können zur Verwendung in 3D-Kartierungs- und Navigationsanwendungen zu Kartenkacheln weiterverarbeitet werden.
  • Gemäß einigen Ausführungsformen kann ein Lichtentfernungsmesssystem (auch als optisches Empfängersystem mit codiertem Puls bezeichnet) mehrere Lichtpulse übertragen. In einigen Ausführungsformen weist jeder codierte Puls einen eingebetteten Positivwert-Pulscode auf, der durch die Lichtintensität gebildet wird. Das System kann die zeitliche Position und/oder Amplitude von optischen Pulsen bei Vorhandensein von Hintergrundlicht bestimmen, indem es ein Intensitätshistogramm von detektiertem, reflektiertem Licht zu verschiedenen Zeit-Bins erstellt. Für jeden Zeit-Bin fügt das System einen gewichteten Wert zu dem Intensitätshistogramm hinzu, der von der Intensität des detektierten Lichts abhängt. Die gewichteten Werte können positiv oder negativ sein und variierende Größen aufweisen.
  • Durch Auswählen verschiedener Kombinationen von Positivwert-Pulscodes und Anwenden verschiedener Gewichtungen kann das System Positivwert- und Negativwert-Codes detektieren, die für Standard-Digitalsignalverarbeitungsalgorithmen geeignet sind. Dieser Ansatz ergibt ein hohes Signal-Rausch-Verhältnis, während eine geringe Unsicherheit in der gemessenen zeitlichen Position der reflektierten Lichtpulse aufrechterhalten wird.
  • 9 ist ein Flussdiagramm, das ein Verfahren 900 zum Verwenden kodierter Pulse in einem optischen Messsystem veranschaulicht. Das optische Messsystem kann ein Lichtentfernungsmesssystem sein. Das Verfahren 900 kann die zeitliche Position eines reflektierten Pulses von einem Ziel unter Verwendung mehrerer codierter Pulse detektieren. In einer dreidimensionalen Echtzeitanwendung kann das Verfahren 900 Abstände zu Objekten im umgebenden Umfeld ständig detektieren. Das Verfahren 900 kann durch jedes der hierin beschriebenen optischen Messsysteme implementiert werden.
  • Bei 910 führt ein optisches System mit codiertem Puls (CPOS) eine Initialisierung durch. Beispielsweise kann die CPOS auf Benutzerschnittstellenbefehle zum Starten, Stoppen und Ändern von Parametern reagieren. Die CPOS kann einen optischen Übertrager initialisieren, um Parameter, z. B. Pulscodes, Lichtleistungspegel und verschiedene Zeitintervalle (z. B. für ein Detektionsintervall, ein Intervall zum Pausieren zwischen Detektionsintervallen und ein Gesamtmesszeitintervall) anzugeben. Die CPOS kann ein Lichterfassungsmodul initialisieren, um Parameter wie Puls-Zeitintervall und Lichtabtastintervall anzugeben. Die CPOS kann auch Histogrammwerte löschen.
  • Bei 920 wird eine Pulsfolge von einer Lichtquelle (z. B. einem Laser) als Teil einer optischen Messung übertragen. Die Pulsfolge kann als Teil von N Pulsfolgen übertragen werden, die für die Messung übertragen werden. Die N Pulsfolgen können von einem Objekt reflektiert werden, wodurch eine Entfernungsmessung zum Objekt ermöglicht wird. Jede der N Pulsfolgen kann einen oder mehrere Pulse von der Lichtquelle (z. B. VCSELs) beinhalten und einem verschieden Zeitintervall entsprechen, das durch ein Startsignal ausgelöst wird.
  • Die CPOS kann für eine bestimmte Zeit warten, um eine vorherige Pulsfolge (Übertragung mit codiertem Puls) zu dissipieren. Die CPOS kann dann eine nächste Pulsfolge der N Pulsfolgen einer Messung übertragen, wobei die N Pulsfolgen einen Code bilden. Sobald eine Messung abgeschlossen ist, z. B. eine letzte der N Pulsfolgen dissipiert wurde (z. B. nach einer vorbestimmten Zeit, die für etwaige Reflexionen erwartet wird), kann die CPOS dann die erste/nächste Übertragung mit codiertem Puls unter Verwendung des passenden Pulscodes starten. N kann eine Ganzzahl größer als eins sein, z. B. 2, 3, 4, 5 oder höher.
  • Bei 930 kann die optische Detektion gestartet werden, z. B. als Reaktion auf das Startsignal, das die Übertragung der Pulsfolge auslöst. Somit kann die CPOS die Lichtdetektion zur gleichen Zeit starten, zu der sie die Übertragung mit codiertem Puls startete. Als Teil der optischen Detektion kann eine Pulsfolge von einem Fotosensor (z. B. entsprechend einem Pixel) des optischen Messsystems detektiert werden, wodurch Datenwerte an einer Vielzahl von Zeitpunkten erzeugt werden. Der Fotosensor ist eine Sammlung von Fotodetektoren (z. B. SPADs). Die Datenwerte können verschiedene Formen aufweisen, z. B. Zählungen einer Anzahl von SPADs, die zu einem Zeitpunkt ausgelöst werden (z. B. innerhalb eines Zeit-Bins eines Histogramms). Als weitere Beispiele können die Datenwerte ein digitalisierter Wert von einem ADC sein, der einem analogen Fotosensor (z. B. einer APD) folgt. Beide Beispiele können einer Intensität entsprechen. Insgesamt können N Pulsfolgen detektiert werden. Ferner kann der Prozess separat für jeden Fotosensor der optischen Messvorrichtung durchgeführt werden.
  • Bei 940 wird den Datenwerten an Zeitpunkten innerhalb des Zeitintervalls, das der Pulsfolge entspricht, ein Gewicht zugewiesen, wodurch gewichtete Werte erhalten werden. Ein Gewicht kann für jede der N Pulsfolgen zugewiesen werden. Einige solcher Gewichte für verschiedene Pulsfolgen können die gleichen sein wie andere Pulsfolgen. Mindestens zwei der N Pulsfolgen sind verschieden gewichtet und weisen ein verschiedenes Pulsmuster auf. Zwei Pulsfolgen können eine gewisse Ähnlichkeit aufweisen (z. B. können sich Abschnitte von Pulsen überlappen), aber es gibt mindestens einige Male, wenn eine Pulsfolge EIN ist und die andere Pulsfolge AUS ist. Solche verschiedenen Pulsmuster können eine ähnliche Form aufweisen, weisen jedoch eine unterschiedliche Verzögerung auf, z. B. {1, 0, 1, 1,0} weist eine ähnliche Form von Werten ungleich Null wie {0, 1, 0, 1, 1} auf, sind jedoch verschiedene Pulsmuster aufgrund eines Versatzes, wie er durch eine Verzögerung im zweiten Signal relativ zum ersten Signal erreicht werden kann.
  • Dementsprechend kann die CPOS Licht detektieren und einen digitalisierten Intensitätswert für jedes Lichtabtastintervall erstellen. Für jedes Lichtabtastintervall kann die CPOS ein Pulsgewicht auf den digitalisierten Intensitätswert anwenden und das Ergebnis zu dem passenden Zeit-Bin des Intensitätshistogramms hinzufügen.
  • Bei 950 testet die CPOS, ob sie die erforderliche Anzahl von codierten Pulsen gesendet hat. Wenn die CPOS die erforderliche Anzahl von codierten Pulsen gesendet hat, fährt sie bei Block 960 fort, andernfalls kehrt sie zu Block 920 zurück.
  • Bei 960 wird ein Histogramm bestimmt, das den gewichteten Werten in einer Vielzahl von Zeit-Bins entspricht. Wie oben beschrieben, kann ein Zähler des Histogramms zu einem bestimmten Zeit-Bin bestimmt werden durch Akkumulieren der gewichteten Werte an Zeitpunkten innerhalb des bestimmten Zeit-Bins über eine Vielzahl von Zeitintervallen.
  • Bei 970 wird das Histogramm verwendet, um ein Signal zu detektieren, das den N Pulsfolgen entspricht. Beispielsweise kann die CPOS bestimmen, ob das Histogramm eine Sequenz von Werten aufweist, die mit dem Abgleichcode (Filter) übereinstimmen. Die CPOS kann melden, ob der Abgleichcode gefunden wurde und die Amplitude des Abgleichs. Der Abgleich kann die Erfassung des gewünschten Signals relativ zu Rauschen oder Interferenz von anderen Lichtquellen ermöglichen.
  • Als ein Beispiel kann ein Filter einen Satz von Werten beinhalten, die auf ein Fenster von Zeit-Bins eines Histogramms angewendet werden sollen. Der Filter kann über das Histogramm geschoben werden, um ein gefiltertes Histogramm zu berechnen, das Zähler aufweist, die verschiedenen Gleitpositionen des Profilfilters relativ zum Histogramm entsprechen. Jeder der Zähler des gefilterten Histogramms kann einer Überlappung des Profilfilters und des Histogramms an einer bestimmten Gleitposition entsprechen. Ein Maximalwert der Zähler des gefilterten Histogramms kann identifiziert werden, wodurch eine Detektion ermöglicht wird, z. B. wenn der Maximalwert über einem Schwellenwert liegt. Die bestimmte Gleitposition für den Maximalwert der Zähler kann der empfangenen Zeit entsprechen, die für Entfernungsmessungen verwendet werden kann.
  • Das Signal kann ein reflektiertes Signal sein, das durch die N Pulsfolgen verursacht wird, die von einem Objekt reflektiert werden, z. B. wenn das optische Messsystem konfiguriert ist, Entfernungsmessungen durchzuführen. Das Signal kann außerdem ein Kommunikationssignal sein, z. B. wenn sich die Lichtquelle an einer Stelle befindet und sich die Fotosensoren an einer verschiedenen Stelle befinden. Eine solche Konfiguration kann für Kommunikationszwecke verwendet werden. Zum Beispiel kann ein Mikrowellenübertragungsmast Daten an einen Empfangsmast übertragen. Die übertragenen Daten können kodierte Pulse beinhalten, die dazu beitragen können, Fehler beim Datenempfang zu reduzieren, die durch Rauschen oder Interferenz von anderen Quellen verursacht werden können. Der Empfangsmast kann Pulsfolgen identifizieren und ein Histogramm erstellen, indem er eine beliebige Zeit zwischen zwei Pulsfolgen als Startzeit für ein erstes Zeit-Bin auswählt. Ein Abgleichfilter kann dann angewendet werden (z. B. durch Gleiten über das Histogramm); und wenn ein ausreichender Abgleich gefunden wird, kann dieses Kommunikationssignal detektiert werden. Eine ausreichende Übereinstimmung kann durch den Maximalwert gemessen werden, den das gefilterte Histogramm erhalten hat. Das System kann außerdem ein Interferenzsignal von einer anderen CPOS auf ähnliche Weise detektieren, die verwendet wird, um das Kommunikationssignal zu detektieren. Wenn Interferenz gemessen wird, können einige Implementierungen den übertragenen Code ändern, z. B. ist der Interferenzcode ähnlich dem Code, der aktuell verwendet wird.
  • Bei 980 kann ein Abstand zum Objekt bestimmt werden. Beispielsweise kann eine Empfangszeit bestimmt werden, die den N Pulsfolgen relativ zum Startsignal entspricht. Ein Abstand zum Objekt kann unter Verwendung der Empfangszeit bestimmt werden. Die Empfangszeit kann von den Übertragungszeiten der Pulsfolgen versetzt sein, aber ein solcher Versatz kann berücksichtigt werden. Dementsprechend kann die CPOS die Zeit melden, zu der sie detektiert wurde. Der Abstand kann einer Umlaufzeit zwischen der Empfangszeit und einer Startzeit des Startsignals entsprechen, und somit kann der Abstand in der Zeit ausgedrückt werden.
  • Das detektierte Signal kann für andere Zwecke als zur Entfernungsmessung verwendet werden. Beispielsweise kann die Qualität des detektierten Signals verwendet werden, um das Reflexionsvermögen eines Objekts zu messen. Wenn beispielsweise das detektierte Signal eine starke Intensität aufweist, kann das System bestimmen, dass das Objekt ein hohes Reflexionsvermögen aufweist. Implementierungen für Kommunikations- und Interferenzmessungen sind vorstehend erörtert. Zur Detektion von Interferenz von einer anderen Lichtquelle würde das detektierte Signal von einem anderen Satz von Pulsfolgen stammen, der von der interferierenden Lichtquelle übertragen wird.
  • Als Verallgemeinerung können N+1 eindeutige Codes mit N+1 eindeutigen Gewichten übertragen, um ein N-dimensionales Vektorraumhistogramm zu erzeugen. Zum Beispiel kann anstelle eines Bins, der eine vorzeichenbehaftete Zahl hält, der Bin einen 1-D-Vektor (z. B. äquivalent zu einer vorzeichenbehafteten Zahl) halten, indem mindestens zwei eindeutige Codes übertragen werden: ein positiver und ein negativer. Um einen 2-D-Vektor zu speichern (z. B. in polaren oder kartesischen Koordinaten), kann das System mindestens drei eindeutige Codes übertragen, die mit drei verschiedenen Polarwinkeln gewichtet werden und zu einem einzelnen 2-D-Vektor summieren könnten. Ein N-D-Vektor (definiert mit N getrennten Zahlen, die alle innerhalb eines einzelnen „Bins“ gehalten werden) würde N+1 verschiedene Codes erfordern, die jeweils in einem verschiedenen Winkel (in anderen Worten mit einer Komponente zu ihrem Gewicht, die orthogonal zu allen anderen Gewichten ist) gewichtet werden, wenn die Vektorsummierung durchgeführt wird. Durch Erhöhen der Dimensionalität können fortschrittlichere Kodiertechniken wie Quadraturphasenkodierung oder Codemultiplexzugriff (CDMA) verwendet werden, die in der HF-Kommunikation verwendet werden. Ein N-dimensionaler angepasster Filter kann in diesem Kontext verwendet werden.
  • Da ein LIDAR-System das Verfahren 900 während seiner Operation implementiert, kann das LIDAR-System kontinuierlich Abstände zu Objekten im Feld messen. Dementsprechend kann das Verfahren 900, sobald der Abstand zu einem Objekt bestimmt ist, zu Block 920 zurückkehren, um eine andere Reihe von emittierenden Pulsfolgen zu beginnen und die emittierten Pulsfolgen zu detektieren, um ein Histogramm zum Bestimmen eines Abstands zu einem Objekt im Feld zu bestimmen. Abstände müssen möglicherweise ständig durch das Verfahren 900 gemessen werden, da das LIDAR-System möglicherweise ständig Abstände zu Objekten im Feld messen muss, wie etwa, wenn das LIDAR-System für Navigationszwecke verwendet wird und sich das LIDAR-System innerhalb des Felds bewegt.
  • Das Verfahren 900 kann nach dem Bestimmen des Abstands zum Objekt bei Block 980 bestimmen, ob ein Exit-Befehl von der CPOS bei Block 990 empfangen wurde. Wenn ein Exit-Befehl empfangen wurde, kann das Verfahren 900 das Messen von Abständen bei Block 999 stoppen, andernfalls kann das Verfahren 900 das Messen von Abständen zu Objekten durch Zurückkehren zu Block 920 fortsetzen.
  • Wie vorstehend erwähnt, kann das Verfahren 900 verwendet werden, um Interferenzen zwischen Kanälen zu reduzieren. Beispielsweise kann das Verfahren 900 für eine Vielzahl von Kanälen von Lichtquellen und Fotosensoren als Teil einer Vielzahl von optischen Messungen wiederholt werden. Die Vielzahl der optischen Messungen kann sich zeitlich überlappen, z. B. im Wesentlichen gleichzeitig durchgeführt werden. Somit kann jeder Kanal gleichzeitig eine Messung durchführen. Um Interferenzen zu reduzieren, können die Codes für mindestens einige der Kanäle verschieden sein. Zum Beispiel können die Pulsmuster der N Pulsfolgen von mindestens zwei Kanälen der Vielzahl von Kanälen verschieden sein, wodurch verschiedene Histogrammmuster für verschiedene Kanäle verursacht werden. Zusätzlich oder stattdessen können die Gewichte, die den N Pulsfolgen von mindestens zwei Kanälen der Vielzahl von Kanälen zugewiesen sind, verschieden sein, wodurch verschiedene Histogrammmuster für verschiedene Kanäle verursacht werden.
  • IV. KONSTRUKTION VON AKTIVEN BILDGEBERSYSTEMEN
  • 10 ist ein vereinfachtes Diagramm, das eine detaillierte Ansicht eines beispielhaften aktiven optischen Bildgebersystems 1000 mit einem breiten Sichtfeld veranschaulicht, das in der Lage ist zur schmalbandigen Bildgebung gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Das aktive optische Bildgebersystem 1000 kann Festkörper- oder Abtastarchitekturen verwenden, wie hierin erwähnt. In einigen Ausführungsformen kann das aktive optische Bildgebersystem 1000 ein Lichtdetektionssystem 1001 und ein Lichtemissionssystem 1002 beinhalten, das im Gegensatz zu passiven optischen Bildgebersystemen ist. Das Lichtemissionssystem 1002 stellt eine aktive Beleuchtung von mindestens einem Abschnitt eines Felds bereit, in dem das System 1000 mit schmalbandigen Lichtstrahlen 1004 positioniert ist. Das Lichtdetektionssystem 1001 detektiert das schmalbandige Licht, das vom Lichtemissionssystem 1002 emittiert wird, nachdem es von Objekten im Feld als reflektierte Lichtstrahlen 1006 reflektiert wurde. Das Lichtdetektionssystem 1001 kann im Wesentlichen dem Lichtdetektionssystem 200 ähnlich sein, das hierin in Bezug auf 2 erörtert wurde. Somit können Details der Bulk-Empfängeroptik 1008, des Lichtkegels 1010, des mikrooptischen Empfängerkanals 1012 in der mikrooptischen Empfängerschicht 1014 und der Fotodetektoren 1016 hierin in Bezug auf 2 referenziert werden und werden der Kürze halber hierin nicht erörtert.
  • In einigen Ausführungsformen beinhaltet das Lichtemissionssystem 1002 eine Bulk-Übertrager-Optik 1018 und eine lichtemittierende Schicht 1020, die aus einem ein- oder zweidimensionalen Array von Lichtemittern 1022 gebildet ist. Jeder Lichtemitter 1022 kann konfiguriert sein, um diskrete Strahlen von schmalbandigem Licht zu erzeugen. In einigen Ausführungsformen ist die lichtemittierende Schicht 1020 konfiguriert, um die diskreten Lichtstrahlen selektiv durch die Bulk-Übertrager-Optik 1018 gemäß einem Beleuchtungsmuster zu projizieren, das in Größe und Geometrie über einen Bereich von Abständen vom Lichtemissionssystem 1002 den Sichtfeldern der Empfängerkanäle im mikrooptischen Empfängerkanalarray 1014 entspricht. Die Lichtemitter 1022 können jede geeignete lichtemittierende Vorrichtung sein, wie etwa ein oberflächenemittierender Laser mit vertikalem Resonator (VCSELS), die auf einem oder mehreren monolithischen Chips integriert sind, oder jede andere Art von Laserdiode. Die Lichtemitter 1022 können Kegel aus schmalbandigem Licht 1024 erzeugen, die zur Bulk-Übertrager-Optik 1018 gerichtet werden, die Kegel aus Licht 1024 kollimieren und dann das kollimierte Licht an entfernte Ziele im Feld als emittierte Lichtstrahlen 1004 ausgeben kann. In einigen Ausführungsformen ist die Bulk-Übertragungsoptik 1018 bildraumtelezentrisch.
  • In zusätzlichen und alternativen Ausführungsformen werden Lichtstrahlen 1004 von den Lichtkegeln 1024 durch eine mikrooptische Übertragerschicht (nicht gezeigt) auf eine Zwischenebene im Raum fokussiert, bevor sie durch die Bulk-Übertrageroptik 1018 zu entfernten Zielen gerichtet werden, um die Helligkeit und Intensität des Lichts zu verbessern, das vom Lichtemissionssystem 1002 emittiert wird. In solchen Ausführungsformen sind Ausführungsformen, das Lichtemissionssystem 1002 und das Lichtdetektionssystem 1001 so konfiguriert, dass jeder mikrooptische Übertragerkanal (nicht gezeigt) mit einem entsprechenden mikrooptischen Empfängerkanal 1012 gepaart ist und die Zentren ihrer Sichtfelder ausgerichtet sind, um in einem bestimmten Abstand vom Sensor überlappend zu sein, oder ihre Hauptstrahlen parallel hergestellt sind. In weiteren zusätzlichen und alternativen Ausführungsformen sind die Fernfeldlichtstrahlen, die vom Lichtemissionssystem 1002 emittiert werden, von ähnlicher Größe und Divergenzwinkel wie die Fernfeldsichtfelder jedes mikrooptischen Empfängerkanals 1012. Details der Lichtemissionssysteme 1002 mit der mikrooptischen Übertragerschicht zur Verbesserung der Helligkeit und Intensität des ausgegebenen Lichts werden unten ausführlich erörtert.
  • Wie aus der Darstellung der parallelen Lichtstrahlen 1004 und 1006 in 10 ersichtlich ist, weist jeder mikrooptische Empfängerkanal 1012 ein nicht überlappendes Sichtfeld über einen Schwellenabstand hinaus auf. Wie in 10 dargestellt, beinhaltet jeder mikrooptische Empfängerkanal 1012 eine Apertur aus der Vielzahl von Aperturen, eine Linse aus der Vielzahl von Linsen und einen Fotodetektor aus der Vielzahl von Fotodetektoren, wobei die Apertur jedes Kanals ein diskretes Sichtfeld für das Pixel im Kanal definiert, das über einen Schwellenabstand innerhalb der Sichtfelder der anderen mikrooptischen Empfängerkanäle nicht überlappt. Auf diese Weise empfängt jeder mikrooptische Empfängerkanal reflektiertes Licht, das einer diskreten Position im Feld entspricht, die nicht durch einen anderen mikrooptischen Empfängerkanal in der mikrooptischen Empfängerkanalschicht 1014 gemessen wird.
  • A. Verbesserung der Helligkeit und Intensität von Übertragern in aktiven Bildgebersystemen
  • Ausführungsformen der vorliegenden Offenbarung betreffen einen LIDAR-Sensor, der unter anderem zur Hinderniserkennung und -vermeidung in autonomen Fahrzeugen verwendet werden kann. Einige spezifische Ausführungsformen betreffen LIDAR-Sensoren, die Konstruktionsmerkmale beinhalten, die es ermöglichen, die Sensoren billig genug und mit ausreichender Zuverlässigkeit herzustellen und einen ausreichend kleinen Platzbedarf zur Verwendung in Massenmarktautomobilen, Lastwagen und anderen Fahrzeugen zu haben. Beispielsweise beinhalten einige Ausführungsformen einen Satz von oberflächenemittierenden Lasern mit vertikalem Resonator (VCSELs) als Beleuchtungsquellen, die Strahlung in ein Feld emittieren, und beinhalten Arrays von Einzelphotonen-Lawinendioden(SPAD)-Detektoren als einen Satz von Fotosensoren (Detektoren), die Strahlung detektieren, die von einer Oberfläche im Feld zurückreflektiert wird. Die Verwendung von VCSELs als Emitter und SPADs als Detektoren ermöglicht es, mehrere Messungen gleichzeitig durchzuführen (d. h. die VCSEL-Emitter können gleichzeitig gezündet werden) und ermöglicht auch, den Satz von Emittern und den Satz von Fotosensoren jeweils unter Verwendung von Standard-CMOS-Prozessen auf einem einzelnen Chip herzustellen, was den Herstellungs- und Zusammenbauprozess erheblich vereinfacht.
  • Die Verwendung von VCSELs und SPADs in bestimmten Ausführungsformen stellt jedoch Herausforderungen dar, die verschiedene Ausführungsformen der vorliegenden Offenbarung überwinden. Zum Beispiel sind VCSELs viel weniger leistungsfähig als typische Laser, die in vorhandenen LIDAR-Architekturen verwendet werden, und SPADs sind viel weniger effizient als die typischen Detektoren, die in den vorhandenen LIDAR-Architekturen verwendet werden. Um diese Herausforderungen sowie Herausforderungen zu lösen, die durch das gleichzeitige Zünden mehrerer Emitter dargestellt werden, beinhalten bestimmte Ausführungsformen der Offenbarung verschiedene optische Komponenten (z. B. Linsen, Filter und eine Aperturschicht), die in Kombination mit mehreren Arrays von SPADs arbeiten können, wobei jedes Array einem anderen Pixel (z. B. Position im Feld) entspricht, wie hierin beschrieben. Zum Beispiel kann, wie hierin in Bezug auf 2 erörtert, ein Lichtdetektionssystem 200 eine mikrooptische Empfängerschicht 204 zum Verstärken des Lichts beinhalten, das von den Fotosensoren 216, z. B. SPADs, detektiert wird.
  • Da VCSELs in vorhandenen LIDAR-Architekturen weniger leistungsfähig als typische Laser sind, kann das Lichtemissionssystem 1002 in einigen Ausführungsformen konfiguriert sein, um die Fähigkeit des Bildgebersystems 1000 zu verbessern, eine Lichtentfernungsmessfunktionalität durchzuführen. Das heißt, die Qualität des Lichts, das vom Lichtemissionssystem 1002 emittiert wird, kann verbessert werden, um die Genauigkeit und Effizienz der Lichtentfernungsmessung zu verbessern. Die Qualität von übertragenem Licht für Lichtentfernungsmess- und Bildgebungszwecke kann in Bezug auf Helligkeit und Intensität definiert werden. Die Helligkeit und Intensität der Lichtstrahlen 1004, die von der Bulk-Übertrageroptik 1018 emittiert werden, können durch Modifizieren und/oder Implementieren einer oder mehrerer optischer Übertragerschichten verbessert werden, wie hierin weiter erörtert wird.
  • Die Helligkeit eines übertragenden Lichts kann durch die optische Leistung (in Watt) pro Raumwinkel definiert werden. Somit erzeugen Lichtquellen, die Licht mit enger Kollimation, d. h. geringer Divergenz, ausgeben, Licht, das eine hohe Helligkeit aufweist. Umgekehrt erzeugen Lichtquellen, die Licht mit hoher Divergenz ausgeben, Licht, das eine geringe Helligkeit aufweist. Die Intensität des Lichts kann durch die optische Leistung pro Fläche definiert werden, was bedeutet, dass Licht, das mit einer bestimmten Leistung emittiert wird, eine höhere Intensität aufweist, wenn es in einem kleinen Bereich eng verdichtet ist. Dementsprechend weisen Lichtquellen, die Licht in einem eng verdichteten Strahl ausgeben, eine höhere Intensität auf als Lichtquellen, die Licht in einem weniger verdichteten Strahl ausgeben, selbst wenn beide Lichtquellen Licht ausgeben, das eine geringe Divergenz aufweist. Wie hierin zu erkennen ist, können Übertragerkomponenten für LIDAR-Systeme in Ausführungsformen der vorliegenden Offenbarung mit mikrooptischen Komponenten konfiguriert sein, die es dem Übertrager ermöglichen, Licht auszugeben, das eine verbesserte Helligkeit und Intensität im Vergleich zu einem ähnlichen Übertrager ohne die mikrooptischen Komponenten aufweist.
  • 11 ist ein vereinfachtes Querschnittsansichtsdiagramm eines ersten exemplarischen verbesserten Lichtemissionssystems 1100 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Das Lichtemissionssystem 1100 kann ein Lichtemitterarray 1102 mit Lichtemittern 1104 beinhalten, die beispielsweise ohne Einschränkung beliebige von LEDs, Laserdioden, VCSELs oder dergleichen zum Emittieren von Licht 1113 umfassen können. Ein VCSEL ist ein Typ einer Halbleiterlaserdiode mit Laserstrahlemission senkrecht von der oberen Oberfläche. Es ist zu beachten, dass das in 11 dargestellte lineare Array jede geometrische Form des Emitterarrays sein kann, einschließlich und ohne Einschränkung kreisförmig, rechteckig, linear oder jede andere geometrische Form.
  • Das verbesserte Lichtemissionssystem 1100 kann ein mikrooptisches Übertrager-Kanalarray 1106 beinhalten, das von dem Lichtemitterarray 1102 durch einen offenen Raum 1118 getrennt ist. Jeder mikrooptische Übertragerkanal 1108 ist mit einem entsprechenden Empfängerkanal gepaart (z. B. Empfängerkanal 1012 in 10) und die Zentren ihrer Sichtfelder sind ausgerichtet, um in einem bestimmten Abstand vom optischen Bildgebersystem überlappend zu sein. Das mikrooptische Übertragerkanalarray 1106 kann aus einem Substrat 1119 gebildet sein, das zwischen einer ersten optischen Oberfläche 1120, die auf einer Seite positioniert ist, die dem Lichtemitterarray 1102 zugewandt ist, und einer zweiten optischen Oberfläche 1121, die auf einer gegenüberliegenden Seite positioniert ist, die vom Lichtemitterarray 1102 abgewandt ist, eingebettet ist. Sowohl die erste als auch die zweite optische Oberfläche 1120 und 1121 können jeweils als ein Array von konvexen, mikrooptischen Linsen konfiguriert sein, wobei jede konvexe Linse der ersten optischen Oberfläche 1120 konfiguriert ist, um optisch mit einer jeweiligen konvexen Linse der zweiten optischen Oberfläche 1120 ausgerichtet zu sein, sodass Licht, das durch die erste optische Oberfläche 1120 übertragen wird, anschließend durch die zweite optische Oberfläche 1121 übertragen werden kann. Die entsprechenden konvexen Linsen von der ersten und der zweiten optischen Oberfläche 1120 und 1121 können voneinander weg weisen, wie in 11 dargestellt. In bestimmten Ausführungsformen haben konvexe Linsen der ersten optischen Oberfläche 1120 eine erste optische Leistung und konvexe Linsen der zweiten optischen Oberfläche 1121 haben eine zweite optische Leistung, die sich von der ersten optischen Leistung unterscheidet. Beispielsweise kann die zweite optische Leistung größer sein als die erste optische Leistung, sodass die Brennweite der zweiten optischen Leistung kürzer ist als die Brennweite der ersten optischen Leistung. Das Substrat 1119 kann aus jedem geeigneten Material gebildet sein, das im Wellenlängenbereich der Lichtemitter 1104 durchlässig ist, wie z. B. Silizium, Siliziumdioxid, Borosilikatglas, Polymer und dergleichen. Die erste und die zweite optische Oberfläche 1120 und 1121 können aus einem transparenten Polymer gebildet sein, das auf jeweilige gegenüberliegende Oberflächen des Substrats 1119 aufgedruckt ist.
  • In einigen Ausführungsformen kann das mikrooptische Übertrager-Kanalarray 1106 aus einem monolithischen Array von mikrooptischen Übertragerkanälen 1108 gebildet sein. Jeder mikrooptische Übertragerkanal 1108 kann eine erste konvexe Linse von der ersten optischen Oberfläche 1120, eine entsprechende zweite konvexe Linse von der zweiten optischen Oberfläche 1121 und einen entsprechenden Abschnitt des Substrats 1119 beinhalten, der zwischen den beiden konvexen Linsen positioniert ist. Jeder mikrooptische Übertragerkanal 1108 kann einem jeweiligen Lichtemitter 1104 entsprechen, sodass Licht, das vom Lichtemitter 1104 ausgegeben wird, während der Operation zuerst durch die erste konvexe Linse, durch den entsprechenden Bereich des Substrats 1119 und dann durch die zweite konvexe Linse passiert.
  • Sobald Licht aus der zweiten konvexen Linse der zweiten optischen Oberfläche 1121 emittiert, bildet das Licht ein Miniatur-Punktbild 1110, das ein reales Bild des entsprechenden Lichtemitters 1104, aber eine reduzierte Größe des entsprechenden Lichtemitters 1104 ist. In einigen Ausführungsformen sind die Miniatur-Punktbilder 1110 zwischen dem mikrooptischen Übertrager-Kanalarray 1106 und der Bulk-Übertrager-Optik 1114 positioniert. So können beispielsweise Miniatur-Punktbilder 1110 innerhalb jeweiliger Öffnungen einer Aperturschicht 1109 gebildet werden. Jede Apertur kann ein Stiftloch in einer reflektierenden oder opaken Schicht sein, in der sich emittiertes Licht fokussiert, um Miniatur-Punktbilder 1110 zu bilden. Von dort aus bildet das Licht, wenn es sowohl vom Lichtemitter als auch vom mikrooptischen Kanal weg fortgesetzt wird, einen Lichtkegel 1112, der in Richtung Bulk-Übertrageroptik 1114 reicht.
  • Gemäß einigen Ausführungsformen der vorliegenden Offenbarung kann der Divergenzgrad des emittierten Lichts 1113 kleiner als der Divergenzgrad des Lichtkegels 1112 sein. Diese Divergenz-Diskrepanz kann durch einen mikrooptischen Übertragerkanal 1108 erzeugt werden, insbesondere durch die optische Leistung der zweiten optischen Oberfläche 1121. Da die Divergenz des Lichts aus dem mikrooptischen Übertragerkanal 1108 größer als die Divergenz des emittierten Lichts 1113 von den Lichtemittern 1104 ist, kann das Miniatur-Punktbild 1110 ein reales Bild des Lichtemitters 1104 sein, aber ein Vielfaches kleiner als die Größe des Lichtemitters 1104 und mit der gleichen Anzahl von Photonen wie das emittierte Licht 1113. Der resultierende Lichtkegel 1112, der nach dem Bilden der realen Punktbilder gebildet wird, wird dann als diskrete Lichtstrahlen für jeden Lichtemitter 1104 in das Feld projiziert, nachdem sie durch die Bulk-Übertrager-Optik 1114 geleitet wurden. Die resultierenden Lichtstrahlen, die aus dem Lichtemissionssystem 1100 austreten, sind hochkollimierte Lichtstrahlen, die eine kleine Querschnittsfläche (kleiner als die Oberfläche des Lichtemitters 1104) aufweisen, was zu einem Lichtemissionssystem 1100 führt, das Licht mit verbesserter Helligkeit und Intensität ausgeben kann.
  • Es ist zu beachten, dass die Bulk-Übertrager-Optik 1114 entweder eine einzelne Linse oder ein Cluster von Linsen beinhalten kann, wobei zwei oder mehr Linsen zusammenwirken, um die Bulk-Übertrager-Optik 1114 zu bilden. Die Verwendung mehrerer Linsen innerhalb der Bulk-Übertrageroptik 1114 könnte die numerische Apertur erhöhen, die RMS-Punktgröße reduzieren, die Bildebene abflachen, die Telozentrie verbessern oder anderweitig die Leistung der Bulk-Übertrageroptik 1114 verbessern. Es ist auch zu beachten, dass sich für einige Ausführungsformen die Lichtkegel 1112 überlappen können, um den Kegelüberlappungsbereich 1116 zu bilden.
  • Um die Operation und die Effektivität des mikrooptischen Übertrager-Kanalarrays 1106 besser zu verstehen, wird eine ausführlichere Erläuterung der Operation des Lichtemissionssystems 1100 erörtert. Für verbesserte Lichtemissionssysteme 1100, die ein aus VCSEL-Emittern gebildetes Lichtemitterarray verwenden, könnte ein exemplarischer Anfangsradius für einen Emitter 12,5 µm betragen, wobei Licht in einem 10°-Halbwinkelkegel eingelassen wird. Solche Emitter würden typischerweise 50 µW pro Quadratmikron aktiver Fläche ausgeben. Ein divergierender Lichtkegel von jedem Emitter 1104 wird in einen mikrooptischen Übertragerkanal 1108 aufgenommen, und dann wird ein konvergierender Lichtkegel durch denselben mikrooptischen Kanal ausgegeben, um einen konvergierenden Lichtkegel mit einem Halbwinkel von beispielsweise 20° zu produzieren. Somit ist für einige Ausführungsformen der Kegelwinkel, der von einem Emitter 1104 erzeugt wird, kleiner als der Kegelwinkel, der von einem entsprechenden mikrooptischen Übertragerkanal 1108 erzeugt wird. Der konvergierende Lichtkegel, der vom mikrooptischen Übertragerkanal 1108 ausgeht, erzeugt dann ein Miniatur-Punktbild 1110 des Emitters. Für die Ausführungsform gemäß 11 ist das Miniatur-Punktbild 1110 ein reales Bild und weist eine Größe auf, die kleiner als die Größe eines entsprechenden Lichtemitters 1104 ist. Es ist zu beachten, dass nicht alle Strahlen von einem gegebenen Emitter alle in einen beliebig kleinen Punkt fokussiert werden können. Die Miniatur-Punktbildgröße wird typischerweise durch eine „optische Invariante“ gesteuert: Θ _s * r_s > = Θ _e * r_e
    Figure DE202018006696U1_0001
    wobei Θ_s der Randstrahlhalbwinkel des fokussierten Punkts ist, r_s der Radius des fokussierten Punkts ist, Θ_e der Randstrahlhalbwinkel des ursprünglichen Emitters ist und r_e der Radius des ursprünglichen Emitters ist. So ist in diesem Beispiel der kleinste Miniatur-Punktbildradius, der gebildet werden könnte (während gleichzeitig alle Strahlen vom Emitter aufgenommen werden): 10 / 20 × 12,5 μ m=6 ,25 μ m
    Figure DE202018006696U1_0002
  • Es ist zu beachten, dass dieser kleinere Punkt ein Viertel der Fläche des ursprünglichen Emitters aufweist und somit eine Leistungsdichte von 200 µW pro Quadratmikron der Punktfläche aufweist. Jeder mikrooptische Übertrager 1108 weist typischerweise eine oder mehrere optische Oberflächen auf, die Eigenschaften aufweisen, die beispielsweise und ohne Einschränkung eine Brennweite von 50 µm und einen Linsendurchmesser von 80 µm beinhalten können. Für einige Ausführungsformen kann der Abstand zwischen dem Lichtemitter 1104 und einem entsprechenden mikrooptischen Übertragerkanal 1108 beispielsweise und ohne Einschränkung 150 µm sein. Der offene Raum 1118 zwischen dem Emitterarray 1102 und dem mikrooptischen Übertrager-Kanalarray 1106, wie in 11 dargestellt, kann beispielsweise und ohne Einschränkung ein Luftspalt sein, wie er durch Herstellungsprozesse erzeugt wird, die typischerweise verwendet werden, um MEMS-Vorrichtungen herzustellen. Der Abstand zwischen dem Emitterarray 1102 und dem mikrooptischen Übertragerkanalarray 1106 kann beispielsweise 150 µm sein.
  • Die Bulk-Übertrager-Optik 1114 ist vor den mikrooptischen und emittierenden Schichten positioniert, sodass die Brennebene der Bulk-Abbildungsoptik mit miniaturisierten Punktbildern 1110 zusammenfällt. Die Bulk-Übertrager-Optik 1114 nimmt (einen) divergierende(n) Lichtkegel 1112 auf und gibt einen kollimierten Strahl aus. Seine numerische Apertur kann mindestens groß genug sein, um den gesamten Bereich von Winkeln im (den) divergierenden Strahlkegel(n) aufzunehmen, so dass beispielsweise und ohne Einschränkung die numerische Apertur (NA) = 0,34 in diesem Beispiel gilt. Außerdem kann die Bulk-Übertrageroptik 1114 bildraumtelezentrisch sein, da der (die) Lichtkegel 1112, der (die) aus der mikrooptischen Schicht austritt (austreten), alle parallel sein können (anstatt dass ihre Zentrumsachsen auf das Zentrum der Bulk-Optik gerichtet sind). In einer Ausführungsform kann Licht die Bulk-Übertrager-Optik 1114 ungefähr kollimiert verlassen. Es ist zu beachten, dass sich die Qualität der Strahlkollimation auf die Größe des „emittierenden Objekts“ (Miniatur-Punktbilder 1110) auf der Brennebene bezieht. Da diese „emittierende Objekt“-Größe durch Verwendung eines mikrooptischen Stapels reduziert wurde, wird ein besserer Kollimationswinkel erhalten, als wenn das Emitterobjekt einfach direkt abgebildet wurde.
  • Auch wenn 11 ein verbessertes Lichtemissionssystem mit einem mikrooptischen Kanalarray zeigt, das aus einem Substrat gebildet ist, das zwischen einer ersten und einer zweiten optischen Oberfläche eingebettet ist und in einem Abstand von einem Lichtemitterarray durch einen offenen Raum positioniert ist, um die Helligkeit und Intensität von Licht zu verbessern, das vom Lichtemissionssystem ausgegeben wird, sind Ausführungsformen nicht auf solche Konfigurationen beschränkt. Vielmehr können andere Ausführungsformen nicht notwendigerweise einen offenen Raum oder zwei optische Oberflächen implementieren, wie hierin in Bezug auf 12 näher erörtert.
  • 12 ist ein vereinfachtes Querschnittsansichtsdiagramm eines zweiten exemplarischen verbesserten Lichtemissionssystems 1200 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Ähnlich wie das erste exemplarische verbesserte Lichtemissionssystem 1100 kann das zweite exemplarische verbesserte Lichtemissionssystem 1200 eine Bulk-Abbildungsoptik 1214 und ein Lichtemitterarray 1202 beinhalten. Im Gegensatz zum ersten exemplarischen Lichtemissionssystem 1100 kann das zweite exemplarische Lichtemissionssystem 1200 jedoch ein mikrooptisches Übertrager-Kanalarray 1206 beinhalten, das direkt auf einer Emissionsfläche des Lichtemitterarrays 1202 positioniert ist, anstatt durch einen offenen Raum/Luftspalt getrennt zu sein, wie in 12 dargestellt.
  • In solchen Ausführungsformen kann das mikrooptische Übertrager-Kanalarray 1206 aus einem Substrat 1219 und einer optischen Oberfläche 1220 gebildet sein. Die optische Oberfläche 1220 kann auf einer ersten Oberfläche 1230 des Substrats 1219 positioniert sein. Die zweite Oberfläche 1231 des Substrats 1219 kann gegenüber der ersten Oberfläche 1230 angeordnet und gegen das Lichtemitterarray 1202 positioniert sein, sodass Licht, das von den Emittern 1204 emittiert wird, zuerst durch das Substrat 1219 geleitet werden kann, bevor es die optische Oberfläche 1220 passiert. Die optische Oberfläche 1220 kann als ein Array von konvexen Linsen konfiguriert sein, wobei jede konvexe Linse der optischen Oberfläche 1220 konfiguriert ist, um optisch mit einem jeweiligen Lichtemitter 1204 ausgerichtet zu sein, sodass Licht, das durch den jeweiligen Lichtemitter 1204 ausgegeben wird, durch die jeweilige konvexe Linse der optischen Oberfläche 1220 übertragen kann. Konvexe Linsen von der optischen Oberfläche 1220 können von ihren jeweiligen Lichtemittern 1204 weg weisen, wie in 12 dargestellt, sodass ihre Brennpunkte weiter vom Lichtemitter 1204 entfernt sind. In bestimmten Ausführungsformen haben konvexe Linsen der optischen Oberfläche 1220 eine optische Leistung, die geeignet ist, um das emittierte Licht in reale Miniatur-Punktbilder 1210 zu konvergieren, die reale Bilder der entsprechenden Lichtemitter 1204, aber Bilder mit reduzierter Größe der entsprechenden Lichtemitter 1204 sind, wie die konvexen Linsen der zweiten optischen Oberfläche 1121 in 11. Die optische Oberfläche 1120 ermöglicht es dem emittierten Licht, in Lichtkegel 1212 zu divergieren, bevor es durch die Bulk-Bildgebungsoptik 1214 projiziert wird. Das Substrat 1219 und die optische Oberfläche 1220 können aus ähnlichen Materialien wie das Substrat 1119 und die optischen Oberflächen 1120 und 1121 gebildet sein, die hierin in Bezug auf 11 erörtert wurden. In einigen Ausführungsformen können sich die Lichtkegel 1212 überlappen, um den Kegelüberlappungsbereich 1216 zu bilden.
  • Ausführungsformen hierin können auch mikrooptische Kanalarrays implementieren, die keine konvexen Linsen beinhalten und die keine realen Bilder der Lichtemitter erzeugen. Vielmehr können einige Ausführungsformen konkave Oberflächen implementieren, um virtuelle Bilder der Lichtemitter zu erzeugen, wie hierin in Bezug auf 13 näher erörtert.
  • 13 ist ein vereinfachtes Querschnittsansichtsdiagramm eines dritten exemplarischen verbesserten Lichtemissionssystems 1300 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Ähnlich wie die ersten und zweiten exemplarischen verbesserten Lichtemissionssysteme 1100 und 1200 kann das dritte exemplarische verbesserte Lichtemissionssystem 1300 eine Bulk-Abbildungsoptik 1314 und ein Lichtemitterarray 1302 beinhalten. Im Gegensatz zu dem ersten und zweiten exemplarischen Lichtemissionssystem 1100 und 1200 kann das dritte exemplarische Lichtemissionssystem 1300 jedoch ein mikrooptisches Übertrager-Kanalarray 1306 beinhalten, das ein Array von konkaven Oberflächen anstelle eines Arrays von konvexen Linsen beinhaltet, wie in 13 dargestellt.
  • In solchen Ausführungsformen kann das mikrooptische Übertrager-Kanalarray 1306 aus einem Substrat 1319 und einer optischen Oberfläche 1320 gebildet sein. Die optische Oberfläche 1320 kann eine erste Oberfläche 1330 des Substrats 1319 sein, die in Richtung Bulk-Abbildungsoptik 1314 und weg von den Lichtemittern 1304 positioniert ist. Die zweite Oberfläche 1331 des Substrats 1319 kann gegenüber der ersten Oberfläche 1330 angeordnet und gegen das Lichtemitterarray 1302 positioniert sein, sodass Licht, das von den Emittern 1304 emittiert wird, zuerst durch das Substrat 1319 geleitet werden kann, bevor es durch die optische Oberfläche 1320 geleitet wird. Die optische Oberfläche 1320 kann jeweils als ein Array von konkaven Oberflächen konfiguriert sein, wobei jede konkave Oberfläche der optischen Oberfläche 1320 konfiguriert ist, um optisch mit einem jeweiligen Lichtemitter 1304 ausgerichtet zu sein, sodass Licht, das durch den jeweiligen Lichtemitter 1304 ausgegeben wird, durch die jeweilige konkave Oberfläche der optischen Oberfläche 1320 übertragen kann. In bestimmten Ausführungsformen haben die konkaven Oberflächen der optischen Oberfläche 1320 eine optische Leistung, die geeignet ist, um virtuelle Miniatur-Punkt-Bilder 1310 zu bilden, die virtuelle Bilder der entsprechenden Lichtemitter 1304, aber Bilder mit reduzierter Größe der entsprechenden Lichtemitter 1304 sind, und ermöglichen es dem emittierten Licht ferner, in Lichtkegel 1312 zu divergieren, bevor es durch die Bulk-Bildgebungsoptik 1314 projiziert wird. In einigen Ausführungsformen werden virtuelle Miniatur-Punktbilder 1310 innerhalb des Substrats 1319 gebildet, wie in 13 dargestellt. In einigen Ausführungsformen können sich die Lichtkegel 1312 überlappen, um den Kegelüberlappungsbereich 1316 zu bilden. Das Substrat 1319 kann aus ähnlichen Materialien wie das Substrat 1119 gebildet sein, das hierin in Bezug auf 11 erörtert wurde.
  • Es ist zu beachten, dass die Linsenkonfigurationen für die mikrooptischen Kanäle für Ausführungsformen, die in jeder der 11, 12 und 13 beschrieben sind, sich in Bezug darauf unterscheiden, wie viele Oberflächen optische Leistung aufweisen und die Formen dieser Oberflächen. Die in 11 dargestellte erste Ausführungsform profitiert von der Fähigkeit, zwei optische Leistungsoberflächen auf gegenüberliegenden Seiten eines Substrats zu verwenden, was es jeder Oberfläche ermöglichen könnte, flacher, sphärisch statt asphärisch oder anderweitig leichter hergestellt zu sein. Diese Ausführungsform beinhaltet eine Abstandshalterstruktur (nicht gezeigt), um einen Versatz zwischen dem mikrooptischen Kanalarray 1106 und dem Lichtemitterarray 1102 aufrechtzuerhalten. Ein Beispiel für eine solche Abstandshalterstruktur wäre ein Siliziumwafer mit Kanälen, die durch tiefes reaktives Ionenätzen gebildet werden. Die in 12 dargestellte zweite Ausführungsform profitiert davon, dass sie nur eine optische Leistungsoberfläche auf einem Substrat aufweist, das an dem Lichtemitterarray befestigt ist. Diese Art von Konfiguration vereinfacht die Herstellung, während auch eine verbesserte Helligkeit und Intensität erreicht wird. Die in 13 dargestellte dritte Ausführungsform teilt die Vorteile der in 12 dargestellten Ausführungsform, weist jedoch eine einzige optische Oberfläche auf, die aus konkaven Oberflächen anstatt konvexen Linsen gebildet ist; konkave Merkmale können oft leichter im Mikromaßstab herzustellen sein.
  • In einigen Ausführungsformen kann die Bulk-Abbildungsoptik für Lichtemissionssysteme einen oder mehrere Aperturstops beinhalten, um Streulicht zu reduzieren, das vom System emittiert wird. So ist beispielsweise 14 ein vereinfachtes Querschnittsansichtsdiagramm eines exemplarischen verbesserten Lichtemissionssystems 1400, das mit einer Bulk-Optik konfiguriert ist, die Aperturstops aufweist, gemäß einigen Ausführungsformen der vorliegenden Offenbarung. 14 ist im Wesentlichen 1 ähnlich, mit der Hinzufügung von Aperturstop-Varianten 1403, 1405 und 1406 für die Bulk-Übertrager-Optik 1414. Aperturstop(s), die in 14 dargestellt sind, können mit einer der 11 bis 13 verwendet werden. In 14 können die Aperturstops 1403, 1405 und 1407 kreisförmige oder ovale Öffnungen aufweisen, durch die Licht hindurchtreten kann, obwohl jede Öffnungsform verwendet werden kann, ohne vom Geist und Umfang der vorliegenden Offenbarung abzuweichen.
  • In einigen Ausführungsformen kann sich der Aperturstop 1403 auf einer Seite der Bulk-Übertrager-Optik 1414 befinden, die vom Lichtemitterarray 1402 und dem mikrooptischen Übertrager-Kanalarray 1406 abgewandt ist. In einigen zusätzlichen und alternativen Ausführungsformen kann sich der Aperturstop 1405 auf einer Seite der Bulk-Übertrager-Optik 1414 befinden, die dem Lichtemitterarray 1402 und dem mikrooptischen Übertrager-Kanalarray 1406 zugewandt ist. In noch einigen zusätzlichen und alternativen Ausführungsformen, in denen die Bulk-Empfänger-Optik 114 eine Vielzahl von Linsen beinhaltet, die zusammenwirken, kann der Aperturstop 1407 aus einem oder mehreren Aperturstops gebildet sein, die innerhalb der Vielzahl von Linsen angeordnet sind, die die Bulk-Übertrager-Optik 1414 bilden.
  • Die verschiedenen Konfigurationen und Stellen der Aperturstops 1403, 1405 und 1407 können die Art und Weise vorgeben, wie jeder Aperturstop im lichtemittierenden System funktioniert. Wenn beispielsweise alle Lichtkegel 1412 komprimiert werden, um sich nahe der Stelle des Aperturstops 1407 im Wesentlichen zu überlappen, dann wäre die Größe des Aperturstops 1407 in der Lage, sowohl den Anfangsdurchmesser der emittierten kollimierten Strahlen zu steuern als auch die von den Lichtemittern 1404 emittierten Randstrahlen abzuweisen. Das Zurückweisen bestimmter Strahlwinkel könnte das Spektrum des aus der Bulk-Optik emittierten Lichts effektiv verengen, da die Wellenlänge des von vielen Lasertypen emittierten Lichts mit dem Winkel variiert. Alternativ würde möglicherweise diese beste Stelle für den Aperturstop bei 1402 oder 1403 auftreten, je nach dem Design der Bulk-Übertrageroptik 1414. Mehrere Aperturstops können gleichzeitig verwendet werden - z. B. 1402, 1403 und 1404 alle in einer Bulk-Übertrager-Optik 1414 -, um Streulicht zu reduzieren, das vom lichtemittierenden System 1400 emittiert wird.
  • B. Optische Korrekturen für Astigmatismus
  • Wie hierin in Bezug auf 7 erwähnt, können Lichtdetektionssysteme und Lichtemissionssysteme innerhalb derselben Schutzstruktur eingeschlossen sein, z. B. das stationäre Gehäuse 702, das optisch transparente Fenster 704 und der stationäre Deckel 706 in 7. Licht, das vom Lichtemissionssystem emittiert wird, tritt in einigen Ausführungsformen aus dem transparenten Fenster 704 aus und Licht, das vom Lichtdetektionssystem detektiert wird, kann zunächst in das transparente Fenster 704 eintreten. Die Krümmung des transparenten Fensters 704 kann einige optische Aberrationen, wie beispielsweise Astigmatismus, induzieren. Da das transparente Fenster eine zylindrische Struktur aufweisen und gut gesteuert werden kann, kann es mit einer oder mehreren zusätzlichen optischen Strukturen korrigiert werden. In einigen Ausführungsformen können Lichtemissions- und/oder -detektionssysteme mit korrigierenden optischen Strukturen konfiguriert sein, um den Astigmatismus zu kompensieren, der durch das transparente Fenster verursacht wird, wie hierin weiter erörtert.
  • 15A-15C sind Querschnittsansichten vereinfachter Diagramme beispielhafter aktiver Bildgebersysteme mit verschiedenen Implementierungen von korrigierenden optischen Strukturen für Astigmatismus gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Insbesondere ist 15A ein vereinfachtes Querschnittsansichtsdiagramm eines aktiven Bildgebersystems 1500 mit einer korrigierenden optischen Struktur als Teil der Bulk-Abbildungsoptik, 15B ist ein vereinfachtes Querschnittsansichtsdiagramm eines aktiven Bildgebersystems 1501 mit einer korrigierenden optischen Struktur als Teil des mikrooptischen Empfängerkanalarrays und 15C ist ein vereinfachtes Querschnittsansichtsdiagramm eines aktiven Bildgebersystems 1502 mit einer korrigierenden optischen Struktur als Teil des mikrooptischen Übertragerkanalarrays. Aktive Bildgebersysteme 1500, 1501 und 1502 beinhalten jeweils ein Lichtdetektionssystem 1504 und ein Lichtemissionssystem 1506. Komponenten der aktiven Bildgebersysteme 1500, 1501 und 1502 sind im Wesentlichen dem aktiven optischen Bildgebersystem 1000 in 10 ähnlich, mit der Hinzufügung der korrigierenden optischen Strukturen. Somit werden die Komponenten, die mit dem aktiven optischen Bildgebersystem 1000 geteilt werden, der Kürze halber nicht erörtert.
  • Wie in 15A dargestellt, kann das aktive Bildgebersystem 1500 innerhalb einer Umfassung untergebracht sein, die ein transparentes Fenster 1508 enthält. Das transparente Fenster 1508 ist mindestens transparent für die Wellenlänge des Lichts, bei dem die Emitter 1510 arbeiten. Die gekrümmte Form des transparenten Fensters 1508 kann eine optische Aberration, wie beispielsweise einen Astigmatismus, in Lichtstrahlen 1511 induzieren, die vom Lichtemissionssystem 1506 emittiert werden, wenn Lichtstrahlen 1511 durch das transparente Fenster 1508 aus der Umfassung austreten. Lichtstrahlen 1512 treten dann durch das transparente Fenster 1508 nach dem Reflektieren von einem Objekt im Feld zurück in die Umfassung ein, was eine zusätzliche optische Aberration zu den empfangenen Lichtstrahlen induzieren kann. Um diese optischen Aberrationen zu korrigieren, kann das Lichtdetektionssystem 1504 eine korrigierende Bulk-Abbildungsoptik 1514 beinhalten, die speziell ausgelegt ist, um den erwarteten Astigmatismus zu kompensieren, der durch das transparente Fenster 1508 induziert wird. Zum Beispiel kann die korrigierende Bulk-Abbildungsoptik 1514 eine korrigierende Linse 1516 zusätzlich zu der Bulk-Empfänger-Optik 1518 beinhalten. Die korrigierende Linse 1516 kann jede geeignete Linse sein, die in der Lage ist, den Astigmatismus zu negieren, der durch das transparente Fenster 1508 verursacht wird, wie etwa eine zylindrische Linse. Die korrigierende Linse 1516 kann in einigen Ausführungsformen zwischen dem transparenten Fenster 1508 und der Bulk-Empfänger-Optik 1518 oder in einigen anderen Ausführungsformen zwischen der Bulk-Empfänger-Optik 1518 und dem mikrooptischen Empfänger-Kanalarray 1505 positioniert sein. Ebenso könnte eine korrigierende Bulk-Optik in der Bulk-Übertrager-Optik des Lichtemissionssystems 1506 enthalten sein.
  • Anstatt die korrigierende Optik in die Bulk-Abbildungsoptik zu integrieren, kann die korrigierende Optik in einigen Ausführungsformen in ein mikrooptisches Empfänger-Kanalarray implementiert werden. Unter Bezugnahme auf 15B kann das Lichtdetektionssystem 1504 beispielsweise ein Korrekturlinsenarray 1520 vor den Aperturen 1522 beinhalten, z. B. auf der gegenüberliegenden Seite der Aperturen 1522, von wo aus Fotosensoren 1526 positioniert sind. Auf diese Weise können sich Lichtkegel 1524 durch jeweilige korrigierende Linsen ausbreiten, um den Astigmatismus zu kompensieren, der durch das transparente Fenster 1508 verursacht wird, bevor sie auf die Fotosensoren 1526 projiziert werden. In einigen Ausführungsformen ist das korrigierende Linsenarray 1520 aus einem Array von zylindrischen Linsen gebildet, die den Astigmatismus negieren können, der durch das transparente Fenster 1508 verursacht wird. Jede korrigierende Linse des korrigierenden Linsenarrays 1520 kann in Ausrichtung mit einer jeweiligen Apertur 1522 positioniert sein, sodass das korrigierende Linsenarray 1520 den Astigmatismus negieren kann, der durch das transparente Fenster 1508 für Licht verursacht wird, das von jedem Fotosensor 1526 empfangen wird.
  • Obwohl 15A und 15B Wege veranschaulichen, auf denen ein Lichtdetektionssystem-Abschnitt eines LIDAR-Systems modifiziert werden kann, um den Astigmatismus zu korrigieren, der durch das transparente Fenster 1508 verursacht wird, sind Ausführungsformen nicht auf solche Konfigurationen beschränkt und Korrekturoptiken können auch in Lichtemissionssystemen implementiert werden. Unter Bezugnahme auf 15C kann das aktive Bildgebersystem 1502 beispielsweise ein Korrekturlinsenarray 1528 vor der Aperturschicht 1530 beinhalten, z. B. auf der gegenüberliegenden Seite der Aperturschicht 1530, von wo aus die Lichtemitter 1510 positioniert sind. Auf diese Weise kann sich Licht, das von den Lichtemittern 1510 emittiert wird, durch jeweilige korrigierende Linsen 1528 ausbreiten, bevor es zu der Bulk-Übertrager-Optik 1534 emittiert wird. In diesem Fall können jeweilige korrigierende Linsen 1528 einen korrigierenden Astigmatismusgrad im emittierten Licht in Erwartung des Astigmatismus, der durch das transparente Fenster 1508 verursacht wird, induzieren und diesen kompensieren, wenn Licht aus dem Lichtemissionssystem 1506 emittiert wird. In einigen Ausführungsformen ist das korrigierende Linsenarray 1528 aus einem Array von bikonischen Linsen gebildet, die einen gleichen, aber entgegengesetzten Astigmatismusgrad, der durch das transparente Fenster 1508 verursacht wird, induzieren können. Somit kann die Menge an Astigmatismus, die durch die korrigierende Linsenschicht 1528 induziert wird, um den Astigmatismusgrad, der durch das transparente Fenster 1508 verursacht wird, versetzt werden, wodurch effektiv wenig bis kein Nettoastigmatismus während der Operation des aktiven Bildgebersystems 1502 erreicht wird. Jede korrigierende Linse des korrigierenden Linsenarrays 1528 kann in Ausrichtung mit einer jeweiligen Apertur 1532 positioniert sein, sodass das korrigierende Linsenarray 1528 einen korrigierenden Astigmatismusgrad induzieren kann, um den Astigmatismus zu negieren, der durch das transparente Fenster 1508 für Licht verursacht wird, das von jedem Fotosensor 1526 empfangen wird. In einigen Ausführungsformen kann das korrigierende Linsenarray 1528 nicht benötigt werden. Stattdessen kann die optische Oberfläche 1536 ein Array von bikonischen Linsen anstelle eines Arrays von zylindrischen Linsen sein. Die bikonische Struktur der Linsen kann eine Menge an Astigmatismus induzieren, um den Astigmatismusgrad, der durch das transparente Fenster 1508 verursacht wird, zu versetzen. In diesen Ausführungsformen kann das korrigierende Linsenarray 1528 nicht im Lichtemissionssystem 1506 implementiert werden. Darüber hinaus kann in einigen Ausführungsformen anstelle (oder in Verbindung mit) einem korrigierenden mikrooptischen Linsenarray eine korrigierende zylindrische Bulk-Linse mit einer Bulk-Empfängeroptik 1534 implementiert werden (ähnlich der in 15A dargestellten Ausführungsform für das Lichtdetektionssystem 1504). Somit kann das Lichtemissionssystem 1506 eine korrigierende Bulk-Abbildungsoptik vor seiner Bulk-Empfänger-Optik 1534 beinhalten, um den Astigmatismus zu negieren, der durch das transparente Fenster 1508 verursacht wird.
  • V. ABSCHWÄCHEN VON EMPFÄNGERKANAL-ÜBERSPRECHEN
  • Wie durch die Offenbarungen hierin zu erkennen ist, sind Kanäle im mikrooptischen Empfänger sehr nahe beieinander positioniert, oft manchmal innerhalb von Mikrometern voneinander. Dieser kleine Abstand zwischen jedem Kanal kann die Möglichkeit bieten, dass Probleme auftreten. So kann beispielsweise Licht, das sich durch die Bulk-Abbildungsoptik ausbreitet, gelegentlich dazu führen, dass Streulicht in benachbarte Kanäle austritt, wodurch ungenaue Messwerte von reflektiertem Licht für jedes Pixel im Feld entstehen. Idealerweise sollte kein Streulicht von einem Kanal empfangen werden, wie in 16A gezeigt.
  • 16A ist ein vereinfachtes Querschnittsansichtsdiagramm eines Teils eines Lichtdetektionssystems 1600, bei dem kein Übersprechen zwischen Kanälen vorliegt. Während Operation treten senkrechte Lichtstrahlen 1602 und Hauptstrahl 1604 in die Bulk-Bildgebungsoptik 1606 ein und produziert den Lichtkegel 1608. Lichtstrahlen 1602 und 1604 treten in eine Apertur der Aperturschicht 1610 ein und treten in die Kollimatorlinse 1611 ein. Die Kollimatorlinse 1611 nimmt einen begrenzten Bereich von Einfallswinkeln auf. Zum Beispiel kann die Kollimatorlinse 1611 Lichtstrahlen bei Einfallswinkeln zwischen +25 und -25 Grad relativ zu der Senkrechten aufnehmen. 16A zeigt den Lichtkegel 1608 mit Einfallswinkeln zwischen +25 und -25 Grad. Der Hauptstrahl 1604 ist der Lichtstrahl, der durch das Zentrum der Apertur verläuft. In diesem Beispiel weist der Hauptstrahl 1604 einen Einfallswinkel von 0 Grad auf der Kollimatorlinse 1611 auf.
  • 16B ist ein vereinfachtes Querschnittsansichtsdiagramm eines Teils eines Lichtdetektionssystems 1601, bei dem Übersprechen zwischen Kanälen vorliegt. In diesem Fall treten während der Operation schräge Lichtstrahlen 1612 und Hauptstrahl 1614 in die Bulk-Empfängeroptik 1616 ein und treten später in die Kollimatorlinse 1621 ein. In diesem Beispiel gehört die Kollimatorlinse 1621 zu einem mikrooptischen Kanal, der einem Fotosensor weiter vom Zentrum des Bilds entspricht. In diesem Beispiel weist der Hauptstrahl 1614 einen Einfallswinkel von -12 Grad auf und der Kegel aus fokussiertem Licht weist Einfallswinkel zwischen +12 Grad und -35 Grad auf. Die Kollimatorlinse 1621 weist einige der Lichtstrahlen zurück, da sie nur Licht mit Einfallswinkeln zwischen +25 und -25 Grad aufnimmt. Zusätzlich können die Strahlen, die außerhalb des Kollimatorlinsenakzeptanzkegels liegen, zu anderen optischen Oberflächen wandern und Streulicht werden. Somit wird eine nicht-telezentrische Bulk-Abbildungsoptik dem Fotodetektor signifikant weniger Signalphotonen zuführen, während sie andere Kanäle mit verirrten Lichtstrahlen 1622 potenziell verschmutzt. Eine telezentrische Bulk-Bildgebungsoptik erzeugt andererseits Lichtkegel mit Einfallswinkeln zwischen ungefähr +25 und -25 Grad und Hauptstrahlen mit Einfallswinkeln auf der Kollimatorlinse von ungefähr 0 Grad, unabhängig vom Winkel der schrägen Strahlen 1612 und des Hauptstrahls 1614. Eine telezentrische Bulk-Bildgebungsoptik weist ähnliche Vorteile für den Übertrager auf, wenn die Laser telezentrisch sind (ihre Hauptstrahlen sind alle parallel), wie es für VCSELS oder eine Seitenemitterdioden-Laserleiste der Fall ist.
  • In einigen Ausführungsformen verwendet das Lichtdetektionssystem eines Lichterfassungsmoduls eine telezentrische Eingangs-Bildraum-Bulk-Bildgebungsoptik. In einigen anderen Ausführungsformen, beispielsweise wenn Kosten oder ein erhöhtes Sichtfeld wichtiger als die Leistung sind, kann das Lichtdetektionssystem eine Standardeingangs-Bulk-Abbildungsoptik, wie beispielsweise eine Bikonvexlinse, verwenden. Für jedes gegebene Eingangsfeld in eine telezentrische Bildraumlinse sind die resultierenden Hauptstrahlen parallel zur optischen Achse und die bildseitigen Strahlkegel erstrecken sich alle ungefähr über den gleichen Satz von Winkeln. Dies ermöglicht es mikrooptischen Kanälen weit von der optischen Achse im Lichtdetektionssystem, eine ähnliche Leistung wie der mikrooptische Kanal auf der Achse zu erreichen. Das Lichtdetektionssystem benötigt keine perfekte Bildraumtelezentrie, damit dieses funktioniert, aber je näher an der perfekten Telezentrie, desto besser. Für eine mikrooptische Empfängeroptikschichtlinse, die nur Licht mit +/-25 Grad aufnehmen kann, ist es bevorzugt, dass die Eingangs-Bulk-Abbildungsoptik bildseitige Strahlen erzeugt, die nicht größer als 25 Grad im Winkel für jeden Punkt auf der Brennebene sind.
  • In bestimmten Ausführungsformen können spezifische Lichtdetektionssysteme mit breitem Sichtfeld und schmalbandiger Bildgebung eine telezentrische Eingangs-Bildraum-Bulk-Bildgebungsoptik mit einer numerischen Apertur (NA) gleich 0,34 und einer Brennweite von 20 mm aufweisen. Ebenso könnten einige andere Ausführungsformen einen 1 nm breiten Bandpassfilter aufweisen, wodurch es ihm ermöglicht wird, Licht einer sehr spezifischen Wellenlänge zu detektieren. Das Lichtdetektionssystem ist in der Lage, FOVs von mehr als 30 Grad zu unterstützen.
  • Gemäß einigen Ausführungsformen der vorliegenden Offenbarung kann das Design jedes Kanals des mikrooptischen Empfängerkanalarrays speziell so konfiguriert werden, dass es Merkmale aufweist, die das Eindringen von Streulicht auf einen jeweiligen Fotodetektor minimieren, wodurch nachteilige Effekte, die durch das Auftreten von Streulicht verursacht werden, reduziert oder eliminiert werden. 17 ist ein vereinfachtes Querschnittsdiagramm einer exemplarischen mikrooptischen Empfängerkanalstruktur 1700, die hierin auch als mikrooptischer Empfängerkanal bezeichnet wird. Der Empfängerkanal 1700 kann unter anderem für die mikrooptischen Empfängerkanäle 232 und 1032 repräsentativ sein, die in 2 bzw. 10 gezeigt sind, und dient dazu, einen Eingangskegel von Licht aufzunehmen, der einen breiten Bereich von Wellenlängen enthält, alle außer einem schmalen Band dieser Wellenlängen, die bei der Operationswellenlänge zentriert sind, herausfiltert und dem Fotosensor 1771 ermöglicht, nur oder im Wesentlichen nur Photonen innerhalb des vorgenannten schmalen Bands von Wellenlängen zu detektieren. Gemäß einigen Ausführungsformen der vorliegenden Offenbarung können mikrooptische Empfängerkanalstrukturen, wie beispielsweise Empfängerkanal 1700, die folgenden Schichten beinhalten:
    • • Eine Eingangsaperturschicht 1740, die eine optisch transparente Apertur 1744 und einen optisch nicht transparenten Stoppbereich 1746 beinhaltet, die konfiguriert ist, um ein schmales Sichtfeld zu definieren, wenn sie in der Brennebene einer Abbildungsoptik, wie beispielsweise der Bulk-Empfängeroptik 202 oder 1008 (in 2 bzw. 10 gezeigt; nicht in 17 gezeigt) platziert ist. Die Aperturschicht 1740 ist konfiguriert, um die Eingangsrandstrahllinien 1733 zu empfangen. Der Begriff „optisch transparent“ bezieht sich hierin darauf, dass es dem meisten oder dem gesamten Licht ermöglicht wird, zu passieren. Licht bezieht sich hierin auf das Spektrum von Licht im nahen Ultravioletten, Sichtbaren und nahen Infrarotbereich (z. B. 300 nm bis 5000 nm). Optisch nicht transparent bezieht sich hierin darauf, dass es wenig bis keinem Licht ermöglicht wird, zu passierend, sondern das Licht absorbiert oder reflektiert wird. Die Aperturschicht 1740 kann optisch transparente Aperturen beinhalten, die durch optisch nicht transparente Stoppbereiche voneinander getrennt sind. Die Aperturen und Stoppbereiche können auf einem einzelnen monolithischen Teil, wie beispielsweise einem optisch transparenten Substrat, aufgebaut sein. Die Aperturschicht 1740 kann optional ein eindimensionales oder zweidimensionales Array von Aperturen 1744 beinhalten.
    • • Eine optische Linsenschicht 1750, die eine Kollimatorlinse 1751 beinhaltet, die durch eine Brennweite gekennzeichnet ist, von der Ebene der Apertur 1744 und des Stoppbereichs 1746 um die Brennweite versetzt, axial mit der Apertur 1744 ausgerichtet und konfiguriert ist, um Photonen zu kollimieren, die durch die Apertur geleitet werden, sodass sie ungefähr parallel zur Achse der Kollimatorlinse 1751 wandern, die mit der optischen Achse des Empfängerkanals 1700 ausgerichtet ist. Die optische Linsenschicht 1750 kann optional Aperturen, optisch nicht transparente Bereiche und Rohrstrukturen beinhalten, um Übersprechen zu reduzieren.
    • • Eine optische Filterschicht 1760 beinhaltet einen optischen Filter 1761, typischerweise einen Filter vom Bragg-Reflektortyp, angrenzend an die Kollimatorlinse 1751 und gegenüber der Apertur 1744. Die optische Filterschicht 1760 kann konfiguriert sein, um normalerweise einfallende Photonen bei einer spezifischen Operationswellenlänge und einem Durchlassband zu passieren. Die optische Filterschicht 1760 kann eine beliebige Anzahl von optischen Filtern 1761 enthalten. Die optische Filterschicht 1760 kann optional Aperturen, optisch nicht transparente Bereiche und Rohrstrukturen beinhalten, um Übersprechen zu reduzieren.
    • • Eine Fotosensorschicht 1770, die einen Fotosensor 1771 angrenzend an die optische Filterschicht 1760 beinhaltet und konfiguriert ist, um auf den Fotosensor 1771 einfallende Photonen zu detektieren. Der Fotosensor 1771 bezieht sich hierin auf einen einzelnen Fotodetektor, der in der Lage ist, Photonen zu detektieren, z. B. eine Lawinenfotodiode, eine SPAD (Single Photon Avalanche Detector), RCP (Resonanzhohlraum-Fotodioden) und dergleichen, oder mehrere Fotodetektoren, wie ein Array von SPADs, die zusammenwirken, um als ein einzelner Fotosensor zu wirken, oft mit einem höheren Dynamikbereich, einer niedrigeren Dunkelzählrate oder anderen vorteilhaften Eigenschaften im Vergleich zu einer einzelnen großen Photonendetektionsfläche. Jeder Fotodetektor kann eine aktiver Fläche sein, die in der Lage ist, Photonen, d. h. Licht, zu erfassen. Die Fotosensorschicht 1770 bezieht sich auf eine Schicht, die aus Fotodetektor(en) besteht und optionale Strukturen enthält, um die Detektionseffizienz zu verbessern und Übersprechen mit benachbarten Empfängerstrukturen zu reduzieren. Die Fotosensorschicht 1770 kann optional Diffusoren, Sammellinsen, Aperturen, optisch nicht transparente Rohrabstandshalterstrukturen, optisch nicht transparente konische Abstandshalterstrukturen usw. beinhalten.
  • Streulicht kann durch Rauheit von optischen Oberflächen, Unvollkommenheiten in transparenten Medien, Rückreflexionen und dergleichen verursacht werden und kann an vielen Merkmalen innerhalb des Empfängerkanals 1700 oder außerhalb des Empfängerkanals 1700 erzeugt werden. Das Streulicht kann gerichtet werden: durch den Filterbereich 1761 entlang eines Pfads, der nicht parallel zur optischen Achse der Kollimatorlinse 1751 verläuft; zwischen der Apertur 1744 und der Kollimatorlinse 1751 reflektierend; und im Allgemeinen einen beliebigen anderen Pfad oder eine beliebige andere Trajektorie nehmend, die möglicherweise viele Reflexionen und Brechungen beinhaltet. Wenn mehrere Empfängerkanäle angrenzend aneinander angeordnet sind, kann dieses Streulicht in einem Empfängerkanal von einem Fotosensor in einem anderen Kanal absorbiert werden, wodurch die Zeitsteuerung, Phase oder andere Informationen, die Photonen inhärent sind, kontaminiert werden. Dementsprechend kann der Empfängerkanal 1700 mehrere Strukturen aufweisen, um Übersprechen zwischen Empfängerkanälen zu reduzieren.
  • Wie hierin weiter verstanden wird, kann jede Schicht einer mikrooptischen Kanalschichtstruktur auf eine spezifische Weise entworfen werden, um die nachteiligen Effekte von Streulicht abzuschwächen. Einige verschiedene Designs für jede Schicht werden nun unten ausführlicher erörtert.
  • A. Aperturschicht
  • In einer Ausführungsform mit der Aperturschicht 1740, wie in 17 gezeigt, können die optisch transparente Apertur 1744 und der optisch nicht transparente Stoppbereich 1746 aus einem einzelnen monolithischen Teil, wie beispielsweise einer Metallfolie mit einem Stiftloch oder aus einer einzelnen Schicht eines abgeschiedenen opaken oder reflektierenden Materials mit den durch sie geätzten Aperturen, gebildet sein.
  • 18A ist ein vereinfachtes Querschnittsansichtsdiagramm einer verschiedenen Ausführungsform 1800, bei der die Aperturschicht 1840 zwei Aperturen 1844 aufweist. Sowohl die optisch transparenten Aperturen 1844 als auch die entsprechenden optisch nicht transparenten optischen Stoppbereiche 1846 werden auf einem optisch transparenten Substrat 1845 getragen. Die untere Apertur 1844 kann kleiner sein und an der Brennebene der Bulk-Optik positioniert sein. Der Aperturschicht 1840 kann eine optisch transparente Abstandsstruktur 1856 folgen, die zwischen der Apertur 1844 und der Kollimatorlinse 1851 im Empfängerkanal positioniert ist. Die optisch transparente Abstandshalterstruktur 1856 bildet ein Rohr mit im Wesentlichen ähnlichem oder größerem Durchmesser wie die Kollimationslinse 1851.
  • 18B ist ein vereinfachtes Querschnittsansichtsdiagramm einer verschiedenen Ausführungsform 1801 der Aperturschicht 1840. Die optisch transparente Apertur 1844 und der optisch nicht transparente Stoppbereich 1846 werden auf dem optisch transparenten Substrat 1845 getragen. Die optisch transparente Abstandshalterstruktur 1856, die der Aperturschicht 1840 folgt und zwischen der Apertur 1844 und der Kollimatorlinse 1851 positioniert ist, bildet ein Rohr mit im Wesentlichen ähnlichem oder größerem Durchmesser wie die Kollimatorlinse 1851.
  • 18C ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 1802 der Aperturschicht 1840, die aus mehreren optisch nicht transparenten Stoppbereichen 1846 besteht, die auf dem optisch transparenten Substrat 1845 getragen werden. Diese Schichten (Stoppregionen 1846) folgen der Kontur der Randlichtstrahlen (nicht gezeigt, aber ähnlich den Lichtstrahlen 1733 in 17), um Streulicht in dem Empfängerkanal zu reduzieren. Die optisch transparente Abstandshalterstruktur 1856 unterhalb der Aperturschicht 1840 bildet ein Rohr mit im Wesentlichen ähnlichem oder größerem Durchmesser wie die Kollimatorlinse 1851.
  • 18D ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 1803 der Aperturschicht 1840 mit mehreren optisch nicht transparenten Stoppschichten 1846, die auf mehreren optisch transparenten Substraten 1845 getragen werden. Die Aperturschicht 1840 folgt der Kontur der Randlichtstrahlen (nicht gezeigt, aber ähnlich den Lichtstrahlen 1733 in 17), um Streulicht in dem Empfängerkanal zu reduzieren. Die optisch transparente Abstandshalterstruktur 1856 unterhalb der Aperturschicht 1840 bildet ein Rohr mit im Wesentlichen ähnlichem oder größerem Durchmesser wie die Kollimatorlinse 1851.
  • In einigen anderen Ausführungsformen der vorliegenden Offenbarung kann die in 18A-D dargestellte Abstandsstruktur 1856 optisch nicht transparent sein. Die optisch nicht transparente Abstandshalterstruktur könnte in diesem Fall durch Ätzen eines Silizium- oder Glaswafers gebildet werden und kann mit einem optisch nicht transparenten Material (z. B. schwarzem Chrom) beschichtet werden. Zusätzlich würde die Abstandshalterstruktur in diesem Fall verhindern, dass Licht im Abstandshalterbereich außerhalb des Empfängerkanals wandert.
  • B. Abstandshalterstruktur zwischen Aperturschicht und optischer Linsenschicht
  • 19A ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 1900 der vorliegenden Offenbarung mit einer optisch nicht transparenten Abstandsstruktur zwischen der Aperturschicht und der Linsenschicht. 19A zeigt eine optisch nicht transparente Abstandsstruktur 1956, die zwischen der Apertur 1944 und der Kollimatorlinse 1951 im Empfängerkanal positioniert ist. Die optisch nicht transparente Abstandshalterstruktur 1956 bildet ein Rohr mit im Wesentlichen ähnlichem oder größerem Durchmesser wie die Kollimatorlinse 1951 und verhindert, dass Licht außerhalb des Empfängerkanals im Bereich zwischen der Apertur 1944 und der Kollimatorlinse 1951 wandert. Die optisch nicht transparente Abstandshalterstruktur 1956 könnte durch Ätzen eines Silizium- oder Glaswafers gebildet werden und kann mit einem optisch nicht transparenten Material (z. B. schwarzem Chrom) beschichtet werden. Alternativ könnte die optisch nicht transparente Abstandshalterstruktur 1956 eine feste nicht transparente Struktur sein, die aus geformtem Polymer oder durch einen anderen geeigneten Prozess hergestellt wird. 19A zeigt die Aperturschicht mit dem optisch transparenten Substrat 1945 auf der Oberseite, gefolgt vom optisch nicht transparenten Stoppbereich 1946 und der Apertur 1944 und dann von der optisch nicht transparenten Abstandsstruktur 1956.
  • 19B ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 1901 der vorliegenden Offenbarung mit einer optisch nicht transparenten Struktur zwischen der Aperturschicht und der Linsenschicht. 19B zeigt eine optisch nicht transparente Abstandsstruktur 1956, die zwischen der Apertur 1944 und der Kollimatorlinse 1951 positioniert ist. Die optisch nicht transparente Abstandshalterstruktur 1956 bildet ein Rohr mit im Wesentlichen ähnlichem oder größerem Durchmesser wie die Kollimatorlinse 1951 und verhindert, dass Licht außerhalb des Empfängerkanals im Bereich zwischen der Apertur 1944 und der Kollimatorlinse 1951 wandert. 19B zeigt mehrere optisch nicht transparente Stoppbereiche 1946, die auf dem optisch transparenten Substrat 1945 getragen werden.
  • 19C ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 1902 der Aperturschicht 1940, bei der die Aperturschicht konisch ausgerichtet ist und bei der die konische Struktur als eine optisch nicht transparente Schicht auf ein optisch transparentes Material beschichtet ist.
  • 19D ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 1903 der Aperturschicht 1940, bei der die Aperturschicht konisch ausgerichtet ist und bei der die konische Struktur eine massive Struktur ist, die aus einem optisch nicht transparenten Material gebildet ist. Wie in 19C und 19D gezeigt, sind die optisch transparente Apertur 1944 und die optisch nicht transparente Stoppregion 1946 zu einer monolithischen Schicht mit einem konischen Hohlraum kombiniert, der mit der optischen Achse des Empfängerkanals ausgerichtet ist und konfiguriert ist, um sich an die Form der Randstrahllinien anzupassen (nicht gezeigt, aber ähnlich den Lichtstrahlen 1733 in 17).
  • C. Optische Filterschicht
  • 20A ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2000 der Filterschicht 2060 für einen Empfängerkanal gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Die optische Filterschicht 2060 kann einen einzelnen optischen Filter 2061 beinhalten, der auf einem optisch transparenten Substrat 2065 getragen wird. Die optische Filterschicht 2060 kann auf dem optisch transparenten Substrat 2065 oder unter dem optisch transparenten Substrat 2065 platziert werden. Der optische Filter 2061 kann ein Bandpassfilter sein, der einfallendes Licht außerhalb eines definierten Wellenlängensatzes (z. B. 945-950 nm) blockiert. In einigen anderen Ausführungsformen kann der optische Filter 2061 jedoch ein Kantenpassfilter oder jeder andere geeignete Filtertyp sein, der selektiv Licht innerhalb eines Wellenlängenbereichs durch sich selbst durchlässt.
  • 20B ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2001 der Filterschicht 2060 für einen Empfängerkanal gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Die optische Filterschicht 2060 kann zwei optische Filter 2061 beinhalten, die ein optisch transparentes Substrat 2065 einbetten und von diesem getragen werden. Die optische Filterschicht 2060 kann eine beliebige Anzahl von optischen Filtern 2061 auf einer beliebigen Anzahl von Substraten 2065 enthalten. Einer der optischen Filter 2061, wie in 20B gezeigt, kann ein Bandpassfilter sein und kann entweder auf oder direkt unter dem optisch transparenten Substrat 2065 positioniert sein, das das gesamte einfallende Licht für einen definierten Wellenlängensatz (z. B. 900-945 nm und 950-995 nm) blockiert. Der andere optische Filter 2061, der auf der gegenüberliegenden Seite des optischen Substrats 2065 platziert ist, kann ein Breitspektrum-Blockierfilter sein (mit Ausnahme des vom Bandpassfilter bedeckten Bereichs), der beispielsweise 200-915 nm und 980-1600 nm abdeckt. Der Bandpassfilter und der Blockierfilter sind so ausgelegt, dass kein Austreten im Übergangsbereich zwischen den beiden Filtern vorliegt. Die Filter könnten jedoch zwei Kantenpassfilter sein, die so ausgelegt sind, dass sie in Verbindung als Bandpassfilter oder andere Arten von Filtern arbeiten.
  • In einigen anderen Ausführungsformen der vorliegenden Offenbarung werden der Bandpassfilter und der Breitspektrum-Blockierfilter zu einem einzigen optischen Filter 2061 zusammengeführt und entweder auf der Oberseite oder der Unterseite des optisch klaren Substrats 2065 platziert.
  • 1. Filterschicht mit Aperturen
  • 20C ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2002 der Filterschicht 2060 für einen Empfängerkanal gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Die optische Filterschicht 2060 kann eine zusätzliche Apertur 2049 auf der Oberseite und eine zusätzliche Apertur 2054 auf der Unterseite der optischen Filterschicht 2060 zusammen mit den entsprechenden optisch nicht transparenten Stoppbereichen 2063 und 2055 aufweisen. Die Apertur 2049 definiert den maximalen Zylinder des Lichts, das durch den optischen Filter 2061 in die optische Filterschicht 2060 geleitet werden soll, und die Stoppregion 2063 absorbiert oder reflektiert einfallendes Streulicht außerhalb des Durchmessers der Apertur 2049. Die Apertur 2054 definiert den maximalen Zylinder des Lichts, das aus der optischen Filterschicht 2060 geleitet werden soll, und die Stoppregion 2055 absorbiert oder reflektiert einfallendes Streulicht außerhalb des Durchmessers der Apertur 2054. Die optischen Filter 2061 können auf einem optisch transparenten Substrat 2065 getragen werden.
  • In einigen Ausführungsformen der vorliegenden Offenbarung kann die Filterschicht 2060 eine einzelne Apertur 2049 aufweisen, die auf der Oberseite der optischen Filterschicht 2060 platziert ist. In einigen zusätzlichen und alternativen Ausführungsformen der vorliegenden Offenbarung kann die Filterschicht 2060 eine einzelne Apertur 2054 aufweisen, die auf der Unterseite der optischen Filterschicht 2060 platziert ist.
  • 20D ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2003 der Filterschicht 2060 für einen Empfängerkanal gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Die optische Filterschicht 2060 kann mehrere optisch transparente Substrate 2065 und mehrere optisch nicht transparente Aperturschichten zwischen ihnen in einer abwechselnden Reihenfolge beinhalten. 20D zeigt eine zusätzliche Apertur 2049 und einen entsprechenden optisch nicht transparenten Stoppbereich 2063, der auf dem optischen Filter 2061 positioniert ist und von optisch transparenten Substraten 2065 getragen wird. Die Apertur 2049 kann den maximalen Zylinder des Lichts definieren, das durch den optischen Filter 2061 in die optische Filterschicht 2060 geleitet werden soll, und die Stoppregion 2063 absorbiert oder reflektiert einfallendes Streulicht außerhalb des Durchmessers der Apertur 2049. 20D zeigt eine zusätzliche Apertur 2054 und einen entsprechenden optisch nicht transparenten Stoppbereich 2055, der zwischen der optischen Filterschicht 2060 und einer Fotosensorschicht (nicht gezeigt, aber ähnlich der Fotosensorschicht 1770 in 17) positioniert ist. Die Apertur 2054 kann den maximalen Zylinder des Lichts definieren, das aus der optischen Filterschicht 2060 in Richtung des Fotosensors geleitet werden soll, und die Stoppregion 2055 kann einfallendes Streulicht außerhalb des Durchmessers der Apertur 2054 absorbieren oder reflektieren. Zusammen verhindern diese verschachtelten Schichten, dass Streulicht in einer optischen Filterschicht 2060 in einen optischen Filterbereich eines angrenzenden Empfängerkanals in einem Mehrfachempfängerkanalsystem wandert.
  • 2. Filterschicht mit Rohrstruktur
  • 20E ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2004 der Filterschicht 2060 für einen Empfängerkanal gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Die optische Filterschicht 2060 kann den optischen Filter 2061 und das optisch transparente Substrat 2065 beinhalten und von einer optisch nicht transparenten Rohrstruktur 2111 umgeben sein, die verhindert, dass Streulicht in einer optischen Filterschicht 2060 in einen optischen Filterbereich eines angrenzenden Empfängerkanals in einem Mehrfachempfängerkanalsystem wandert. Die Rohrstruktur 2111 kann aus einer Vielfalt von Materialien gebildet werden, einschließlich, aber nicht beschränkt auf Silizium, Metalle, Polymere oder Gläser.
  • 20F ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2005 der Filterschicht 2060 für einen Empfängerkanal gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Die optische Filterschicht 2060 kann den optischen Filter 2061 und das optisch transparente Substrat 2065 beinhalten und ist von einer optisch nicht transparenten Rohrstruktur 2111 umgeben, die verhindert, dass Streulicht in einer optischen Filterschicht 2060 in einen optischen Filterbereich eines angrenzenden Empfängerkanals in einem Mehrfachempfängerkanalsystem wandert. Die Rohrstruktur 2111 kann aus einer Vielfalt von Materialien gebildet werden, einschließlich, aber nicht beschränkt auf Silizium, Metalle, Polymere oder Gläser. Wie in 20F gezeigt, kann die Rohrstruktur 2111 nur teilweise durch die optische Filterschicht 2060 hindurchgehen. Diese Art von Struktur kann gebildet werden, indem tiefe anisotrope Ätzungen auf jeder Seite des Filtersubstrats 2065 durchgeführt und anschließend Metall oder Polymer selektiv abgeschieden werden.
  • 20G ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2006 der Filterschicht 2060 für einen Empfängerkanal gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Die optische Filterschicht 2060 kann zwei optische Filter 2061 beinhalten, die auf optisch transparenten Substraten 2065 getragen werden und von einer optisch nicht transparenten Rohrstruktur 2111 umgeben sind, die verhindert, dass Streulicht in einer optischen Filterschicht 2060 in einen optischen Filterbereich eines angrenzenden Empfängerkanals in einem Mehrfachempfängerkanalsystem wandert. Der optische Filterbereich kann jedoch eine beliebige Anzahl von optischen Filtern 2061 auf einer beliebigen Anzahl von Substraten 2065 innerhalb der optischen Filterschicht 2060 enthalten. 20G veranschaulicht eine zusätzliche Apertur 2049 und einen entsprechenden optisch nicht transparenten Stoppbereich 2063, der auf dem optischen Filter 2061 positioniert ist und vom optisch transparenten Substrat 2065 getragen wird. Die Apertur 2049 kann den maximalen Zylinder des Lichts definieren, das in die optische Filterschicht 2060 geleitet werden soll, und die Stoppregion 2063 kann einfallendes Streulicht außerhalb des Durchmessers der Apertur 2049 absorbieren oder reflektieren.
  • Die Ausführungsform 2006 der optischen Filterschicht 2060 in 20G kann eine zusätzliche Apertur 2054 aufweisen, und ein entsprechender optisch nicht transparenter Stoppbereich 2055 kann zwischen der optischen Filterschicht 2060 und der Fotosensorschicht (nicht gezeigt, aber ähnlich der Fotosensorschicht 1770 in 17) positioniert sein. Die Apertur 2054 kann den maximalen Zylinder des Lichts definieren, das aus der optischen Filterschicht 2060 in Richtung des Fotosensors geleitet werden soll, und die Stoppregion 2055 kann einfallendes Streulicht außerhalb des Durchmessers der Apertur 2054 absorbieren oder reflektieren. Die Rohrstruktur 2111 kann aus einer Vielfalt von Materialien gebildet werden, einschließlich, aber nicht beschränkt auf Silizium, Metalle, Polymere oder Gläser.
  • D. Fotosensorschicht
  • Wie hierin zu erkennen ist, können einige verschiedene Fotosensorschichtdesigns in einem mikrooptischen Empfängerkanal implementiert werden.
  • 1. Fotosensorschicht mit Diffusor
  • 21A ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2100 des Empfängerkanals 2132, der einen optionalen Diffusor 2181 enthält, der sich in der Fotosensorschicht 2170 zwischen dem optischen Filter 2161 und dem Fotosensor 2173 befindet, gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Der Diffusor 2181 kann konfiguriert sein, um kollimierte Photonen, die von der Kollimatorlinse 2151 ausgegeben und durch den optischen Filterbereich 2160 geleitet werden, über die gesamte Breite eines entsprechenden Fotosensors 2173 zu verteilen. Der Fotosensor 2173 kann eine nicht quadratische oder nicht kreisförmige Geometrie (z. B. kurz und breit) aufweisen, um den Erfassungsbereich des Fotosensors 2173 so zu erweitern, dass er breiter oder höher als die Breite oder Höhe der anderen Komponenten im Empfängerkanal 2132 ist.
  • Der Diffusor 2181 ist konfiguriert, um Lichtstrahlen über den Bereich des Fotosensors 2173 zu verteilen, so dass der Fotosensor 2173 in der Lage ist, die einfallenden Photonen über seine gesamte Breite und Höhe zu detektieren, wodurch der Dynamikbereich des Empfängerkanals 2132 erhöht wird, selbst wenn die Gesamthöhe des Empfängerkanals 2132 für praktische Überlegungen begrenzt werden muss. Insbesondere kann in dieser Ausführungsform der Empfängerkanal 2132 verbreiterte Fotosensoren, die größere Fotodetektoren 2171 (d. h. Flächen, die für einfallende Photonen empfindlich sind) aufweisen, und einen Diffusor 2181 beinhalten, der über dem Fotosensor 2173 angeordnet ist, der Licht, das durch den optischen Filter 2161 geleitet wird, über die gesamte Fläche des Fotosensors 2173 verteilt, wodurch ein erhöhter Dynamikbereich erzielt wird.
  • In einigen Ausführungsformen beinhaltet der Fotosensor 2173 ein Array von Einzelphotonen-Lawinendiodendetektoren 2171 (nachfolgend „SPADs“). Die Höhe und Breite des Empfängerkanals (üblicherweise durch den Durchmesser der Kollimatorlinse 2151 definiert) kann nur eine relativ kleine Anzahl von (z. B. zwei) vertikal gestapelten SPADs aufnehmen. Der Fotosensor 2173 kann daher ein Seitenverhältnis definieren, das größer als 1:1 ist, und der Diffusor 2181 kann Lichtstrahlen, die durch den optischen Filterbereich 2160 geleitet werden, gemäß der Geometrie des Fotosensors 2173 verteilen, um eine größere Erfassungsfläche pro Fotosensor aufzunehmen. Durch das Integrieren mehrerer SPADs pro Fotosensor kann der Dynamikbereich des Fotosensors erhöht werden, da es weniger wahrscheinlich ist, dass alle SPADs nicht in der Lage sind, Photonen gleichzeitig zu detektieren (d. h. „tot“ zu sein).
  • In einigen anderen Ausführungsformen beinhaltet der Fotosensor 2173 ein Array von Fotodetektoren 2171. Die Höhe und Breite des Empfängerkanals (üblicherweise durch den Durchmesser der Kollimatorlinse 2151 definiert) kann nur eine relativ kleine Anzahl von (z. B. zwei) vertikal gestapelten Fotodioden aufnehmen. Der Fotosensor 2173 kann daher ein Seitenverhältnis definieren, das größer als 1:1 ist, und der Diffusor 2181 kann Lichtstrahlen, die durch den optischen Filterbereich 2160 geleitet werden, gemäß der Geometrie des Fotosensors 2173 verteilen, um eine größere Erfassungsfläche pro Fotosensor aufzunehmen. Durch das Integrieren von mehr Fotodioden pro Fotosensor kann der Dynamikbereich des Fotosensors erhöht werden, da es unwahrscheinlich ist, dass alle Fotodioden gleichzeitig gesättigt werden.
  • Der Empfängerkanal 2132 kann zusätzlich oder alternativ eine Aperturschicht beinhalten, die zwischen dem optischen Filterbereich 2160 und dem Diffusor 2181 oder zwischen dem optischen Filterbereich 2160 und dem Fotosensor 2173 eingefügt ist, wobei die Apertur 2144 mit einer entsprechenden Kollimatorlinse 2151 ausgerichtet ist. In dieser Variation kann die Apertur 2144 verirrte Lichtstrahlen absorbieren oder reflektieren, die durch den Lichtfilter geleitet oder durch den Fotosensor reflektiert werden, um Übersprechen zwischen Empfängerkanälen weiter zu reduzieren, wodurch das SNR (Signal-Rausch-Verhältnis) des Systems weiter erhöht wird.
  • 2. Fotosensorschicht mit Sammellinsensatz
  • 21B ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2101 des Empfängerkanals 2132 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Eine Fotosensorschicht 2170 der Ausführungsform 2100 kann einen Fotosensor 2173 beinhalten, der aus einem Satz von diskreten Fotodetektoren 2171 (z. B. SPADs) und einem Satz von inaktiven Bereichen 2172 (z. B. integrierte Logik) gebildet ist, die den Satz von Fotodetektoren umfassen, wobei jeder Fotodetektor konfiguriert ist, um einfallende Photonen zu detektieren. Die Fotosensorschicht 2170 kann auch einen Sammellinsensatz 2191 beinhalten, der zwischen dem optischen Filterbereich 2160 und dem Fotosensor 2173 mit Fotodetektoren 2171 eingefügt ist und eine Sammellinse 2191 pro diskretem Fotodetektor 2171 innerhalb des Fotosensors 2173 beinhaltet, wobei jede Linse des Sammellinsensatzes 2191 konfiguriert ist, um einfallende Photonen, die vom optischen Filterbereich 2160 weitergeleitet werden, auf einen entsprechenden diskreten Fotodetektor 2171 zu fokussieren. Jede Sammellinse kann eine gemeinsame Brennweite aufweisen, und der Sammellinsensatz 2191 kann über dem Fotosensor 2173 um diese gemeinsame Brennweite (oder um einen Abstand, der im Wesentlichen ähnlich dieser gemeinsamen Brennweite ist) versetzt sein, und jede Sammellinse kann einfallendes Licht - das in der optischen Linsenschicht 2150 kollimiert und durch den optischen Filterbereich 2160 geleitet wird - auf einen entsprechenden Fotodetektor 2171 im Fotosensor 2173 bündeln.
  • In einigen Ausführungsformen verwendet der Sammellinsensatz 2191, der zwischen dem optischen Filterbereich 2160 und dem Fotosensor 2173 mit Fotodetektoren 2171 eingefügt ist, zusätzlich zu oder anstelle von Beugungselementen Brechungselemente.
  • 3. Fotosensorschicht mit Sammellinsensatz und zusätzlichen Aperturen
  • 21C ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2102 der Fotosensorschicht 2170 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Die Fotosensorschicht 2170 kann einen Sammellinsensatz 2191 und einen Satz von Aperturen 2157 beinhalten, wobei jede Apertur 2157 mit einer entsprechenden Sammellinse 2191 ausgerichtet ist. In dieser Variation kann jede Apertur 2157 verirrte Lichtstrahlen absorbieren oder reflektieren, die durch den Lichtfilter geleitet oder durch den Fotosensor reflektiert werden, um Übersprechen zwischen Empfängerkanälen weiter zu reduzieren, wodurch das SNR des Systems weiter erhöht wird. Ein Satz von Aperturen 2157 und entsprechende optisch nicht transparente Stoppbereiche 2159 sind auf einem optisch transparenten Substrat 2158 aufgebaut.
  • 21D ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2103 der Fotosensorschicht 2170 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Die Fotosensorschicht 2170 kann einen Sammellinsensatz 2191 und einen Satz von Aperturen 2157 beinhalten, wobei jede Apertur 2157 mit einer entsprechenden Sammellinse 2191 ausgerichtet ist. Aperturen 2157 und entsprechende optisch nicht transparente Stoppbereiche 2159 sind auf einem optisch transparenten Substrat 2158 aufgebaut. In dieser Variation gehen die Aperturen 2157 nicht vollständig zum Fotodetektor 2171.
  • 21E ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2104 der Fotosensorschicht 2170 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Ein zusätzlicher Satz von Aperturen 2157 und entsprechende optisch nicht transparente Stoppbereiche 2159, die gewünschte maximale Lichtkegel definieren, können zwischen dem Linsensatz 2191 und dem Fotodetektor 2171 positioniert werden. Der Satz von Aperturen 2157 und die entsprechenden nicht transparenten Stoppregionen 2159 definieren einen Lichtkegel für jede Linse im Linsensatz 2191 und dienen dazu, Streulicht zu absorbieren oder zu reflektieren, das entlang eines Pfads wandert, der nicht von den gewünschten Lichtkegeln umfasst wird. Die Aperturen können unter Verwendung von Standard-Halbleiterprozessen hergestellt werden.
  • 4. Fotosensorschicht mit Sammellinsensatz und Abstandshalterstruktur zwischen dem Linsensatz und dem Fotosensor
  • 21F ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2105 der Fotosensorschicht 2170 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Hier ist eine optisch nicht transparente Abstandshalterstruktur 2163 zwischen dem Linsensatz 2191 und dem Fotosensor 2173 mit Fotodetektoren 2171 im Empfängerkanal 2132 positioniert. Die optisch nicht transparente Abstandshalterstruktur 2163 bildet ein Rohr mit im Wesentlichen ähnlichem oder größerem Durchmesser wie eine Kollimatorlinse (z. B. die Kollimatorlinse 1751, die in 17 gezeigt ist) und verhindert, dass Licht außerhalb des Empfängerkanals 2132 im Bereich zwischen dem Linsensatz 2191 und dem Fotosensor 2173 wandert. Die optisch nicht transparente Abstandshalterstruktur 2163 könnte aus optisch nicht transparenten Bulk-Medien (z. B. Silizium oder Polymer) hergestellt werden.
  • 21G ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2106 der Fotosensorschicht 2170 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Hier ist die optisch nicht transparente Abstandshalterstruktur 2163 zwischen dem Linsensatz 2191 und dem Fotosensor 2173 positioniert und wird aus einer optisch nicht transparenten Beschichtung auf einem optisch transparenten Substrat (z. B. schwarzem Chrom auf Glas) hergestellt. Die optisch nicht transparente Abstandshalterstruktur 2163 bildet ein Rohr mit im Wesentlichen ähnlichem oder größerem Durchmesser wie die Kollimatorlinse 2151 und verhindert, dass Licht außerhalb des Empfängerkanals 2132 im Bereich zwischen dem Linsensatz 2191 und dem Fotodetektor 2171 wandert.
  • 5. Fotosensorschicht-Abstandshalterstruktur zwischen der Filterschicht und der Fotosensorschicht
  • 21H ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2107 der Fotosensorschicht 2170 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Die optisch nicht transparente Abstandshalterstruktur 2163 kann zwischen einer optischen Filterschicht (z. B. einer der oben genannten optischen Filterschichten) und der Fotosensorschicht 2170 positioniert sein. Die optisch nicht transparente Abstandshalterstruktur 2163 bildet eine Röhre mit im Wesentlichen ähnlichem oder größerem Durchmesser wie eine Kollimatorlinse (z. B. die Kollimatorlinse 1751 in 17) und verhindert, dass Licht außerhalb des Empfängerkanals (z. B. Kanal 1700 in 17) im Bereich zwischen der optischen Filterschicht und der Fotosensorschicht 2170 wandert. Die optisch nicht transparente Abstandshalterstruktur 2163 kann durch Ätzen eines Silizium- oder Glaswafers gebildet werden und kann mit einem optisch nicht transparenten Material (z. B. schwarzem Chrom) beschichtet werden. Alternativ kann die optisch nicht transparente Abstandshalterstruktur 2163 aus geformtem Polymer hergestellt werden. In dieser Ausführungsform ist der Linsensatz 2191 direkt an den Fotosensor 2173 gebunden. Ähnlich wie seine Funktion in früheren Ausführungsformen dient der Linsensatz 2191 dazu, Licht auf die Fotodetektoren 2171 des Fotosensors 2173 anstatt auf die inaktiven Flächen zu fokussieren. Diese Linsen könnten direkt auf einer ASIC integriert werden, die den Fotosensor 2173 in einem Waferherstellungsprozess enthält, was die Produktion erleichtert.
  • 6. Fotosensorschicht mit konischen Abstandshalterstrukturen
  • 21I ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2108 der Fotosensorschicht 2170 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. In dieser Ausführungsform beinhaltet die Fotosensorschicht 2170 einen Satz von konischen, optisch nicht transparenten Abstandshalterstrukturen 2164, der zwischen einem Linsensatz (nicht gezeigt, aber z. B. Linsensatz 2191 in 21F und 21G) und dem Fotosensor 2173 positioniert ist. Der Satz von konischen, optisch nicht transparenten Abstandshalterstrukturen 2164 kann konische Rohre bilden, die jeweils einen im Wesentlichen ähnlichen Eintrittsdurchmesser wie einzelne Linsen im Linsensatz und jeweils einen im Wesentlichen ähnlichen Austrittsdurchmesser wie die einzelnen Fotodetektoren 2171 des Fotosensors 2173 aufweisen. Ein Satz von konischen, optisch nicht transparenten Abstandshalterstrukturen 2164 verhindert, dass Licht außerhalb des Empfängerkanals in Bereichen zwischen dem Linsensatz und dem Fotosensor 2173 wandert und führt auch Licht zu den Fotodetektoren 2171 des Fotosensors 2173. Der Satz konischer, optisch nicht transparenter Abstandshalterstrukturen 2164 kann durch Ätzen eines Silizium- oder Glaswafers gebildet werden und kann mit einem optisch nicht transparenten Material (z. B. schwarzem Chrom) beschichtet werden. Alternativ kann ein Satz konischer, optisch nicht transparenter Abstandshalterstrukturen 2164 aus geformtem Polymer hergestellt werden.
  • 21J ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2109 der Fotosensorschicht 2173 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. In dieser Ausführungsform beinhaltet die Fotosensorschicht 2173 einen Satz von konischen, optisch nicht transparenten Abstandshalterstrukturen 2164, der zwischen einem Linsensatz (nicht gezeigt, aber z. B. Linsensatz 2191 in 21F und 21G) und dem Fotodetektor 2171 positioniert ist. Die Innenwände des Satzes konischer, optisch nicht transparenter Abstandshalterstrukturen 2164 sind mit einem reflektierenden Material (z. B. Chrom) beschichtet, um die Fähigkeit der Strukturen, als eine Lichtröhre zu wirken, weiter zu verbessern. Der Satz konischer, optisch nicht transparenter Abstandshalterstrukturen 2164 bildet konische Rohre, die jeweils einen im Wesentlichen ähnlichen Eintrittsdurchmesser wie einzelne Linsen im Linsensatz und jeweils einen im Wesentlichen ähnlichen Austrittsdurchmesser wie die einzelnen Fotodetektoren 2171 des Fotosensors 2173 aufweisen. Ein Satz von konischen, optisch nicht transparenten Abstandshalterstrukturen 2164 verhindert, dass Licht außerhalb des Empfängerkanals in Bereichen zwischen dem Linsensatz und dem Fotosensor 2171 wandert und führt auch Licht zu den Fotodetektoren 2171 des Fotosensors 2173.
  • 7. Fotosensorschicht mit resonanten Fotohohlraumdioden
  • 21K ist ein vereinfachtes Querschnittsansichtsdiagramm eines Empfängerkanals 2132, der eine Ausführungsform 2110 der Fotosensorschicht 2170 gemäß einigen Ausführungsformen der vorliegenden Offenbarung beinhaltet. In dieser Ausführungsform ist die Fotosensorschicht 2170 mit einem Resonanzhohlraum um eine fotoempfindliche Diode herum konfiguriert, um die Photonendetektionseffizienz zu verbessern. Jeder Fotosensor 2173 beinhaltet eine oder mehrere resonante Fotohohlraumdioden. Jeder Fotosensor 2173 beinhaltet eine oder mehrere Fotodioden 2174 (Fotodetektoren) zusammen mit hochreflektierenden (z. B. teilweise gespiegelten) Oberflächen, die der Ober- und Unterseite des Bereichs (des Resonanzhohlraums) zugewandt sind. Im Allgemeinen kann ein Fotodetektor einer nicht resonanten Hohlraumdiode eine relativ geringe Quanteneffizienz aufweisen. Um den Prozentsatz der vom Fotodetektor detektierten Photonen zu verbessern, wird die resonante Fotohohlraumdiode 2174 verwendet, die beinhaltet: eine erste gespiegelte Oberfläche 2175 unter und dem Fotodetektor zugewandt; und eine zweite teilweise gespiegelte Oberfläche 2176 über und dem Fotodetektor zugewandt, die es auch ermöglicht, dass Licht in den Hohlraum eintritt, wie in 21K gezeigt. Wenn also ein Photon durch einen Fotodetektor der resonanten Fotohohlraumdiode 2174 passiert und nicht von diesem detektiert wird, reflektiert die erste gespiegelte Oberfläche 2175, die den Fotodetektor der resonanten Fotohohlraumdiode 2174 umgibt, das Photon zurück zur oberen reflektierenden Oberfläche 2176 des Hohlraums und erneut durch den Fotodetektor, der das Photon bei seinem zweiten Übergang durch den Fotodetektor detektieren kann. Wenn der Fotodetektor jedoch bei dieser zweiten Kollision das Photon nicht detektiert, wird der Reflexionsprozess wiederholt, wobei die zweite gespiegelte Oberfläche das Photon zurück zum Fotodetektor reflektiert, was wiederum das Photon bei seiner dritten Kollision mit dem Fotodetektor detektieren kann. Dieser Prozess kann sich wiederholen, bis das Photon vom Fotodetektor des Fotosensors detektiert wird oder das Photon aus dem Hohlraum entweicht oder von diesem absorbiert wird. Die resonante Fotohohlraumdiode 2174 kann somit eine relativ hohe Rate der Photonendetektion (d. h. annähernd 100 %) erreichen. Es ist zu beachten, dass eine Partikelinterpretation von Licht in der vorstehenden Beschreibung verwendet wird, aber die Berücksichtigung von Welleninterferenzeffekten für eine vollständige Beschreibung von Resonanzhohlraum-Fotodioden entscheidend ist. Es ist auch zu beachten, dass der aktive Bereich der resonanten Fotohohlraumdiode 2174 eine Standardfotodiode, eine Lawinenfotodiode, eine SPAD oder einen beliebigen anderen Fotosensor umfassen kann.
  • 21K zeigt ferner, dass eine oder mehrere Resonanzhohlraumfotodioden (oder „RCPs“) 2174 mit der Apertur 2144, der Sammellinse 2151, dem optischen Filterbereich 2160 und einer beliebigen Kombination der vorgenannten Diffusoren, Sammellinsensätzen oder Übersprechminderungsstrukturen kombiniert werden können, um eine Variante des Empfängerkanals 2132 zu bilden. Eine typische RCP wird eine ähnliche Wellenlängenempfindlichkeit wie der optische Filterbereich 2160 aufweisen und kann so ausgelegt werden, dass sie empfindlich auf einen ähnlichen Satz von Lichtwellenlängen wie der optische Filterbereich 2160 reagiert. Aufgrund der Herstellung oder anderer Einschränkungen kann die RCP jedoch eine größere Variabilität von Teil zu Teil der Mittenwellenlänge des Operationsspektrums der RCP aufweisen und somit ein breiteres Operationswellenlängenband erfordern, damit jeder Fotosensor in der Lage ist, Photonen bei der Operationswellenlänge des Systems zu detektieren. Alternativ kann es einfach unmöglich sein, eine RCP mit einem Operationswellenlängenband so schmal wie das Filterdurchlassband zuverlässig herzustellen. Zum Beispiel kann der optische Filterbereich 2160 ein Durchlassband aufweisen, das so schmal wie 0,1 nm ist, während die RCP ein Operationsband von 10 nm aufweisen kann. Mit dem optischen Filterbereich 2160 auf der RCP 2174 weist das kombinierte Filter- und RCP-System ein effektives Operationswellenlängenband auf, das dem optischen Filterbereich 2160 im Wesentlichen ähnlich ist. Darüber hinaus wird die RCP-Leistung verbessert, wenn kollimiertes Licht erfasst wird, im Gegensatz zu fokussiertem Licht, das als Ergebnis der Kollimatorlinse 2151 bereitgestellt wird, wie in 21K dargestellt. Auf diese Weise kann ein System, das die Apertur 2144, die Kollimatorlinse 2151, den optischen Filterbereich 2160 und die RCP 2174 verwendet, eine hohe Photonendetektionseffizienz und eine schmale Wellenlängenselektivität erreichen, um das SNR innerhalb des Empfangskanals 2132 zu maximieren.
  • E. Halbkugelförmige Empfängerstrukturen
  • 22A ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2200 eines Empfängerkanals 2232 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Der Empfängerkanal 2232 der Ausführungsform 2200 kann konvexe Halbkugeln beinhalten, die auf einem optisch nicht transparenten Material getragen werden. In dieser Ausführungsform ist eine Aperturschicht 2240 mit einem optischen Filter 2261 kombiniert, der auf einer konvexen Halbkugel 2267 beschichtet ist, wobei sich das Zentrum der Halbkugel 2267 am oder nahe dem Brennpunkt des einfallenden Lichts (Randstrahllinien 2233) befindet. Das Zentrum der Halbkugel 2267 entspricht auch oder entspricht fast dem Zentrum der Apertur 2244. In einigen Ausführungsformen kann die Halbkugel 2267 unter der Apertur 2244 liegen, wie in 22A dargestellt. Ein Vorteil der Ausführungsform besteht darin, dass für einen ausreichend gut fokussierten Strahlkegel alle Strahllinien 2233 durch den optischen Filter 2261 senkrecht zur Oberfläche des Filters verlaufen, wodurch die CWL-Verschiebung (Mittelwellenlänge) aufgrund von Variationen im Einfallswinkel des Lichts (z. B. Lichtstrahlen 2233) auf dem optischen Filter 2261 eliminiert wird, wodurch die Verwendung von sehr schmalen Bandpass- (z. B. 850-852 nm) Filtern ermöglicht wird.
  • Dies ist ferner in 22B veranschaulicht, die ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2201 des Empfängerkanals 2232 gemäß einigen Ausführungsformen der vorliegenden Offenbarung ist. Im Gegensatz zu Ausführungsform 2200 in 22A kann Ausführungsform 2201 in 22B so konfiguriert sein, dass die Halbkugel 2267 über der Apertur 2244 positioniert ist, um eine ähnliche Funktionalität, aber mit einem weniger kompakten Platzbedarf zu erreichen. Wie in 22B dargestellt, ist der Einfallswinkel auf dem optischen Filter 2261 für Randstrahllinien 2233 (und alle anderen Strahllinien, die in 22B nicht explizit dargestellt sind), die durch das Zentrum der Halbkugel 2267 verlaufen, normal. Es ist zu beachten, dass, obwohl in 22B oder 22C nicht dargestellt, die Strahlen beim Verlassen der Halbkugelstruktur brechen, da sie nicht normal zur planaren Austrittsfläche sind. In ähnlicher Weise wird in 22A eine gewisse Menge an
    Brechung vorhanden sein, wenn Strahlen in die flache Seite der halbkugelförmigen Struktur eintreten.
  • Wie in den 22A bis 22B veranschaulicht, beinhaltet der Empfängerkanal 2232 Seitenwände 2263 zwischen dem optisch nicht transparenten Stoppbereich 2246 und der Fotosensorschicht 2270 mit Fotodetektoren 2271, um Übersprechen zu reduzieren. Die Seitenwände 2263 können aus optisch nicht transparentem Material hergestellt sein oder aus optisch transparentem Material hergestellt sein. Darüber hinaus können die Seitenwände 2263 auch mit reflektierendem oder absorbierendem Material beschichtet sein.
  • Eine Nahansicht der konvexen halbkugelförmigen Oberfläche ist in 22C gezeigt, die ein vereinfachtes Querschnittsansichtsdiagramm der konvexen Halbkugel 2267 der 22A und 22B ist. Die konvexe Halbkugel 2267 kann mit dem optischen Filter 2261 beschichtet und auf einem selbsttragenden, optisch nicht transparenten Stoppbereich 2246 wie Metall, Silizium, Polymer usw. positioniert werden. In einigen Ausführungsformen, in denen die konvexen halbkugelförmigen Oberflächen der mikrooptischen Kanäle für hyperspektrale Bildgeber verwendet werden, kann der optische Filter 2261 so konfiguriert sein, dass er nicht gleichförmig ist. Beispielsweise kann der optische Filter 2261 ein Verlaufsfilter sein, der in einer Richtung (z. B. der Dickenrichtung) allmählich oder schrittweise zunimmt, sodass verschiedene mikrooptische Kanäle verschiedene optische Filterschichten aufweisen, die verschiedene Dicken aufweisen. Dies ermöglicht verschiedenen mikrooptischen Kanälen, einen verschiedenen Wellenlängenbereich zu messen, wie hierin in Bezug auf 3A und 3B erörtert.
  • 22D ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2202 eines Empfängerkanals 2232 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Der Empfängerkanal 2232 der Ausführungsform 2202 kann eine konvexe Halbkugel 2267 beinhalten, die auf einer starren optisch transparenten Schicht getragen wird. In dieser Ausführungsform ist die Aperturschicht 2240 mit dem optischen Filter 2261 kombiniert und auf der konvexen Halbkugel 2267 beschichtet, wobei sich das Zentrum der Halbkugel 2267 am oder nahe dem Brennpunkt des einfallenden Lichts (Strahllinien 2233) befindet. Das Zentrum der Halbkugel 2267 entspricht auch oder entspricht fast dem Zentrum der Apertur 2244. Wie in 22D dargestellt, kann die Halbkugel 2267 unter der Aperturschicht 2240 liegen. In einigen anderen Ausführungsformen kann die Halbkugel 2267 über der Aperturschicht 2240 liegen, wie in 22E dargestellt.
  • 22E ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2203 eines Empfängerkanals 2232 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Im Gegensatz zu Ausführungsform 2202 in 22D kann Ausführungsform 2215 in 2E so konfiguriert sein, dass die Halbkugel 2267 über der Apertur 2244 positioniert ist, um eine ähnliche Funktionalität wie Ausführungsform 2202, aber mit einem kompakteren Platzbedarf zu erreichen.
  • 22D und 22E zeigen die konvexe Halbkugel 2267 als mit dem optischen Filter 2261 beschichtet und auf die Aperturschicht 2240 aufgedruckt, die auf einer starren optisch transparenten Schicht 2245 (z. B. Glas, Polymer) mit der Apertur 2244 zusammen mit den entsprechenden optisch nicht transparenten Stoppbereichen 2246 getragen wird. Wie in den 22D und 22E veranschaulicht, beinhaltet der Empfängerkanal 2232 Seitenwände 2263 zwischen der optisch transparenten Schicht 2245 und der Fotosensorschicht 2270 mit Fotodetektoren 2271, um Übersprechen zu reduzieren. Die Seitenwände 2263 können aus optisch nicht transparentem Material hergestellt sein oder aus optisch transparentem Material hergestellt sein. Darüber hinaus können die Seitenwände 2263 auch mit reflektierendem oder absorbierendem Material beschichtet sein. Es ist zu beachten, dass, obwohl in den 22D und 22E nicht dargestellt, eine Brechung der Strahlen 2233 vorhanden sein kann, die in die starre optisch transparente Schicht 2245 eintreten und diese verlassen.
  • 22F ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2204 eines Empfängerkanals 2232 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Die Ausführungsform 2204 kann eine konkave Halbkugel 2267 aus optisch transparentem Material (z. B. Glas, Polymer) mit einem beschichteten optischen Filter 2261 beinhalten. Die selbsttragende Aperturschicht 2240 kann die konkave Halbkugel 2267 überhängen und kann mit einem optisch nicht transparenten starren Material (z. B. Metallfilm) perforiert oder geätzt werden, um die optisch nicht transparenten Stoppbereiche 2246 zu bilden. Wie in 22F dargestellt, kann die Halbkugel 2267 unter der Aperturschicht 2240 positioniert sein. Das Zentrum der Apertur 2244 kann sich am oder nahe dem Brennpunkt des einfallenden Lichts (Strahlen 2233) befinden. Zusätzlich kann sich das Zentrum der Halbkugel 2267 am oder nahe dem Brennpunkt des einfallenden Lichts (Strahlen 2233) befinden. Wie in 22F veranschaulicht, beinhaltet der Empfängerkanal 2232 Seitenwände 2263 zwischen der optisch transparenten Schicht 2245 und der Fotosensorschicht 2270 mit Fotodetektoren 2271, um Übersprechen zu reduzieren. Die Seitenwände 2263 können aus optisch nicht transparentem Material hergestellt sein oder aus optisch transparentem Material hergestellt sein. Darüber hinaus können die Seitenwände 2263 auch mit reflektierendem oder absorbierendem Material beschichtet sein.
  • 22G ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2205 des Empfängerkanals 2232 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Im Gegensatz zu Ausführungsform 2204 in 22F kann Ausführungsform 2205 in 22G so konfiguriert sein, dass die Halbkugel 2267 über der Apertur 2244 positioniert ist, um eine ähnliche Funktionalität wie Ausführungsform 2204 zu erreichen, aber Ausführungsform 2204 kann einen kompakteren Platzbedarf haben.
  • 22H ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2206 des Empfängerkanals 2232 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Der Empfängerkanal 2232 der Ausführungsform 2206 kann eine konkave Halbkugel 2267 und eine Aperturschicht 2240 beinhalten, die von einer starren, optisch transparenten Schicht 2245 getragen wird. In einigen Ausführungsformen kann die konkave Halbkugel 2267 unter der Aperturschicht 2240 liegen, wie in 22H dargestellt. Die konkave Halbkugel 267 kann aus optisch transparentem Material (z. B. Glas, Polymer) mit einem beschichteten optischen Filter 2261 hergestellt werden. Die Aperturschicht 2240 mit der optisch transparenten Apertur 2244 und den entsprechenden optisch nicht transparenten Stoppbereichen 244 wird von der optisch transparenten Schicht 2245 sowohl auf der Ober- als auch auf der Unterseite der Aperturschicht 2240 getragen. Das Zentrum der Apertur 2244 befindet sich am oder nahe dem Brennpunkt des einfallenden Lichts (Strahlen 2233). Zusätzlich befindet sich das Zentrum der konkaven Halbkugel 2267 am oder nahe dem Brennpunkt des einfallenden Lichts (Strahlen 2233). Wie in 22H veranschaulicht, beinhaltet der Empfängerkanal 2232 Seitenwände 2263 zwischen der optisch transparenten Schicht 2245 und der Fotosensorschicht 2270 mit Fotodetektoren 2271, um Übersprechen zu reduzieren. Die Seitenwände 2263 können aus optisch nicht transparentem Material hergestellt sein oder aus optisch transparentem Material hergestellt sein. Darüber hinaus können die Seitenwände 2263 auch mit reflektierendem oder absorbierendem Material beschichtet sein.
  • 22I ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2207 des Empfängerkanals 2232 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Im Gegensatz zu Ausführungsform 2206 in 22H kann Ausführungsform 2207 in 2I so konfiguriert sein, dass die Halbkugel 2267 über der Apertur 2244 positioniert ist, um eine ähnliche Funktionalität wie Ausführungsform 2206 zu erreichen.
  • F. Untere Mikrolinsenschicht
  • 23A ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2300 eines Empfängerkanals 2332 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Der Empfängerkanal 2332 der Ausführungsform 2300 kann eine untere Mikrolinsenschicht (BMLL) beinhalten, die aus einer oder mehreren Mikrolinsen 2391 besteht, die konfiguriert sind, um divergente Lichtstrahlen in den aktiven Abschnitt der Fotosensoren zu führen. Die BMLL führt eine Strahlwinkelkorrektur durch, um Licht von unterschiedlichen Winkeln in gleichmäßig beabstandete Fotosensoren zu führen. Eine Strahlwinkelkorrektur kann durch Steuern des seitlichen Versatzes zwischen dem Linsenzentrum und dem Fotosensorzentrum, Kippen der Linse oder Einstellen der Form der Linse erreicht werden. Eine bessere Veranschaulichung dieses Vorgangs ist in 23B zu sehen.
  • 23B ist ein vereinfachtes Querschnittsansichtsdiagramm einer Nahansicht der Ausbreitung von Licht während einer Strahlwinkelkorrektur durch eine BMLL gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Wie dargestellt, ist der Abstand der Mikrooptik entweder nicht konstant oder ist nicht gleich dem Abstand der Linsen 2391, um die divergenten Strahlen (2333) zu aktiven Abschnitten der Fotodetektoren 2371 in der Fotosensorschicht zu lenken. Unter Bezugnahme auf 23A kann jede Mikrolinse 2391 so positioniert sein, dass sie einem jeweiligen Fotodetektor 2371 entspricht.
  • 23C ist ein vereinfachtes Querschnittsansichtsdiagramm einer Ausführungsform 2301 eines Empfängerkanals 2332 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Der Empfängerkanal 2332 der Ausführungsform 2301 kann eine einzelne Mikrolinse 2391 anstelle einer Vielzahl von Mikrolinsen beinhalten, wie in 23A dargestellt. Die einzelne Mikrolinse 2391 kann über einem einzelnen Fotodetektor 2371 positioniert und zentriert sein. Die Mikrolinse 2391 kann konfiguriert sein, um Licht zu dem einzelnen Fotodetektor 2371 zu führen.
  • 23D und 23E ist ein vereinfachtes Querschnittsansichtsdiagramm von Ausführungsformen 2302 bzw. 2303 eines Empfängerkanals 2332 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Der Empfängerkanal 2332 der Ausführungsform 2302 kann eine BMLL beinhalten, die auf der Unterseite einer optisch transparenten Schicht 2345 positioniert ist, die die Aperturschicht 2340 und die Halbkugel 2367 mit einem optischen Filter 2361 beschichtet trägt. Wie in 23D dargestellt, kann die BMLL aus mehreren Linsen 2393 gebildet werden, um divergentes Licht zu mehreren Fotodetektoren 2371 zu leiten. Wie in 23E dargestellt, kann die BMLL aus einer einzelnen Mikrolinse 2391 gebildet werden, um divergentes Licht zum Fotodetektor 2371 zu führen.
  • Die Ausführungsformen 2302 und 2303 in den 23D und 23E beinhalten jeweils eine konvexe Halbkugel 2367, die auf einer starren optisch transparenten Schicht 2345 getragen wird. In diesen Veranschaulichungen ist eine Aperturschicht 2340 mit einem optischen Filter 2361 kombiniert, der auf die Halbkugel 2367 beschichtet ist, wobei sich das Zentrum der Halbkugel 2367 am oder nahe dem Brennpunkt des einfallenden Lichts (Randstrahllinien 2333) befindet. Das Zentrum der Halbkugel 2367 kann auch dem Zentrum der Apertur 2344 entsprechen oder fast entsprechen. Die konvexe Halbkugel 2367 kann mit dem optischen Filter 2361 beschichtet und auf die Aperturschicht 2340 aufgedruckt werden, die auf der starren optisch transparenten Schicht 2345 (z. B. einer Schicht, die aus Glas, Polymer gebildet ist) und den entsprechenden optisch nicht transparenten Stoppbereichen 2346 getragen wird. Wie in den 23D und 23E veranschaulicht, beinhaltet der Empfängerkanal 2332 Seitenwände 2363 zwischen der optisch transparenten Schicht 2345 und der Fotosensorschicht 2370, um Übersprechen zu reduzieren. Die Seitenwände 2363 können aus optisch nicht transparentem Material hergestellt sein oder aus optisch transparentem Material hergestellt sein. Darüber hinaus können die Seitenwände 2363 auch mit reflektierendem oder absorbierendem Material beschichtet sein.
  • G. Zusätzliche beispielhafte Empfangskanäle
  • Es ist zu beachten, dass ein Empfängerkanal eine Struktur auf mikröoptischer Ebene ist, z. B. ein vorstehend erörterter mikrooptischer Empfängerkanal, der aus mehreren Schichten gebildet werden kann, einschließlich einer oder mehrerer einer Aperturschicht, einer optischen Linsenschicht unter der Aperturschicht, einer optischen Filterschicht unter der Apertur und einer optischen Linsenschicht und einer Fotosensorschicht unter allen anderen Schichten. Diese Schicht kann auf verschiedene Arten konfiguriert werden, um Übersprechen abzuschwächen, d. h., Streulicht angrenzenden Empfängerkanälen auszusetzen, wie hierin in Bezug auf die 17-23E erörtert. Verschiedene Beispiele von Empfängerkanälen werden vorstehend in Bezug auf die 17, 22A-221 und 23A-23E erörtert. Zwei weitere Beispiele von Empfängerkanälen gemäß der vorliegenden Offenbarung sind in 24 und 25 veranschaulicht. Ausführungsformen der vorliegenden Offenbarung sind nicht auf die hierin beschriebenen bestimmten Empfängerkanäle beschränkt. Stattdessen wird ein Fachmann basierend auf der vorliegenden Offenbarung erkennen, dass in anderen Ausführungsformen ein Empfängerkanal gemäß der Offenbarung unter anderen Optionen eine Aperturschicht, wie vorstehend in Bezug auf eine der 18A-18D oder 19A-19D beschrieben, eine Filterschicht, wie vorstehend in Bezug auf eine der 20A-20G beschrieben, und/oder eine Fotosensorschicht, wie vorstehend in Bezug auf eine der 21A-21K beschrieben, beinhalten kann.
  • 24 ist ein vereinfachtes Querschnittsansichtsdiagramm einer exemplarischen Ausführungsform eines Empfängerkanals 2400 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Der Empfängerkanal 2400 kann eine Aperturschicht 2440 beinhalten, die aus ersten und zweiten Aperturen 2444 zusammengesetzt ist, die jeweils in jeweiligen optisch nicht transparenten Schichten 2446a und 2446b gebildet sind. Erste und/oder zweite Aperturen 2444 können aus einem Leerraum gebildet sein, der durch Öffnungen innerhalb der Schichten 2446a und 2446b in einigen Ausführungsformen definiert ist, während erste und/oder zweite Aperturen 2444 in einigen anderen Ausführungsformen durch optisch transparente Materialien gebildet sein können. Die erste und die zweite optisch nicht transparente Schicht 2446a und 2446b können von einem optisch transparenten Substrat 2445 getragen werden, das zwischen der ersten und der zweiten optisch nicht transparenten Schicht 2446a und 2446b eingebettet ist.
  • Der Empfängerkanal 2400 kann auch eine optische Linsenschicht 2450 beinhalten, die unter der Aperturschicht 2440 angebracht ist. Die optische Linsenschicht 2450 kann eine Kollimatorlinse 2451 und eine optisch nicht transparente Abstandsstruktur 2456 beinhalten. Die Kollimatorlinse 2451 kann von der Aperturschicht 2440 durch die optisch nicht transparente Abstandsstruktur 2456 getrennt werden. In einigen Ausführungsformen bildet die optisch nicht transparente Abstandshalterstruktur 2456 ein Rohr mit einem Umfang, der die Kollimatorlinse 2451 umgibt und sich in Richtung der Aperturschicht 2440 erstreckt. Die optisch nicht transparente Abstandshalterstruktur 2456 kann aus einem optisch reflektierenden oder absorbierenden Material gebildet sein, das verhindert, dass Licht außerhalb des Empfängerkanals 2400 im Bereich zwischen der Aperturschicht 2440 und der Kollimatorlinse 2451 wandert.
  • Zusätzlich zu der Aperturschicht 2440 und der optischen Linsenschicht 2450 kann der Empfängerkanal 2400 ferner eine optische Filterschicht 2460 beinhalten, die direkt unter der optischen Linsenschicht 2450 positioniert ist. Die optische Filterschicht 2460 kann zwei optische Filter 2461 beinhalten, die ein optisch transparentes Substrat 2465 einbetten, das den optischen Filter 2461 strukturell trägt. Die optische Filterschicht 2460 kann eine beliebige Anzahl und Art von optischen Filtern 2461 auf einer beliebigen Anzahl von Substraten 2065 enthalten. Zum Beispiel kann einer der optischen Filter 2461 ein Bandpassfilter sein und entweder auf oder direkt unter dem optisch transparenten Substrat 2465 positioniert sein, das das gesamte einfallende Licht für einen definierten Wellenlängensatz (z. B. 900-945 nm und 950-995 nm) blockiert. Der andere optische Filter 2461, der auf der gegenüberliegenden Seite des optisch transparenten Substrats 2465 platziert ist, kann ein anderer Filter sein, wie beispielsweise ein Breitspektrum-Blockierfilter (mit Ausnahme des vom Bandpassfilter abgedeckten Bereichs), der beispielsweise 200-915 nm und 980-1600 nm abdeckt. Der Bandpassfilter und der Blockierfilter sind so ausgelegt, dass kein Austreten im Übergangsbereich zwischen den beiden Filtern vorliegt. Die Filter könnten jedoch zwei Kantenpassfilter sein, die so ausgelegt sind, dass sie in Verbindung als Bandpassfilter oder jeder andere Filtertyp arbeiten.
  • Unmittelbar unter der optischen Filterschicht 2460 kann sich eine Fotosensorschicht 2470 befinden. In einigen Ausführungsformen kann die Fotosensorschicht 2470 der Ausführungsform 2400 eine optisch nicht transparente Abstandsstruktur 2463 beinhalten, die zwischen einem Sammellinsensatz 2491 und einem Fotosensor 2473 positioniert ist. Der Fotosensor 2473 kann aus einem Satz von diskreten Fotodetektoren 2471 (z. B. SPADs) gebildet sein, die zwischen einem Satz von inaktiven Bereichen 2172 (z. B. integrierte Logik) in einer abwechselnden Anordnung positioniert sind, wobei jeder diskrete Fotodetektor konfiguriert ist, um einfallende Photonen zu detektieren. Der Sammellinsensatz 2491 kann zwischen der optischen Filterschicht 2460 und dem Fotosensor 2473 mit Fotodetektoren 2471 eingefügt sein und eine Sammellinse 2491 pro diskretem Fotodetektor 2471 innerhalb des Fotosensors 2173 beinhalten, wobei jede Linse des Sammellinsensatzes 2491 konfiguriert ist, um einfallende Photonen, die von der optischen Filterschicht 2460 weitergeleitet werden, auf einen entsprechenden diskreten Fotodetektor 2471 zu fokussieren. Jede Sammellinse kann eine gemeinsame Brennweite aufweisen, und der Sammellinsensatz 2491 kann über der Erfassungsebene des Fotosensors um diese gemeinsame Brennweite (oder um einen Abstand, der im Wesentlichen ähnlich dieser gemeinsamen Brennweite ist) versetzt sein, und jede Sammellinse kann einfallendes Licht - das in der optischen Linsenschicht 2450 kollimiert und durch die optische Filterschicht 2460 geleitet wird - auf einen entsprechenden Fotodetektor 2471 im Fotosensor 2473 bündeln. Die optisch nicht transparente Abstandshalterstruktur 2463 bildet ein Rohr mit im Wesentlichen ähnlichem oder größerem Durchmesser wie eine Kollimatorlinse 2451 und verhindert, dass Licht außerhalb des Empfängerkanals 2400 im Bereich zwischen dem Linsensatz 2491 und dem Fotosensor 2473 wandert. Die optisch nicht transparente Abstandshalterstruktur 2163 könnte aus optisch nicht transparenten Bulk-Medien (z. B. Silizium oder Polymer) hergestellt werden.
  • Eine weitere beispielhafte Ausführungsform eines Empfängerkanals ist in 25 dargestellt. 25 ist ein vereinfachtes Querschnittsansichtsdiagramm eines exemplarischen Empfängerkanals 2500 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Der Empfängerkanal 2500 kann eine Aperturschicht 2540, eine optische Linsenschicht 2550, die unter der Aperturschicht 2540 angebracht ist, und eine optische Filterschicht 2560 unter der Aperturschicht 2540 und der optischen Linsenschicht 2550 beinhalten. Die Aperturschicht 2540, die optische Linsenschicht 2550 und die optische Filterschicht 2560 können den gleichen Aufbau aufweisen und als entsprechende Komponenten in 24 fungieren.
  • Der Empfängerkanal 2500 kann auch eine Fotosensorschicht 2570 beinhalten, die unmittelbar unter der optischen Filterschicht 2560 positioniert ist. In einigen Ausführungsformen kann die Fotosensorschicht 2570 der Ausführungsform 2400 eine optisch nicht transparente Abstandsstruktur 2563, einen Sammellinsensatz 2591 und einen Fotosensor 2573 beinhalten. Im Gegensatz zu dem Sammellinsensatz 2491 des Empfängerkanals 2400 in 24 kann der Sammellinsensatz 2591 des Empfängerkanals 2500 direkt auf der oberen Oberfläche des Fotosensors 2573 anstatt direkt auf einer Unterseite der optischen Filterschicht 2560 positioniert sein. Darüber hinaus kann die optisch nicht transparente Abstandshalterstruktur 2563 aus einem optisch nicht transparenten Material (z. B. schwarzem Chrom) gebildet werden, das auf einer optisch transparenten Schicht, wie beispielsweise einem Silizium- oder Glassubstrat, beschichtet ist, anstatt eine feste optisch nicht transparente Struktur zu sein, z. B. die optisch nicht transparente Abstandshalterstruktur 2463 des Empfängerkanals 2400 in 24. Der Linsensatz 2591 dient dazu, Licht auf die Fotodetektoren 2571 des Fotosensors 2573 anstatt auf inaktive Bereiche 2572 zu fokussieren.
  • Durch Implementieren eines Empfängerkanals gemäß einer der Ausführungsformen 2400 und 2500 kann verhindert werden, dass verirrtes Licht auf angrenzenden Empfängerkanälen belichtet wird, wodurch die Genauigkeit der Fähigkeit jedes Fotosensors, Photonen zur Bildgebung aufzunehmen, verbessert wird.
  • VI. MIKROOPTISCHE EMPFÄNGERKANAL-ARRAY-VARIATIONEN
  • Gemäß einigen Ausführungsformen der vorliegenden Offenbarung können mikrooptische Empfängerkanäle in einem Array organisiert sein. Das Array kann einige Dimensionen gemäß Design aufweisen. Beispielsweise kann ein Array von mikrooptischen Empfängerkanälen in einem M × N-Array angeordnet sein, wobei M und N gleich oder größer als 1 sind. Dementsprechend können mikrooptische Empfängerkanäle ein- und zweidimensionale Arrays sein, wie hierin in Bezug auf 26-30 erörtert wird, die verschiedene Ausführungsformen von mikrooptischen Empfängerkanalarrays darstellen, wobei jeder Punkt einen mikrooptischen Empfängerkanal darstellt. Wie hierin erwähnt, kann jeder Empfängerkanal eine Vielzahl von Schichten beinhalten, die aufeinander gestapelt sind. Somit ist zu erkennen, dass, wenn er in einem Array angeordnet ist, jeder mikrooptische Empfängerkanal Teil einer monolithischen Schicht ist, die aus den einzelnen Elementen zusammengesetzt ist, die viele Male in der MxN Anordnung reproduziert werden, z. B. einem M×N Aperturschichtarray, einem M×N Mikrolinsenschichtarray und einem M×N Fotosensorschichtarray. Wenn sie miteinander gebunden sind, erstellen diese Array-Schichten ein monolithisches optisches Mehrkanal-Mikroempfängerarray.
  • 26 ist eine vereinfachte Veranschaulichung eines exemplarischen mikrooptischen Empfängerarrays 2600 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Das mikrooptische Empfängerarray 2600 ist als ein lineares (M × 1 ) Array konfiguriert, insbesondere ein 16 × 1-Array. Diese Anordnung kann eine hohe Auflösung (z. B. 16x1024) erreichen, da die Implementierung zum Abtasten des Arrays in einer Dimension geeignet ist. Als ein Beispiel kann für einen Empfängerkanalabstand von 500 Mikrometern das dargestellte Layout in einem Chip mit einer Größe implementiert werden, die etwa 500 Mikrometer mal 8000 Mikrometer beträgt.
  • 27 ist eine vereinfachte Veranschaulichung eines exemplarischen mikrooptischen Empfängerarrays 2700 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Das mikrooptische Empfängerarray 2700 ist als ein rechteckiges (M × N) Array konfiguriert, insbesondere ein 16 × 32-Array. Somit kann für einen Empfängerkanalabstand von 500 Mikrometern das dargestellte Layout in einem Chip mit einer Größe von 8000 Mikrometern mal 12000 Mikrometer implementiert werden.
  • 28 ist eine vereinfachte Veranschaulichung eines exemplarischen mikrooptischen Empfängerarrays 2800 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Das mikrooptische Empfängerarray 2800 ist als ein M × N gestaffeltes Array konfiguriert. In dieser Veranschaulichung sind Empfängerkanäle 2832 in einem 16 × 4-gestaffelten Array ausgelegt. Diese Anordnung kann eine hohe Auflösung (z. B. 64x1024) erreichen, da die Implementierung mit Hilfe von Sweeping möglich ist. Für einen Empfängerkanalabstand von 500 Mikrometern kann das in 28 dargestellte Layout in einem Chip mit einer Größe implementiert werden, die etwa 2000 Mikrometer mal 8375 Mikrometer beträgt.
  • 29 ist eine vereinfachte Veranschaulichung eines exemplarischen mikrooptischen Empfängerarrays 2900 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Das mikrooptische Empfängerarray 2900 ist als ein verzerrtes lineares (M × 1) Array konfiguriert. In dieser Ausführungsform ist der Abstand zwischen Empfängerkanälen 2932 ungleichmäßig. Empfängerkanäle nahe dem Zentrum, dargestellt als 2932-01, sind nahe beieinander platziert (z. B. 400 Mikrometer voneinander entfernt), während die äußeren Kanäle, dargestellt als 2932-02, weiter voneinander entfernt platziert sind (z. B. größer als 400 Mikrometer voneinander entfernt), oder umgekehrt. Diese Anordnung hat den Vorteil, dass sie in der Lage ist, eine Korrektur der Verzerrungskurve einer Linse zu ermöglichen (d. h. die Winkel zwischen den Empfängerkanalsichtfeldern sind gleichmäßig im Objektraum beabstandet). Die in 29 dargestellte Anordnung kann verwendet werden, um eine hohe Auflösung (z. B. 16× 1024) zu erreichen, da die Implementierung mit Hilfe von Sweeping möglich ist. Für einen durchschnittlichen Empfängerkanalabstand von 500 Mikrometern kann das dargestellte Layout in einem Chip mit einer Größe implementiert werden, die etwa 500 Mikrometer mal 8000 Mikrometer beträgt.
  • In einigen Ausführungsformen können die Empfängerkanäle in einem M × N verzerrten Array (wobei N ≥ 1) konfiguriert sein. In solchen Ausführungsformen sind die Empfängerkanäle im Zentrum weiter voneinander entfernt in sowohl x- als auch y-Richtung platziert als die äußeren Empfängerkanäle. Dies korrigiert eine weitere mögliche Form der Linsenverzerrung.
  • 29 ist eine vereinfachte Veranschaulichung eines exemplarischen mikrooptischen Empfängerarrays 2900 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Das mikrooptische Empfängerarray 2900 ist in einem beliebigen Muster konfiguriert. Diese Layout-Anordnung hat den Vorteil, dass sie in der Lage ist, eine Linsenverzerrung aufzunehmen, Anpassungen vorzunehmen, um jegliche Zeit- oder Weiterleitungs-Variationen zu kompensieren und auch ein beliebiges Muster von einer Beleuchtungsquelle anzupassen.
  • Obwohl die vorliegende Offenbarung in Bezug auf spezifische Ausführungsformen beschrieben wurde, ist zu beachten, dass die vorliegende Offenbarung alle Modifikationen und Äquivalente innerhalb des Umfangs der folgenden Ansprüche abdecken soll.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 11073278 [0063]

Claims (10)

  1. Optisches System zum Durchführen von Abstandsmessungen, wobei das optische System umfasst: eine rotierbare Plattform; eine Vielzahl von oberflächenemittierenden Lasern mit vertikalem Resonator, VCSELs, die in einem Array angeordnet und mit der rotierbaren Plattform gekoppelt sind, wobei jeder VCSEL in der Vielzahl von VCSELs konfiguriert ist, um diskrete Lichtpulse zu erzeugen und in ein Feld außerhalb des optischen Systems zu übertragen; einen optischen Empfänger, der mit der rotierbaren Plattform gekoppelt ist, wobei der optische Empfänger eine Bulk-Empfängeroptik und eine Vielzahl von Fotosensoren umfasst, wobei jeder Fotosensor eine Vielzahl von Einzelphotonen-Lawinendioden, SPADs, umfasst, die auf einfallende Photonen reagieren; eine Systemsteuerung, die an einer stationären Komponente des optischen Systems montiert ist; und eine optische Kommunikationsverbindung, die operativ zwischen der Systemsteuerung und dem optischen Empfänger gekoppelt ist, um der Systemsteuerung zu ermöglichen, mit dem optischen Empfänger zu kommunizieren.
  2. Optisches System nach Anspruch 1, wobei sich die optische Kommunikationsverbindung zwischen der stationären Komponente des optischen Systems und der rotierbaren Plattform erstreckt, um die Systemsteuerung operativ mit dem optischen Empfänger zu koppeln.
  3. Optisches System nach einem der vorhergehenden Ansprüche, wobei jeder VCSEL der Vielzahl von VCSELs ein bestimmtes Sichtfeld beleuchtet.
  4. Optisches System nach Anspruch 3, wobei der optische Empfänger und die Vielzahl von VCSELs so konfiguriert sind, dass jeder Übertragerkanal, entlang dem die Lichtpulse von jedem der Vielzahl von VCSELs übertragen werden, mit einem entsprechenden Empfängerkanal eines Fotosensors der Vielzahl von Fotosensoren des optischen Empfängers gepaart ist.
  5. Optisches System nach Anspruch 4, wobei das Zentrum des Sichtfelds jedes gepaarten Übertrager- und Empfängerkanals ausgerichtet ist, um in einem bestimmten Abstand vom optischen System nicht überlappend mit dem Sichtfeld jedes verbleibenden gepaarten Übertrager- und Empfängerkanals zu sein.
  6. Optisches System nach einem der vorhergehenden Ansprüche, wobei das System Abstandsdaten basierend auf Zeiten zwischen der Übertragung der Lichtpulse von der Vielzahl von VCSELs und der Detektion von Photonen von den Lichtpulsen durch die Vielzahl von SPADs erzeugt.
  7. Optisches System nach einem der vorhergehenden Ansprüche, wobei das Array von VCSELs ein lineares, eindimensionales Array ist.
  8. Optisches System nach einem der vorhergehenden Ansprüche, wobei die Fotosensoren der Vielzahl von Fotosensoren in einem Array angeordnet sind, das dem Array von VCSELs entspricht.
  9. Optisches System nach Anspruch 8, wobei das Array von Fotosensoren ein lineares, eindimensionales Array ist.
  10. Optisches System nach einem der vorhergehenden Ansprüche, wobei das optische System ferner einen Motor umfasst, der innerhalb des Gehäuses angebracht und operativ gekoppelt ist, um die Plattform, die Vielzahl von VCSELs und den optischen Empfänger zu drehen.
DE202018006696.6U 2017-05-15 2018-05-14 Optischer Bildübertrager mit Helligkeitsverbesserung Active DE202018006696U1 (de)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201762506445P 2017-05-15 2017-05-15
US201762506449P 2017-05-15 2017-05-15
US201762506437P 2017-05-15 2017-05-15
US62/506,445 2017-05-15
US62/506,449 2017-05-15
US62/506,437 2017-05-15
US201762515291P 2017-06-05 2017-06-05
US62/515,291 2017-06-05

Publications (1)

Publication Number Publication Date
DE202018006696U1 true DE202018006696U1 (de) 2022-04-01

Family

ID=64096629

Family Applications (2)

Application Number Title Priority Date Filing Date
DE202018006696.6U Active DE202018006696U1 (de) 2017-05-15 2018-05-14 Optischer Bildübertrager mit Helligkeitsverbesserung
DE202018006695.8U Active DE202018006695U1 (de) 2017-05-15 2018-05-14 Optischer Bildübertrager mit Helligkeitsverbesserung

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE202018006695.8U Active DE202018006695U1 (de) 2017-05-15 2018-05-14 Optischer Bildübertrager mit Helligkeitsverbesserung

Country Status (10)

Country Link
US (7) US11131773B2 (de)
EP (1) EP3615901B1 (de)
JP (2) JP7154230B2 (de)
KR (2) KR102706360B1 (de)
CN (2) CN111273256B (de)
AU (1) AU2018269000B2 (de)
CA (1) CA3063605A1 (de)
DE (2) DE202018006696U1 (de)
TW (1) TW201907140A (de)
WO (1) WO2018213200A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022127849A1 (de) * 2022-10-21 2024-05-02 Valeo Detection Systems GmbH Optischer expander eines lidarsystems und lidarsystem

Families Citing this family (225)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11609336B1 (en) 2018-08-21 2023-03-21 Innovusion, Inc. Refraction compensation for use in LiDAR systems
JP6308294B2 (ja) * 2014-04-14 2018-04-11 株式会社村田製作所 脈波伝播時間計測装置および生体状態推定装置
GB201511551D0 (en) 2015-07-01 2015-08-12 St Microelectronics Res & Dev Photonics device
US9992477B2 (en) 2015-09-24 2018-06-05 Ouster, Inc. Optical system for collecting distance information within a field
KR102705860B1 (ko) 2016-08-24 2024-09-11 아우스터, 인크. 필드 내에서 거리 정보를 수집하기 위한 광학 시스템
US10502574B2 (en) * 2016-09-20 2019-12-10 Waymo Llc Devices and methods for a sensor platform of a vehicle
USD871412S1 (en) * 2016-11-21 2019-12-31 Datalogic Ip Tech S.R.L. Optical scanner
ES2858324T3 (es) * 2016-12-27 2021-09-30 Yara Int Asa Sistema y método para determinar el estado de una planta
KR102580275B1 (ko) 2016-12-30 2023-09-18 이노뷰전, 인크. 다중파장 라이다 설계
US10942257B2 (en) 2016-12-31 2021-03-09 Innovusion Ireland Limited 2D scanning high precision LiDAR using combination of rotating concave mirror and beam steering devices
US11054508B2 (en) 2017-01-05 2021-07-06 Innovusion Ireland Limited High resolution LiDAR using high frequency pulse firing
WO2018129408A1 (en) 2017-01-05 2018-07-12 Innovusion Ireland Limited Method and system for encoding and decoding lidar
US11009605B2 (en) 2017-01-05 2021-05-18 Innovusion Ireland Limited MEMS beam steering and fisheye receiving lens for LiDAR system
DE102017101945B4 (de) * 2017-02-01 2026-02-12 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Messanordnung mit einem optischen Sender und einem optischen Empfänger
WO2018213200A1 (en) 2017-05-15 2018-11-22 Ouster, Inc. Optical imaging transmitter with brightness enhancement
JP2020526754A (ja) 2017-07-05 2020-08-31 アウスター インコーポレイテッド 電子走査型エミッタアレイ及び同期センサアレイを備えた測距デバイス
CN107218920B (zh) * 2017-08-04 2020-07-10 美国西北仪器公司 距离测定方法及距离测定系统
CN109387845A (zh) * 2017-08-07 2019-02-26 信泰光学(深圳)有限公司 测距模块
US10785400B2 (en) 2017-10-09 2020-09-22 Stmicroelectronics (Research & Development) Limited Multiple fields of view time of flight sensor
JP2019070586A (ja) * 2017-10-10 2019-05-09 オリンパス株式会社 分光検出装置、及び、検出波長域の調整方法
CN111542765B (zh) 2017-10-19 2024-08-02 图达通智能美国有限公司 具有大动态范围的lidar
US11353556B2 (en) 2017-12-07 2022-06-07 Ouster, Inc. Light ranging device with a multi-element bulk lens system
US11346952B2 (en) 2017-12-08 2022-05-31 Hesai Technology Co., Ltd. Systems and methods for light detection and ranging
US11493601B2 (en) 2017-12-22 2022-11-08 Innovusion, Inc. High density LIDAR scanning
US11675050B2 (en) 2018-01-09 2023-06-13 Innovusion, Inc. LiDAR detection systems and methods
WO2019139895A1 (en) 2018-01-09 2019-07-18 Innovusion Ireland Limited Lidar detection systems and methods that use multi-plane mirrors
US10627487B2 (en) * 2018-02-10 2020-04-21 Delphi Technologies, Llc Enclosure
WO2019165130A1 (en) 2018-02-21 2019-08-29 Innovusion Ireland Limited Lidar detection systems and methods with high repetition rate to observe far objects
US11927696B2 (en) 2018-02-21 2024-03-12 Innovusion, Inc. LiDAR systems with fiber optic coupling
US12298399B2 (en) 2018-02-22 2025-05-13 Seyond, Inc. Receive path for LiDAR system
WO2020013890A2 (en) 2018-02-23 2020-01-16 Innovusion Ireland Limited Multi-wavelength pulse steering in lidar systems
WO2019165095A1 (en) 2018-02-23 2019-08-29 Innovusion Ireland Limited Distributed lidar systems
US11988773B2 (en) 2018-02-23 2024-05-21 Innovusion, Inc. 2-dimensional steering system for lidar systems
WO2019245614A2 (en) 2018-03-09 2019-12-26 Innovusion Ireland Limited Lidar safety systems and methods
KR102127741B1 (ko) 2018-03-20 2020-07-01 모빌아이 비젼 테크놀로지스 엘티디. 차량의 항법을 위한 시스템 및 방법
WO2019199796A1 (en) 2018-04-09 2019-10-17 Innovusion Ireland Limited Compensation circuitry for lidar receiver systems and method of use thereof
WO2019199775A1 (en) 2018-04-09 2019-10-17 Innovusion Ireland Limited Lidar systems and methods for exercising precise control of a fiber laser
US11303355B2 (en) * 2018-05-30 2022-04-12 Apple Inc. Optical structures in directional free-space optical communication systems for portable electronic devices
US10700780B2 (en) 2018-05-30 2020-06-30 Apple Inc. Systems and methods for adjusting movable lenses in directional free-space optical communication systems for portable electronic devices
US11099579B2 (en) * 2018-05-31 2021-08-24 Nissan North America, Inc. System for determining the number of remote vehicles following a host vehicle
CN114114295B (zh) 2018-06-15 2025-06-06 图达通智能美国有限公司 用于聚焦感兴趣的范围的lidar系统和方法
DE102018118653B4 (de) * 2018-08-01 2020-07-30 Sick Ag Optoelektronischer Sensor und Verfahren zum Erfassen eines Objekts
US10732032B2 (en) 2018-08-09 2020-08-04 Ouster, Inc. Scanning sensor array with overlapping pass bands
US10739189B2 (en) 2018-08-09 2020-08-11 Ouster, Inc. Multispectral ranging/imaging sensor arrays and systems
EP3854646B8 (de) 2018-08-14 2024-07-17 Mobileye Vision Technologies Ltd. Systeme und verfahren zur navigation mit sicheren abständen
US11579300B1 (en) 2018-08-21 2023-02-14 Innovusion, Inc. Dual lens receive path for LiDAR system
US11860316B1 (en) 2018-08-21 2024-01-02 Innovusion, Inc. Systems and method for debris and water obfuscation compensation for use in LiDAR systems
US11614526B1 (en) 2018-08-24 2023-03-28 Innovusion, Inc. Virtual windows for LIDAR safety systems and methods
US11796645B1 (en) 2018-08-24 2023-10-24 Innovusion, Inc. Systems and methods for tuning filters for use in lidar systems
US11579258B1 (en) 2018-08-30 2023-02-14 Innovusion, Inc. Solid state pulse steering in lidar systems
US11333748B2 (en) * 2018-09-17 2022-05-17 Waymo Llc Array of light detectors with corresponding array of optical elements
WO2020070311A1 (de) * 2018-10-04 2020-04-09 Iris-Gmbh Infrared & Intelligent Sensors Bildgebender sensor
US20210349193A1 (en) * 2018-10-08 2021-11-11 Sony Semiconductor Solutions Corporation Time of flight apparatus and method
US12313788B1 (en) 2018-10-09 2025-05-27 Seyond, Inc. Ultrashort pulses in LiDAR systems
US11561284B2 (en) * 2018-11-02 2023-01-24 Waymo Llc Parallax compensating spatial filters
US11275146B2 (en) * 2018-11-08 2022-03-15 Infineon Technologies Ag LIDAR system with non-uniform sensitivity response
CN109188401A (zh) * 2018-11-09 2019-01-11 深圳市速腾聚创科技有限公司 激光雷达光学系统及激光雷达
US11686824B2 (en) 2018-11-14 2023-06-27 Innovusion, Inc. LiDAR systems that use a multi-facet mirror
DE102018219481A1 (de) 2018-11-15 2020-05-20 Robert Bosch Gmbh Baugruppe für einen LiDAR-Sensor und LiDAR-Sensor
WO2020117785A1 (en) * 2018-12-08 2020-06-11 Magik Eye Inc. Vertical cavity surface emitting laser-based projector
US11585906B2 (en) 2018-12-26 2023-02-21 Ouster, Inc. Solid-state electronic scanning laser array with high-side and low-side switches for increased channels
US11067884B2 (en) * 2018-12-26 2021-07-20 Apple Inc. Through-display optical transmission, reception, or sensing through micro-optic elements
US11675055B2 (en) 2019-01-10 2023-06-13 Innovusion, Inc. LiDAR systems and methods with beam steering and wide angle signal detection
US11493633B2 (en) * 2019-02-05 2022-11-08 United States Of America As Represented By The Secretary Of The Air Force Range-enabled three-dimensional imaging system and associated methods
US11486970B1 (en) 2019-02-11 2022-11-01 Innovusion, Inc. Multiple beam generation from a single source beam for use with a LiDAR system
US11076098B2 (en) 2019-02-12 2021-07-27 VIAVI Solutions he. Panoramic image capture for multispectral sensor
JP7401550B2 (ja) * 2019-02-22 2023-12-19 プロフェシー 動体視覚センサおよびパターン投影を用いる3次元撮像および感知
DE102019202766C5 (de) * 2019-02-28 2024-04-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optische Sende/Empfangs-Einheit und Vorrichtung zur Signalübertragung
CN113544533A (zh) * 2019-03-05 2021-10-22 伟摩有限责任公司 Lidar发射器/接收器对准
CN114942453A (zh) * 2019-03-08 2022-08-26 欧司朗股份有限公司 Lidar传感器系统、用于该系统的光学部件、传感器和方法
US11289524B2 (en) 2019-03-13 2022-03-29 Semiconductor Components Industries, Llc Microlenses for semiconductor device with single-photon avalanche diode pixels
WO2020190920A1 (en) * 2019-03-18 2020-09-24 Sense Photonics, Inc. Dynamic range improvements in lidar applications
CN109901184B (zh) * 2019-03-25 2021-12-24 Oppo广东移动通信有限公司 飞行时间组件、终端及飞行时间组件的控制方法
DE102019107957A1 (de) * 2019-03-27 2020-10-01 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Optoelektronische vorrichtung und lidar-system
CN111751838B (zh) * 2019-03-28 2025-06-06 上海小瞳智能科技有限公司 一种微型固态激光雷达及其数据处理方法
JP7213466B2 (ja) * 2019-03-28 2023-01-27 パナソニックIpマネジメント株式会社 カメラシステム、搭乗者監視システム、移動装置、撮像方法及びプログラム
US11977185B1 (en) 2019-04-04 2024-05-07 Seyond, Inc. Variable angle polygon for use with a LiDAR system
US10838556B2 (en) 2019-04-05 2020-11-17 Apple Inc. Sensing system for detection of light incident to a light emitting layer of an electronic device display
CN110007291B (zh) * 2019-04-16 2021-07-02 深圳市速腾聚创科技有限公司 一种接收系统和激光雷达
US12153133B2 (en) 2019-04-26 2024-11-26 Ouster, Inc. Independent per-pixel integration registers for LIDAR measurements
CN113640815B (zh) 2019-04-26 2025-02-14 上海禾赛科技有限公司 激光雷达及其探测装置
WO2020222825A1 (en) * 2019-04-30 2020-11-05 Hewlett-Packard Development Company, L.P. Modular and tiled optical sensors
US10950743B2 (en) 2019-05-02 2021-03-16 Stmicroelectronics (Research & Development) Limited Time of flight (TOF) sensor with transmit optic providing for reduced parallax effect
DE102019206316A1 (de) * 2019-05-03 2020-11-05 Robert Bosch Gmbh Optisches System, insbesondere LiDAR-System, und Fahrzeug
DE102019206318A1 (de) * 2019-05-03 2020-11-05 Robert Bosch Gmbh Kumulative Kurzpulsemission für gepulste LIDAR-Vorrichtungen mit langer Belichtungszeit
WO2020232016A1 (en) 2019-05-13 2020-11-19 Ouster, Inc. Synchronized image capturing for electronic scanning lidar systems
WO2020228001A1 (zh) * 2019-05-16 2020-11-19 深圳市速腾聚创科技有限公司 激光接收阵列、激光雷达和智能感应设备
KR20220008918A (ko) * 2019-05-23 2022-01-21 센스 포토닉스, 인크. 원거리 필드 패턴의 맞춤화를 위한 광학 애퍼처 분할
US11307415B1 (en) 2019-05-29 2022-04-19 Facebook Technologies, Llc Head mounted display with active optics feedback and calibration
US11848542B1 (en) * 2019-05-29 2023-12-19 Meta Platforms Technologies, Llc Active optics feedback and calibration
JP7079753B2 (ja) 2019-06-11 2022-06-02 株式会社東芝 光検出装置、電子装置及び光検出方法
JP2021002541A (ja) * 2019-06-19 2021-01-07 株式会社リコー 光学装置、光源装置、検出装置及び電子機器
US11525892B2 (en) * 2019-06-28 2022-12-13 Waymo Llc Beam homogenization for occlusion resistance
US11549799B2 (en) 2019-07-01 2023-01-10 Apple Inc. Self-mixing interference device for sensing applications
DE102019118029A1 (de) * 2019-07-04 2021-01-07 Valeo Schalter Und Sensoren Gmbh Optische Messvorrichtung zur Bestimmung von Objektinformationen von Objekten in wenigstens einem Überwachungsbereich
FR3098603B1 (fr) * 2019-07-09 2021-07-16 Commissariat Energie Atomique Dispositif pour réaliser une série de mesures optiques sur des points voisins par multiplexage en longueur d’onde.
TWI845693B (zh) * 2019-07-11 2024-06-21 以色列商奧寶科技有限公司 用於檢驗之光學設備及方法
CN110441754B (zh) * 2019-07-22 2022-08-30 中国科学院上海光学精密机械研究所 细分视场光学效率可控制的光学接收装置
DE102019211277A1 (de) * 2019-07-30 2021-02-04 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Optoelektronische Messvorrichtung zur frequenzaufgelösten Messung einer Intensität einer elektromagnetischen Strahlung
CN113866784B (zh) * 2019-08-08 2023-02-03 上海禾赛科技有限公司 激光雷达及其控制方法
DE102019212611A1 (de) * 2019-08-22 2021-02-25 Robert Bosch Gmbh Empfangseinheit für eine LIDAR-Vorrichtung
US12117606B2 (en) * 2019-08-27 2024-10-15 SCREEN Holdings Co., Ltd. MEMs phased-array for LiDAR applications
JP7133523B2 (ja) 2019-09-05 2022-09-08 株式会社東芝 光検出装置及び電子装置
US11145778B2 (en) 2019-09-20 2021-10-12 Waymo Llc Monolithic silicon photomultiplier array
US11527582B1 (en) 2019-09-24 2022-12-13 Apple Inc. Display stack with integrated photodetectors
US11611058B2 (en) 2019-09-24 2023-03-21 Apple Inc. Devices and systems for under display image sensor
WO2021051439A1 (zh) * 2019-09-26 2021-03-25 深圳市速腾聚创科技有限公司 校正方法、装置、存储介质及多通道激光雷达
CN112584133B (zh) * 2019-09-27 2024-08-02 苹果公司 用于处理图像的系统和方法
US11150348B2 (en) * 2019-10-02 2021-10-19 Cepton Technologies, Inc. Techniques for detecting cross-talk interferences in lidar imaging sensors
DE102019126982A1 (de) * 2019-10-08 2021-04-08 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung von Objekten
KR102684228B1 (ko) 2019-10-21 2024-07-11 삼성전자주식회사 복수-입력 폴디드 카메라 및 이를 포함하는 모바일 장치
WO2021081947A1 (zh) * 2019-10-31 2021-05-06 华为技术有限公司 一种雷达系统、滤波器和移动平台
US12140416B2 (en) * 2019-11-07 2024-11-12 Spectricity Collimating array for an optical sensing device
US10797698B1 (en) 2019-11-29 2020-10-06 Waymo Llc Systems and methods for selecting light emitters for emitting light
US11862749B2 (en) * 2019-12-06 2024-01-02 Adesto Technologies Corporation Integrated module assembly for optical integrated circuits
DE102019219825A1 (de) * 2019-12-17 2021-06-17 Robert Bosch Gmbh Sendeeinheit und LIDAR-Vorrichtung mit optischem Homogenisierer
US12352900B2 (en) 2019-12-20 2025-07-08 Waymo Llc Light detection and ranging (lidar) device having a light-guide manifold
KR20220110850A (ko) * 2019-12-20 2022-08-09 에이엠에스 센서스 아시아 프라이빗 리미티드 다중 범위 채널들을 갖는 lidar
EP4066009A4 (de) * 2019-12-27 2023-11-29 Waymo LLC Optische umleiteinrichtung
US12468020B2 (en) 2019-12-27 2025-11-11 Waymo Llc Optical redirector device
CN113126064B (zh) * 2019-12-28 2024-06-11 华为技术有限公司 一种信号处理方法及相关装置
KR102896844B1 (ko) * 2020-01-07 2025-12-04 삼성전자주식회사 라이다 장치 및 그 동작 방법
US20230054053A1 (en) * 2020-01-16 2023-02-23 Sony Semiconductor Solutions Corporation Light source device and electronic apparatus
US11646335B2 (en) * 2020-01-30 2023-05-09 Semiconductor Components Industries, Llc Semiconductor devices with single-photon avalanche diodes and rectangular microlenses
JP7452044B2 (ja) * 2020-01-31 2024-03-19 株式会社デンソー 光検出装置
DE102020201636A1 (de) * 2020-02-11 2021-08-12 Ibeo Automotive Systems GmbH Einrichtung zur Erzeugung von Rückstreuungs-Histogrammdaten für die Bestimmung einer diffusen Rückstreuung bei einer optischen Laufzeitmessung und Verfahren
US20230121398A1 (en) * 2020-02-12 2023-04-20 Continental Autonomous Mobility US, LLC Blockage detection of high-resolution lidar sensor
US11592873B2 (en) 2020-02-14 2023-02-28 Apple Inc. Display stack topologies for under-display optical transceivers
US11561345B2 (en) * 2020-02-14 2023-01-24 Google Llc Apertures for reduced dynamic crosstalk and stray light control
KR102147279B1 (ko) * 2020-02-20 2020-08-24 국방과학연구소 물체 이동 탐지 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
CN113419247A (zh) * 2020-03-03 2021-09-21 华为技术有限公司 激光探测系统
US11295664B2 (en) 2020-03-11 2022-04-05 Apple Inc. Display-synchronized optical emitters and transceivers
FI129998B (fi) * 2020-04-22 2022-12-15 Teknologian Tutkimuskeskus Vtt Oy Hyperspektraalinen kuvantamislaite
US11695911B2 (en) 2020-04-27 2023-07-04 Ouster, Inc. Stereoscopic image capturing systems
WO2021219412A1 (en) * 2020-04-28 2021-11-04 Signify Holding B.V. An optical directional detector
US12270950B2 (en) 2020-04-28 2025-04-08 Ouster, Inc. LIDAR system with fog detection and adaptive response
US20210349192A1 (en) * 2020-05-07 2021-11-11 Beijing Voyager Technology Co., Ltd. Hybrid detectors for various detection range in lidar
US11619717B2 (en) * 2020-05-15 2023-04-04 Beijing Voyager Technology Co., Ltd. LiDAR receiver with movable detector
US11327237B2 (en) 2020-06-18 2022-05-10 Apple Inc. Display-adjacent optical emission or reception using optical fibers
DE102020208127A1 (de) * 2020-06-30 2021-12-30 Robert Bosch Gesellschaft mit beschränkter Haftung Lidar-Anordnung
CN111796339B (zh) * 2020-07-16 2021-03-19 长春工程学院 一种智能传感器的设计方法、智能设备
JP7298562B2 (ja) * 2020-07-20 2023-06-27 トヨタ自動車株式会社 車両の周辺検知装置
US12206032B2 (en) 2020-07-31 2025-01-21 Apple Inc. Wideband back-illuminated electromagnetic radiation detectors
US11487859B2 (en) 2020-07-31 2022-11-01 Apple Inc. Behind display polarized optical transceiver
US20220050183A1 (en) * 2020-08-12 2022-02-17 Beijing Voyager Technology Co., Ltd. Intertwined detector array for an optical sensing system
JP7476033B2 (ja) 2020-08-24 2024-04-30 株式会社東芝 受光装置及び電子装置
DE102020125023A1 (de) * 2020-09-25 2022-03-31 Marelli Automotive Lighting Reutlingen (Germany) GmbH Sensoreinrichtung, Scheinwerfer, Verfahren und Steuergerät
WO2022075553A1 (en) 2020-10-07 2022-04-14 Samsung Electronics Co., Ltd. Optical sensor device for determining distance to object and velocity of the object, and identifying the shape and structure of the object
US20220113405A1 (en) * 2020-10-14 2022-04-14 Argo AI, LLC Multi-Detector Lidar Systems and Methods
CN112260766B (zh) * 2020-10-19 2022-01-18 中国核动力研究设计院 一种射线偏转通信系统及通信方法
WO2022085310A1 (ja) * 2020-10-20 2022-04-28 ソニーセミコンダクタソリューションズ株式会社 距離測定装置及び距離測定方法
CN114488176A (zh) * 2020-10-23 2022-05-13 睿镞科技(北京)有限责任公司 3d图像传感器测距系统及使用该系统进行测距的方法
WO2022102856A1 (ko) * 2020-11-12 2022-05-19 주식회사 에스오에스랩 라이다 장치
CN114577341A (zh) * 2020-11-30 2022-06-03 华为技术有限公司 一种探测器及移动终端
US11789466B2 (en) * 2020-12-18 2023-10-17 Microsoft Technology Licensing, Llc Event camera based navigation control
US11892572B1 (en) 2020-12-30 2024-02-06 Waymo Llc Spatial light modulator retroreflector mitigation
TWI755252B (zh) * 2021-01-13 2022-02-11 宇瞻科技股份有限公司 輝度計
US12181608B2 (en) * 2021-01-27 2024-12-31 Ford Global Technologies, Llc Rotating sensor assembly
US12061289B2 (en) 2021-02-16 2024-08-13 Innovusion, Inc. Attaching a glass mirror to a rotating metal motor frame
US11422267B1 (en) 2021-02-18 2022-08-23 Innovusion, Inc. Dual shaft axial flux motor for optical scanners
US11789128B2 (en) 2021-03-01 2023-10-17 Innovusion, Inc. Fiber-based transmitter and receiver channels of light detection and ranging systems
CN112965243B (zh) * 2021-03-10 2022-10-04 北京航空航天大学 一种紧凑型眼纹(巩膜血管)成像装置
US11839133B2 (en) 2021-03-12 2023-12-05 Apple Inc. Organic photodetectors for in-cell optical sensing
DE102021106218B4 (de) * 2021-03-15 2025-05-15 Dspace Gmbh Testsystem für einen LiDAR-Sensor und Verfahren zum Testen eines LiDAR-Sensors
CN113690330A (zh) * 2021-03-18 2021-11-23 神盾股份有限公司 光感测模块
US12153136B1 (en) * 2021-03-19 2024-11-26 General Atomics Aeronautical Systems, Inc. Systems and methods of imaging and/or range finding
US12125865B2 (en) 2021-03-31 2024-10-22 Apple Inc. Electromagnetic radiation detectors integrated with immersion lenses
KR102542126B1 (ko) * 2021-04-01 2023-06-13 주식회사 솔리드뷰 라이다 센서 및 그의 노이즈 제거 방법
US20240187109A1 (en) * 2021-04-08 2024-06-06 Signify Holding B.V. An optical detector
US11555895B2 (en) 2021-04-20 2023-01-17 Innovusion, Inc. Dynamic compensation to polygon and motor tolerance using galvo control profile
US11614521B2 (en) 2021-04-21 2023-03-28 Innovusion, Inc. LiDAR scanner with pivot prism and mirror
CN117178199A (zh) 2021-04-22 2023-12-05 图达通智能美国有限公司 具有高分辨率和超宽视场的紧凑型光检测和测距设计
WO2022225859A1 (en) 2021-04-22 2022-10-27 Innovusion, Inc. A compact lidar design with high resolution and ultra-wide field of view
WO2022271265A2 (en) * 2021-04-26 2022-12-29 Neural Propulsion Systems, Inc. Long-range lidar
JP7661527B2 (ja) * 2021-04-30 2025-04-14 上海禾賽科技有限公司 光探知装置及び乗り物、レーザーレーダー並びに探知方法
CN115267801B (zh) * 2021-04-30 2025-09-19 上海禾赛科技有限公司 光探测装置及探测方法
WO2023282970A2 (en) * 2021-05-11 2023-01-12 OPSYS Tech Ltd. Pixel mapping solid-state lidar transmitter system and method
CN117280242A (zh) 2021-05-12 2023-12-22 图达通智能美国有限公司 用于减轻LiDAR噪声、振动和声振粗糙度的系统和设备
US11662440B2 (en) 2021-05-21 2023-05-30 Innovusion, Inc. Movement profiles for smart scanning using galvonometer mirror inside LiDAR scanner
US11953722B2 (en) * 2021-06-02 2024-04-09 Luminar Technologies, Inc. Protective mask for an optical receiver
US12222240B2 (en) * 2021-06-02 2025-02-11 Luminar Technologies, Inc. Protective mask for an optical receiver
US11527562B1 (en) 2021-06-23 2022-12-13 Aeluma, Inc. Photodetector module comprising emitter and receiver
DE102021207227A1 (de) * 2021-07-08 2023-01-12 Robert Bosch Gesellschaft mit beschränkter Haftung Lidar-Sensor und Umfelderkennungssystem
US11768294B2 (en) 2021-07-09 2023-09-26 Innovusion, Inc. Compact lidar systems for vehicle contour fitting
FR3125920B1 (fr) * 2021-07-27 2023-11-24 St Microelectronics Grenoble 2 Capteur optique
WO2023013770A1 (ja) * 2021-08-06 2023-02-09 株式会社小糸製作所 発光装置、距離撮像装置、および監視装置
KR102852783B1 (ko) * 2021-08-09 2025-08-29 주식회사 위멤스 스캐닝 미러 기반의 라이다 장치
CN117859070A (zh) * 2021-08-12 2024-04-09 奥斯特公司 使用衍射波导的同轴激光雷达系统
US12094986B1 (en) 2021-08-25 2024-09-17 Apple Inc. Quantum-efficiency enhanced optical detector pixel having one or more optical scattering structures
US12124002B2 (en) 2021-09-03 2024-10-22 Apple Inc. Beam deflector metasurface
US12413043B2 (en) 2021-09-21 2025-09-09 Apple Inc. Self-mixing interference device with tunable microelectromechanical system
US12468017B2 (en) 2021-10-15 2025-11-11 Seyond, Inc. Integrated mirror motor galvanometer
CN114217447B (zh) * 2021-11-22 2023-07-07 中国工程物理研究院应用电子学研究所 一种激光束整形变换装置
CN216356147U (zh) 2021-11-24 2022-04-19 图达通智能科技(苏州)有限公司 一种车载激光雷达电机、车载激光雷达及车辆
US12461208B2 (en) * 2021-12-07 2025-11-04 Beijing Voyager Technology Co., Ltd. Diffractive light distribution for photosensor array-based lidar receiving system
EP4194890A1 (de) * 2021-12-09 2023-06-14 Pepperl+Fuchs SE Optischer sensor
DE102021132724A1 (de) 2021-12-10 2023-06-15 Valeo Schalter Und Sensoren Gmbh Optischer fahrzeug-umgebungssensor, fahrzeug und herstellungsverfahren
CN114200469A (zh) * 2021-12-10 2022-03-18 湖北久之洋信息科技有限公司 一种基于角锥阵列的激光探测系统
US12468015B2 (en) * 2022-01-07 2025-11-11 Ouster, Inc. Optical system for full frame flash solid state LIDAR system
US11867562B2 (en) 2022-01-25 2024-01-09 Visera Technologies Company Limited Optical devices
US20230243928A1 (en) * 2022-01-30 2023-08-03 Ouster, Inc. Overlapping sub-ranges with power stepping
CN114647158B (zh) * 2022-03-23 2023-07-21 无锡环亚微电子有限公司 一种显影机的智能导料装置及其工作方法
US11871130B2 (en) 2022-03-25 2024-01-09 Innovusion, Inc. Compact perception device
EP4279948A1 (de) * 2022-05-17 2023-11-22 ZKW Group GmbH Sensorvorrichtung für einen kraftfahrzeugscheinwerfer
US20230384425A1 (en) * 2022-05-24 2023-11-30 Lg Innotek Co., Ltd. Lidar unit with stray light reduction system
JP2023183316A (ja) * 2022-06-15 2023-12-27 富士フイルムビジネスイノベーション株式会社 光測距装置及び画像形成装置
JP2024011627A (ja) * 2022-07-15 2024-01-25 キヤノン株式会社 光学装置、車載システム、および移動装置
EP4312020A1 (de) * 2022-07-27 2024-01-31 WiTrins s.r.o. Inspektionssystem und verfahren zum analysieren von defekten
US12444068B2 (en) 2022-08-01 2025-10-14 Lg Innotek Co., Ltd. Optical inspection based on repetitive feature comparison
US20240045070A1 (en) * 2022-08-04 2024-02-08 Kodiak Robotics, Inc. Dense sensor pod assembly
US20240061087A1 (en) * 2022-08-19 2024-02-22 Ouster, Inc. Lidar system with fly's eye lens arrays
JP7732422B2 (ja) 2022-09-02 2025-09-02 株式会社デンソー 測距装置
US12044846B2 (en) * 2022-09-14 2024-07-23 Valve Corporation Position tracking systems and methods for head-mounted display systems
US12352894B2 (en) 2022-09-20 2025-07-08 Apple Inc. Wavelength mixing for optical systems
JP7740199B2 (ja) 2022-10-21 2025-09-17 株式会社デンソー 光学センサ、受光モジュール
US12399340B2 (en) * 2022-10-27 2025-08-26 Sensirion Ag Optical component, optoelectronic module and method of manufacture
JP2024081358A (ja) * 2022-12-06 2024-06-18 ソニーセミコンダクタソリューションズ株式会社 照明装置及び測距装置
DE102023200797A1 (de) * 2023-02-01 2024-08-01 Robert Bosch Gesellschaft mit beschränkter Haftung LiDAR-System mit einer Sende- und einer Empfangseinheit sowie Verfahren zur Reduktion des optischen Übersprechens eines LiDAR-Systems
US20240310242A1 (en) * 2023-03-15 2024-09-19 Ii-Vi Delaware, Inc. Bidirectional Optical Power Monitor
US12175324B1 (en) * 2023-09-05 2024-12-24 Datalogic IP Tech, S.r.l. Photoelectric sensor with improved light spot overlap and related method
KR20250061156A (ko) * 2023-10-27 2025-05-08 엘지이노텍 주식회사 광 출력 장치 및 이를 포함하는 라이다 장치
EP4556946A1 (de) * 2023-11-17 2025-05-21 Ladar Limited System zum betrieb in einer maritimen umgebung
EP4575592A1 (de) * 2023-12-22 2025-06-25 Sensirion AG Optische komponente und herstellungsverfahren
WO2025140896A1 (en) * 2023-12-28 2025-07-03 Sony Semiconductor Solutions Corporation Active light sensing system and device
WO2025235812A1 (en) * 2024-05-08 2025-11-13 Irradiant Technologies, Inc. Systems and methods for integrated free space optical elements and devices

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11073278B2 (en) 2011-10-13 2021-07-27 Tinman Inc Vaporization apparatus

Family Cites Families (222)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4003660A (en) * 1975-12-03 1977-01-18 Hunter Associates Laboratory, Inc. Sensing head assembly for multi-color printing press on-line densitometer
US4275950A (en) 1980-02-04 1981-06-30 Meyer Stanley A Light-guide lens
US4358851A (en) 1980-02-28 1982-11-09 Xerox Corporation Fiber optic laser device and light emitter utilizing the device
JPS58211677A (ja) 1982-06-02 1983-12-09 Nissan Motor Co Ltd 光レ−ダ装置
DE3426868A1 (de) 1984-07-20 1986-01-30 LITEF Litton Technische Werke der Hellige GmbH, 7800 Freiburg Verfahren und einrichtung zur drehratenauslesung mittels eines passiven optischen resonators
JPS6137911U (ja) 1984-08-10 1986-03-10 内山工業株式会社 材料注入成形金型
US4676599A (en) 1985-08-14 1987-06-30 The United States Of America As Represented By The Secretary Of The Air Force Micro-optical lens holder
US4744667A (en) 1986-02-11 1988-05-17 University Of Massachusetts Microspectrofluorimeter
US4851664A (en) 1988-06-27 1989-07-25 United States Of America As Represented By The Secretary Of The Navy Narrow band and wide angle hemispherical interference optical filter
JPH036407A (ja) 1989-06-03 1991-01-11 Daido Steel Co Ltd 外周形状測定装置
US5084596A (en) 1990-06-04 1992-01-28 The Lamson & Sessions Co. Electrical box
JPH0749417Y2 (ja) 1990-09-28 1995-11-13 三菱重工業株式会社 電気抵抗探傷用探触子
US5267016A (en) 1991-11-27 1993-11-30 United Technologies Corporation Laser diode distance measurement
US5745153A (en) * 1992-12-07 1998-04-28 Eastman Kodak Company Optical means for using diode laser arrays in laser multibeam printers and recorders
US5288992A (en) 1992-12-15 1994-02-22 Gte Laboratories Incorporated Wide angle, narrow band optical filter
US6133989A (en) 1993-02-09 2000-10-17 Advanced Scientific Concepts, Inc. 3D imaging laser radar
JPH0749417A (ja) 1993-08-06 1995-02-21 Fujitsu Ltd 干渉フィルタアセンブリ
DE4331203A1 (de) * 1993-09-14 1995-03-16 Hoefelmayr Bio Melktech Verfahren und Vorrichtung zur Entnahme einer mengenproportionalen Analyseprobe aus einem Melkfluß
JP3251150B2 (ja) 1994-12-29 2002-01-28 日本板硝子株式会社 平板マイクロレンズアレイおよびその製造方法
GB9618720D0 (en) 1996-09-07 1996-10-16 Philips Electronics Nv Electrical device comprising an array of pixels
US6362482B1 (en) 1997-09-16 2002-03-26 Advanced Scientific Concepts, Inc. High data rate smart sensor technology
US6721262B1 (en) 1997-09-22 2004-04-13 Seagate Technology Llc Aperture stop for a flying optical head
JP3835016B2 (ja) 1998-10-16 2006-10-18 三菱電機株式会社 レーザレーダ装置
JP2000138792A (ja) 1998-10-30 2000-05-16 Sharp Corp イメージセンサ及びその製造方法
US6201293B1 (en) 1998-11-19 2001-03-13 Xerox Corporation Electro optical devices with reduced filter thinning on the edge pixel photosites and method of producing same
US6564168B1 (en) 1999-09-14 2003-05-13 Immersion Corporation High-resolution optical encoder with phased-array photodetectors
US6414746B1 (en) 1999-11-24 2002-07-02 Advanced Scientific Concepts, Inc. 3-D imaging multiple target laser radar
TW527518B (en) 2000-07-14 2003-04-11 Massachusetts Inst Technology Method and system for high resolution, ultra fast, 3-D imaging
US6433934B1 (en) * 2000-08-11 2002-08-13 Yakov Reznichenko Illumination system for use in imaging systems
US7045833B2 (en) 2000-09-29 2006-05-16 Board Of Regents, The University Of Texas System Avalanche photodiodes with an impact-ionization-engineered multiplication region
US6814901B2 (en) 2001-04-20 2004-11-09 Matsushita Electric Industrial Co., Ltd. Method of manufacturing microlens array and microlens array
US6707230B2 (en) 2001-05-29 2004-03-16 University Of North Carolina At Charlotte Closed loop control systems employing relaxor ferroelectric actuators
DE10127204A1 (de) 2001-06-05 2003-03-20 Ibeo Automobile Sensor Gmbh Erfassungsverfahren und - vorrichtung
US7091462B2 (en) 2002-08-26 2006-08-15 Jds Uniphase Corporation Transmitter with laser monitoring and wavelength stabilization circuit
DE10244641A1 (de) 2002-09-25 2004-04-08 Ibeo Automobile Sensor Gmbh Optoelektronische Erfassungseinrichtung
JP2006517340A (ja) 2003-01-23 2006-07-20 オーボテック リミテッド 高輝度照明を提供するためのシステムおよび方法
GB0304568D0 (en) 2003-02-27 2003-04-02 Isis Innovation Microscopic imaging device
US20040223071A1 (en) 2003-05-08 2004-11-11 David Wells Multiple microlens system for image sensors or display units
US7196301B2 (en) 2003-07-18 2007-03-27 Honeywell International, Inc. System for detecting incoming light from a remote laser source
US7266248B2 (en) 2003-08-08 2007-09-04 Hewlett-Packard Development Company, L.P. Method and apparatus for generating data representative of an image
DE10345555A1 (de) 2003-09-30 2005-05-04 Osram Opto Semiconductors Gmbh Strahlungsemittierendes und -empfangendes Halbleiterbauelement und Verfahren zu dessen Herstellung
US7433042B1 (en) * 2003-12-05 2008-10-07 Surface Optics Corporation Spatially corrected full-cubed hyperspectral imager
DE10361121A1 (de) 2003-12-22 2005-07-21 Schott Ag Optische Anordnung mit Stufenlinse
US7808706B2 (en) 2004-02-12 2010-10-05 Tredegar Newco, Inc. Light management films for displays
US7738026B2 (en) 2005-05-02 2010-06-15 Andrew G. Cartlidge Increasing fill-factor on pixelated sensors
US7279764B2 (en) 2004-06-01 2007-10-09 Micron Technology, Inc. Silicon-based resonant cavity photodiode for image sensors
USD531525S1 (en) 2004-11-02 2006-11-07 Sick Ag Optoelectronic sensor
EP1880165A2 (de) 2005-03-24 2008-01-23 Infotonics Technology Center, Inc. Hyperspektrales bildgebungssystem und verfahren dafür
US8355767B2 (en) 2005-04-27 2013-01-15 Massachusetts Institute Of Technology Raman spectroscopy for non-invasive glucose measurements
US8294809B2 (en) 2005-05-10 2012-10-23 Advanced Scientific Concepts, Inc. Dimensioning system
JP2006337117A (ja) 2005-05-31 2006-12-14 Sunx Ltd 光学測定装置
JP2007049417A (ja) 2005-08-10 2007-02-22 Canon Inc 撮像装置および焦点調節装置
US7559703B2 (en) * 2005-09-14 2009-07-14 Ibiden Co., Ltd. Optical module and data communication system including the optical module
US8130367B2 (en) 2005-12-08 2012-03-06 Roger Stettner Laser ranging, tracking and designation using 3-D focal planes
US7421159B2 (en) 2005-12-13 2008-09-02 Board of Supervisor of Louisiana State University and Agricultural and Mechanical College Integral pre-aligned micro-optical systems
US7855376B2 (en) 2005-12-19 2010-12-21 Institut National D'optique Lighting system and method for illuminating and detecting object
DE102006004802B4 (de) 2006-01-23 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems
US7423821B2 (en) 2006-03-24 2008-09-09 Gentex Corporation Vision system
WO2008008970A2 (en) 2006-07-13 2008-01-17 Velodyne Acoustics, Inc High definition lidar system
JP5092159B2 (ja) 2006-12-04 2012-12-05 独立行政法人 宇宙航空研究開発機構 光学装置及び光学設計方法
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
EP1978394A1 (de) 2007-04-06 2008-10-08 Global Bionic Optics Pty Ltd. Optisches System zum Vergrößern der Tiefenschärfe
CA2635155C (en) 2007-06-18 2015-11-24 Institut National D'optique Method for detecting objects with visible light
US8494252B2 (en) 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
CA2710212C (en) 2007-12-21 2014-12-09 Leddartech Inc. Detection and ranging methods and systems
TWI358606B (en) 2007-12-28 2012-02-21 Ind Tech Res Inst Method for three-dimension (3d) measurement and an
US8384997B2 (en) 2008-01-21 2013-02-26 Primesense Ltd Optical pattern projection
EP2124069B1 (de) 2008-03-20 2012-01-25 Sick Ag Omnidirektionales Lidar System
CN102027388B (zh) 2008-04-11 2013-08-28 瑞士联邦理工大学,洛桑(Epfl) 采用显示器作为照明源的基于飞行时间的成像系统
DE102008019850A1 (de) 2008-04-19 2009-10-22 Diehl Bgt Defence Gmbh & Co. Kg Vorrichtung und Verfahren zum Beleuchten einer Objektszene
US9041915B2 (en) 2008-05-09 2015-05-26 Ball Aerospace & Technologies Corp. Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR
US8531650B2 (en) 2008-07-08 2013-09-10 Chiaro Technologies LLC Multiple channel locating
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
US7935886B2 (en) 2008-10-07 2011-05-03 Orbit Industries, Inc. Adjustable variable ring for electrical junction boxes
CN101413905B (zh) 2008-10-10 2011-03-16 深圳大学 X射线微分干涉相衬成像系统
CN201298079Y (zh) 2008-11-17 2009-08-26 南京德朔实业有限公司 激光测距装置
JP2010128122A (ja) 2008-11-27 2010-06-10 Olympus Corp 撮像装置
US20100204964A1 (en) 2009-02-09 2010-08-12 Utah State University Lidar-assisted multi-image matching for 3-d model and sensor pose refinement
EP2237065B1 (de) * 2009-03-31 2012-02-01 Pepperl + Fuchs GmbH Optischer Sensor nach dem Laufzeitprinzip
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US8743176B2 (en) 2009-05-20 2014-06-03 Advanced Scientific Concepts, Inc. 3-dimensional hybrid camera and production system
US8172403B2 (en) * 2009-05-21 2012-05-08 Eastman Kodak Company Projection with curved speckle reduction element surface
US8675181B2 (en) 2009-06-02 2014-03-18 Velodyne Acoustics, Inc. Color LiDAR scanner
US8803967B2 (en) 2009-07-31 2014-08-12 Mesa Imaging Ag Time of flight camera with rectangular field of illumination
US8330840B2 (en) 2009-08-06 2012-12-11 Aptina Imaging Corporation Image sensor with multilayer interference filters
CN102006402B (zh) 2009-08-28 2014-02-19 鸿富锦精密工业(深圳)有限公司 摄像装置及其身份识别方法
US9328899B2 (en) 2009-09-11 2016-05-03 Shoei Kataoka LED lighting apparatus emitting controlled spatial illumination light
US20120170029A1 (en) 2009-09-22 2012-07-05 ISC8 Inc. LIDAR System Comprising Large Area Micro-Channel Plate Focal Plane Array
US8633384B1 (en) 2009-10-20 2014-01-21 Hubbell Incorporated Extending electrical box
US20110116262A1 (en) 2009-11-13 2011-05-19 Phoseon Technology, Inc. Economical partially collimating reflective micro optical array
JP5588310B2 (ja) 2009-11-15 2014-09-10 プライムセンス リミテッド ビームモニタ付き光学プロジェクタ
US20150358601A1 (en) 2009-12-23 2015-12-10 Mesa Imaging Ag Optical Filter on Objective Lens for 3D Cameras
US9825425B2 (en) 2013-06-19 2017-11-21 Apple Inc. Integrated structured-light projector comprising light-emitting elements on a substrate
US8786757B2 (en) 2010-02-23 2014-07-22 Primesense Ltd. Wideband ambient light rejection
EP3805789A3 (de) 2010-05-17 2021-07-07 Velodyne Lidar, Inc. Hochauflösendes lidar-system
NL2004996C2 (nl) 2010-06-29 2011-12-30 Cyclomedia Technology B V Werkwijze voor het vervaardigen van een digitale foto, waarbij ten minste een deel van de beeldelementen positieinformatie omvatten en een dergelijke digitale foto.
USD659030S1 (en) 2010-07-30 2012-05-08 Sick Ag Optoelectronic sensor
US9131136B2 (en) 2010-12-06 2015-09-08 Apple Inc. Lens arrays for pattern projection and imaging
JP5721069B2 (ja) 2010-12-10 2015-05-20 国立大学法人 千葉大学 Ledライダー装置
JP2012128270A (ja) 2010-12-16 2012-07-05 Denso Corp 干渉フィルタアセンブリ
EP2469295A1 (de) 2010-12-23 2012-06-27 André Borowski Echtzeit-3D-Landschaft-Bildwandler und entsprechende Bildgebungsverfahren
US8717488B2 (en) 2011-01-18 2014-05-06 Primesense Ltd. Objective optics with interference filter
DE102011002936A1 (de) 2011-01-20 2012-07-26 Ford Global Technologies, Llc Partikelsensor, Abgassystem und Verfahren zum Bestimmen von Partikeln im Abgas
US8908159B2 (en) 2011-05-11 2014-12-09 Leddartech Inc. Multiple-field-of-view scannerless optical rangefinder in high ambient background light
WO2012174401A2 (en) 2011-06-16 2012-12-20 Lenny Lipton Stereoscopic camera with polarizing apertures
DE102011107360A1 (de) 2011-06-29 2013-01-03 Karlsruher Institut für Technologie Mikrooptisches Element, mikrooptisches Array und optisches Sensorensystem
US8797512B2 (en) 2011-09-15 2014-08-05 Advanced Scientific Concepts, Inc. Automatic range corrected flash ladar camera
US20160150963A1 (en) 2011-09-26 2016-06-02 Michael Lee Roukes One-photon integrated neurophotonic systems
JP6082401B2 (ja) * 2011-11-04 2017-02-15 アイメックImec センサアレイ上にインターリーブ配置された画像コピーのオーバーラップしたセグメントを備えたスペクトルカメラ
US8743923B2 (en) 2012-01-31 2014-06-03 Flir Systems Inc. Multi-wavelength VCSEL array to reduce speckle
EP2815251B1 (de) 2012-02-15 2017-03-22 Heptagon Micro Optics Pte. Ltd. Tof-kamera mit streifenbeleuchtung
US9157790B2 (en) * 2012-02-15 2015-10-13 Apple Inc. Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis
US9435638B2 (en) 2012-03-22 2016-09-06 Apple Inc. Gimbaled scanning mirror array
US9335220B2 (en) 2012-03-22 2016-05-10 Apple Inc. Calibration of time-of-flight measurement using stray reflections
US20130258099A1 (en) 2012-03-29 2013-10-03 Samsung Electronics Co., Ltd. Depth Estimation Device And Operating Method Using The Depth Estimation Device
CN103608696B (zh) 2012-05-22 2016-05-11 韩国生产技术研究院 3d扫描系统和获得3d图像的方法
US8793046B2 (en) 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
US9195914B2 (en) 2012-09-05 2015-11-24 Google Inc. Construction zone sign detection
US9071763B1 (en) 2012-09-26 2015-06-30 Google Inc. Uniform illumination image capture
US9383753B1 (en) 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
US9111444B2 (en) 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
KR102004987B1 (ko) 2012-12-11 2019-07-29 삼성전자주식회사 광자 계수 검출 장치 및 독출 회로
US9823351B2 (en) 2012-12-18 2017-11-21 Uber Technologies, Inc. Multi-clad fiber based optical apparatus and methods for light detection and ranging sensors
US20160047901A1 (en) 2012-12-25 2016-02-18 Quanergy Systems, Inc. Robust lidar sensor for broad weather, shock and vibration conditions
WO2014102341A1 (en) 2012-12-31 2014-07-03 Iee International Electronics & Engineering S.A. Optical system generating a structured light field from an array of light sources by meand of a refracting or reflecting light structuring element
US9285477B1 (en) 2013-01-25 2016-03-15 Apple Inc. 3D depth point cloud from timing flight of 2D scanned light beam pulses
US20140211194A1 (en) 2013-01-27 2014-07-31 Quanergy Systems, Inc. Cost-effective lidar sensor for multi-signal detection, weak signal detection and signal disambiguation and method of using same
US20140224792A1 (en) 2013-02-12 2014-08-14 Jurgen K. Beneke Adjustable wall enclosure for electrical devices and the like
US9063549B1 (en) 2013-03-06 2015-06-23 Google Inc. Light detection and ranging device with oscillating mirror driven by magnetically interactive coil
US9086273B1 (en) 2013-03-08 2015-07-21 Google Inc. Microrod compression of laser beam in combination with transmit lens
US9470520B2 (en) 2013-03-14 2016-10-18 Apparate International C.V. LiDAR scanner
EP2972081B1 (de) 2013-03-15 2020-04-22 Apple Inc. Tiefenabtastung mit mehreren emittern
US20140293263A1 (en) * 2013-03-28 2014-10-02 James Justice LIDAR Comprising Polyhedron Transmission and Receiving Scanning Element
US9164511B1 (en) 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
US9488444B2 (en) 2013-04-29 2016-11-08 Raytheon Company Time-multiplexed broadband and multi-filtered electro-optic sensor
US10132928B2 (en) 2013-05-09 2018-11-20 Quanergy Systems, Inc. Solid state optical phased array lidar and method of using same
US10078137B2 (en) 2013-06-21 2018-09-18 Irvine Sensors Corp. LIDAR device and method for clear and degraded environmental viewing conditions
US20150002636A1 (en) 2013-06-28 2015-01-01 Cable Television Laboratories, Inc. Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras
CN105393083B (zh) 2013-07-09 2018-07-13 齐诺马蒂赛股份有限公司 周围环境感测系统
US9268012B2 (en) 2013-07-12 2016-02-23 Princeton Optronics Inc. 2-D planar VCSEL source for 3-D imaging
US20150260830A1 (en) 2013-07-12 2015-09-17 Princeton Optronics Inc. 2-D Planar VCSEL Source for 3-D Imaging
US8742325B1 (en) 2013-07-31 2014-06-03 Google Inc. Photodetector array on curved substrate
GB2529070B (en) 2013-08-02 2017-07-12 Verifood Ltd Spectrometer comprising a plurality of isolated optical paths
US10126412B2 (en) 2013-08-19 2018-11-13 Quanergy Systems, Inc. Optical phased array lidar system and method of using same
US8836922B1 (en) 2013-08-20 2014-09-16 Google Inc. Devices and methods for a rotating LIDAR platform with a shared transmit/receive path
CN105452807A (zh) 2013-08-23 2016-03-30 松下知识产权经营株式会社 测距系统、以及信号产生装置
US9368936B1 (en) 2013-09-30 2016-06-14 Google Inc. Laser diode firing system
US9299731B1 (en) 2013-09-30 2016-03-29 Google Inc. Systems and methods for selectable photodiode circuits
US9425654B2 (en) 2013-09-30 2016-08-23 Google Inc. Contactless electrical coupling for a rotatable LIDAR device
WO2015052616A1 (en) 2013-10-09 2015-04-16 Koninklijke Philips N.V. Monolithic led arrays for uniform and high-brightness light sources
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
US9772399B2 (en) 2013-11-22 2017-09-26 Uber Technologies, Inc. LiDAR scanner calibration
KR101582572B1 (ko) 2013-12-24 2016-01-11 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
US20150192677A1 (en) 2014-01-03 2015-07-09 Quanergy Systems, Inc. Distributed lidar sensing system for wide field of view three dimensional mapping and method of using same
US10061111B2 (en) 2014-01-17 2018-08-28 The Trustees Of Columbia University In The City Of New York Systems and methods for three dimensional imaging
JP2015137987A (ja) 2014-01-24 2015-07-30 アズビル株式会社 距離センサおよび距離計測方法
US9756263B2 (en) 2014-05-01 2017-09-05 Rebellion Photonics, Inc. Mobile gas and chemical imaging camera
US9935514B1 (en) 2014-06-14 2018-04-03 Waymo Llc Printed circuit board layout
US9754192B2 (en) 2014-06-30 2017-09-05 Microsoft Technology Licensing, Llc Object detection utilizing geometric information fused with image data
US9753351B2 (en) 2014-06-30 2017-09-05 Quanergy Systems, Inc. Planar beam forming and steering optical phased array chip and method of using same
US9575184B2 (en) 2014-07-03 2017-02-21 Continental Advanced Lidar Solutions Us, Inc. LADAR sensor for a dense environment
AU2015301488B2 (en) 2014-08-15 2019-08-08 Aeye, Inc. Methods and systems for ladar transmission
US9869753B2 (en) 2014-08-15 2018-01-16 Quanergy Systems, Inc. Three-dimensional-mapping two-dimensional-scanning lidar based on one-dimensional-steering optical phased arrays and method of using same
EP3002548B1 (de) 2014-10-02 2016-09-14 Sick Ag Beleuchtungseinrichtung und Verfahren zum Erzeugen eines Beleuchtungsfeldes
US9772405B2 (en) 2014-10-06 2017-09-26 The Boeing Company Backfilling clouds of 3D coordinates
JP2016092146A (ja) 2014-10-31 2016-05-23 セイコーエプソン株式会社 量子干渉装置、原子発振器、電子機器および移動体
EP3045935A1 (de) 2015-01-13 2016-07-20 XenomatiX BVBA Umgebendes Erfassungssystem mit Dome-Filteranordnung
EP3045936A1 (de) 2015-01-13 2016-07-20 XenomatiX BVBA Umgebungsabtastsystem mit telezentrischer Optik
EP3248026B1 (de) 2015-01-20 2019-09-04 DigiLens Inc. Holographischer wellenleiter
US10147757B2 (en) 2015-02-02 2018-12-04 Synaptics Incorporated Image sensor structures for fingerprint sensing
WO2016125165A2 (en) 2015-02-05 2016-08-11 Verifood, Ltd. Spectrometry system with visible aiming beam
EP3054313B1 (de) 2015-02-06 2018-01-31 Conti Temic microelectronic GmbH Sender Linse für Sensor auf LIDAR-Basis
US9369689B1 (en) 2015-02-24 2016-06-14 HypeVR Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video
US10215553B2 (en) 2015-03-12 2019-02-26 Apple Inc. Thin PSD for laser-scanning systems
TWM506280U (zh) 2015-03-20 2015-08-01 Arima Lasers Corp 旋轉光學測距裝置
US9625582B2 (en) 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
US9529079B1 (en) 2015-03-26 2016-12-27 Google Inc. Multiplexed multichannel photodetector
US9651658B2 (en) * 2015-03-27 2017-05-16 Google Inc. Methods and systems for LIDAR optics alignment
JP6421935B2 (ja) 2015-03-31 2018-11-14 パナソニックIpマネジメント株式会社 車両移動推定装置および車両移動推定方法
US9880263B2 (en) 2015-04-06 2018-01-30 Waymo Llc Long range steerable LIDAR system
US9525863B2 (en) 2015-04-29 2016-12-20 Apple Inc. Time-of-flight depth mapping with flexible scan pattern
KR20170001466A (ko) 2015-06-26 2017-01-04 한국전자통신연구원 레이저 빔 결합 시스템
US10066990B2 (en) 2015-07-09 2018-09-04 Verifood, Ltd. Spatially variable filter systems and methods
CN106714143B (zh) * 2015-07-21 2020-01-21 华为终端有限公司 终端及其同步的方法
JP6479260B2 (ja) 2015-09-10 2019-03-06 フィリップス ライティング ホールディング ビー ヴィ 符号化光におけるシンボル間干渉の緩和
DE102015217908A1 (de) * 2015-09-18 2017-03-23 Robert Bosch Gmbh Lidarsensor
US9992477B2 (en) 2015-09-24 2018-06-05 Ouster, Inc. Optical system for collecting distance information within a field
US10063849B2 (en) 2015-09-24 2018-08-28 Ouster, Inc. Optical system for collecting distance information within a field
EP3159711A1 (de) 2015-10-23 2017-04-26 Xenomatix NV System und verfahren zur bestimmung einer distanz zu einem objekt
US10539661B2 (en) 2015-11-25 2020-01-21 Velodyne Lidar, Inc. Three dimensional LIDAR system with targeted field of view
EP3405092A2 (de) 2016-01-18 2018-11-28 Dentlytec G.P.L. Ltd. Intraoraler scanner
IL260833B (en) 2016-01-29 2022-06-01 Ouster Inc Systems and methods for optical distance sensor calibration
US10627490B2 (en) 2016-01-31 2020-04-21 Velodyne Lidar, Inc. Multiple pulse, LIDAR based 3-D imaging
WO2017132704A1 (en) 2016-01-31 2017-08-03 Velodyne Lidar, Inc. Lidar based 3-d imaging with far-field illumination overlap
EP3423858B1 (de) * 2016-02-29 2023-12-06 nLIGHT, Inc. System und verfahren zur 3d-bildgebung
CA3017735C (en) 2016-03-19 2023-03-14 Velodyne Lidar, Inc. Integrated illumination and detection for lidar based 3-d imaging
US10197669B2 (en) 2016-03-21 2019-02-05 Velodyne Lidar, Inc. LIDAR based 3-D imaging with varying illumination intensity
CA3017817C (en) 2016-03-21 2021-04-27 Velodyne Lidar, Inc. Lidar based 3-d imaging with varying illumination field density
US10048374B2 (en) 2016-03-21 2018-08-14 Velodyne Lidar, Inc. LIDAR based 3-D imaging with varying pulse repetition
WO2017210418A1 (en) 2016-06-01 2017-12-07 Velodyne Lidar, Inc. Multiple pixel scanning lidar
US20180003823A1 (en) * 2016-06-30 2018-01-04 Jason Yan Rotary type distance sensing device
KR102705860B1 (ko) 2016-08-24 2024-09-11 아우스터, 인크. 필드 내에서 거리 정보를 수집하기 위한 광학 시스템
EP3301479A1 (de) 2016-10-03 2018-04-04 Xenomatix NV Verfahren zur subtraktion des hintergrundlichts aus einem belichtungswert eines pixels in einem abbildungsarray und pixel zur verwendung darin
EP3301480A1 (de) 2016-10-03 2018-04-04 Xenomatix NV System und verfahren zur bestimmung einer distanz zu einem objekt
EP3301478A1 (de) 2016-10-03 2018-04-04 Xenomatix NV System zur bestimmung einer distanz zu einem objekt
EP3301477A1 (de) 2016-10-03 2018-04-04 Xenomatix NV System zur bestimmung einer distanz zu einem objekt
US10502830B2 (en) 2016-10-13 2019-12-10 Waymo Llc Limitation of noise on light detectors using an aperture
US10749308B2 (en) 2016-10-17 2020-08-18 Waymo Llc Thermal rotary link
US10375327B2 (en) 2016-10-21 2019-08-06 Rebellion Photonics, Inc. Mobile gas and chemical imaging camera
US10530209B2 (en) 2016-10-28 2020-01-07 Waymo Llc Devices and methods for driving a rotary platform
EP3316000A1 (de) 2016-10-28 2018-05-02 Xenomatix NV Fahrzeugsystem zum messen des abstands zu einem objekt und installationsverfahren dafür
US10845470B2 (en) 2016-11-16 2020-11-24 Waymo Llc Methods and systems for protecting a light detection and ranging (LIDAR) device
US10605984B2 (en) * 2016-12-01 2020-03-31 Waymo Llc Array of waveguide diffusers for light detection using an aperture
US10845466B2 (en) 2016-12-23 2020-11-24 Cepton Technologies, Inc. Mounting apparatuses for optical components in a scanning lidar system
EP3343246A1 (de) 2016-12-30 2018-07-04 Xenomatix NV System zur charakterisierung der umgebung eines fahrzeugs
US10121813B2 (en) * 2017-03-28 2018-11-06 Luminar Technologies, Inc. Optical detector having a bandpass filter in a lidar system
US9989629B1 (en) 2017-03-30 2018-06-05 Luminar Technologies, Inc. Cross-talk mitigation using wavelength switching
EP3392674A1 (de) 2017-04-23 2018-10-24 Xenomatix NV Pixelstruktur
WO2018213200A1 (en) 2017-05-15 2018-11-22 Ouster, Inc. Optical imaging transmitter with brightness enhancement
JP2020526754A (ja) 2017-07-05 2020-08-31 アウスター インコーポレイテッド 電子走査型エミッタアレイ及び同期センサアレイを備えた測距デバイス
US10698088B2 (en) 2017-08-01 2020-06-30 Waymo Llc LIDAR receiver using a waveguide and an aperture

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11073278B2 (en) 2011-10-13 2021-07-27 Tinman Inc Vaporization apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022127849A1 (de) * 2022-10-21 2024-05-02 Valeo Detection Systems GmbH Optischer expander eines lidarsystems und lidarsystem

Also Published As

Publication number Publication date
CA3063605A1 (en) 2018-11-22
US20180329060A1 (en) 2018-11-15
KR102657365B1 (ko) 2024-04-17
WO2018213200A1 (en) 2018-11-22
AU2018269000A1 (en) 2020-01-16
DE202018006695U1 (de) 2022-04-01
CN110914652B (zh) 2024-05-24
TW201907140A (zh) 2019-02-16
AU2018269000A2 (en) 2020-01-23
CN111273256A (zh) 2020-06-12
US20180329061A1 (en) 2018-11-15
JP2020521954A (ja) 2020-07-27
JP7154230B2 (ja) 2022-10-17
US10222475B2 (en) 2019-03-05
US20180329035A1 (en) 2018-11-15
EP3615901A4 (de) 2020-12-16
KR102706360B1 (ko) 2024-09-12
US20180329065A1 (en) 2018-11-15
US11131773B2 (en) 2021-09-28
US20180329062A1 (en) 2018-11-15
US20190146088A1 (en) 2019-05-16
US11086013B2 (en) 2021-08-10
US11150347B2 (en) 2021-10-19
US20220214454A1 (en) 2022-07-07
AU2018269000B2 (en) 2021-03-11
JP2022188179A (ja) 2022-12-20
US11175405B2 (en) 2021-11-16
EP3615901B1 (de) 2025-05-21
EP3615901A1 (de) 2020-03-04
KR20200007031A (ko) 2020-01-21
JP7429274B2 (ja) 2024-02-07
CN111273256B (zh) 2022-04-29
US10663586B2 (en) 2020-05-26
CN110914652A (zh) 2020-03-24
KR20240055836A (ko) 2024-04-29

Similar Documents

Publication Publication Date Title
DE202018006696U1 (de) Optischer Bildübertrager mit Helligkeitsverbesserung
US12320696B2 (en) Multispectral ranging and imaging systems
KR102784783B1 (ko) 다중 스펙트럼 레인징/이미징 센서 어레이 및 시스템
DE202018006691U1 (de) Rotierendes kompaktes Lichtentfernungsmesssystem
DE112017004806T5 (de) Optisches system zur sammlung von entfernungsinformationen in einem feld
CN223926701U (zh) 一种滤光片入射光线角度不受限的接收光学系统

Legal Events

Date Code Title Description
R150 Utility model maintained after payment of first maintenance fee after three years
R207 Utility model specification
R151 Utility model maintained after payment of second maintenance fee after six years