WO2011045277A1 - Camera system - Google Patents
Camera system Download PDFInfo
- Publication number
- WO2011045277A1 WO2011045277A1 PCT/EP2010/065210 EP2010065210W WO2011045277A1 WO 2011045277 A1 WO2011045277 A1 WO 2011045277A1 EP 2010065210 W EP2010065210 W EP 2010065210W WO 2011045277 A1 WO2011045277 A1 WO 2011045277A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- camera
- lighting
- illumination
- processing module
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Definitions
- the invention relates to a camera system with a 3D camera and an active illumination and a method for operating such a camera according to the preamble of the independent claims.
- Runtime measurement systems These use amplitude modulated or pulsed illumination to illuminate the area to be detected
- 3D camera system may be included, which gain a time information from the phase shift of an emitted and received radiation.
- a 3D camera or PMD camera in particular so-called photonic mixer detectors (PMD) are suitable, as they u.a. in the applications EP 1 777 747, US 6 587 186 and also DE 197 04 496 described and, for example, by the company, ifm electronic gmbh 'as a frame grabber O3D are available.
- the PMD camera allows a flexible arrangement of the light source and the detector, which can be arranged both in a housing and separately.
- an object management system in which the object detector can be switched over in a first and second operating mode in order to be able to switch for example between a small and a large angle detection range.
- a radar sensor is used for the long range and an ultrasonic sensor for the near range.
- the object of the invention is the processing speed of
- a 3D camera is provided, based with a pixel array on a photomix detection, wherein individual pixels of the pixel array to pixel blocks, are summarized. This makes it possible in an advantageous manner, for certain detection and
- Image processing situations to provide pixel blocks are described.
- the security module to monitor the processing module to deviate from the processing module
- Pixel block size used and evaluated.
- a camera system is provided with a 3D camera based on a photomix detection and active illumination for illuminating a detection range of the 3D camera, wherein the active illumination is configured such that at least two areas of the detection range of the 3D camera different are illuminated.
- Detection areas such as stripes or distant objects, the lighting can be adjusted according to the desired detection requirements.
- a camera system is provided with a 3D camera based on a photomix detection and active illumination for illuminating a detection range of the 3D camera, in which the active illumination is designed such that at least two areas of the detection range of the 3D camera different are illuminated.
- This procedure has the advantage that for certain preferred Detection areas, such as stripes or distant objects, the lighting can be adjusted according to the desired detection requirements.
- the active lighting is divided into several lighting modules.
- These lighting modules can in particular be divided into groups to one or more lighting modules, wherein a respective group for illuminating a particular
- Lighting area is formed.
- the specific illumination areas are illuminated either simultaneously or sequentially.
- Figure 1 shows schematically the basic principle of photomix detection
- Figure 2 schematically different detection areas of a
- FIG. 3 schematically shows a processing according to the invention
- FIG. 4 a vehicle with two lighting module groups
- FIG. 6 a side view of the different lighting and detection areas
- FIGS. 7 and 8 show a serial and sequential evaluation of the
- FIG. 1 shows a measurement situation for an optical distance measurement a TOF camera system, as it is known for example from DE 197 04 496.
- the TOF camera system here comprises a transmitting unit or a
- Illumination module 100 with a light source 12 and associated beam shaping optics 50 and a receiving unit or 3D camera 200 with a receiving optics 150 and a photosensor 15.
- the photosensor 15 is preferably formed as a pixel array, in particular as a PMD sensor.
- the receiving optics typically consist of improving the imaging properties of a plurality of optical elements.
- the beam-shaping optical system 50 of the transmitting unit 100 is preferably as
- Reflector formed. However, it is also possible to use diffractive elements or combinations of reflective and diffractive elements.
- the measuring principle of this arrangement is essentially based on the fact that starting from the phase difference of the emitted and received light, the duration of the emitted and reflected light can be determined.
- Modulation frequency applied to a first phase position a is Modulation frequency applied to a first phase position a.
- the light source 12 transmits an amplitude-modulated signal having the phase a.
- this signal or the electromagnetic radiation is reflected by an object 20 and hits due to the distance covered
- Phase position a of the modulator 18 with the received signal which has meanwhile assumed a second phase position b, mixed and from the resulting signal, the phase shift or the
- FIG. 2 shows a typical measurement situation of the invention
- a 3D camera is in one
- Vehicle 70 is arranged and allows the monitoring of a
- Total coverage E Due to certain Lighting situations or evaluation algorithms, it is possible within the total coverage area E different Er chargedsc. Select monitoring areas.
- these coverage areas may include or include so-called "region-of-interest” (ROI).
- ROI region-of-interest
- Figure 2 b) shows a second and third congruent detection range EB2, EB3. Both areas EB2, 3 are suitable for detecting objects in the near range. The regions preferably differ by a different detection by the
- Pixel array and / or by a different evaluation or
- FIG. 3 schematically shows a possible processing and evaluation of the different detection ranges EB1, 2, 3.
- Processing system consists essentially of three modules, on the one hand, the PMD chip or pixel array 15, the entire
- Processing module VM allows the selection of three different parameters
- the processing module is configured such that, for example, depending on the image processing mode used certain properties of the pixel array 15 can be specified.
- the pixel array can be operated in a high, medium and low resolution mode H, M, L.
- the different resolutions can preferably be set by combining individual pixels into blocks of pixels, the so-called binning. Further adjustments of the pixel array 15 with regard to pixel position, size and / or number of pixel blocks are possible.
- the second detection range is gem. Fig. 2
- a vicinity preferably a nearby street area in which objects are to be recorded, for example, in their dimensions and positions.
- H high resolution
- the processing of the first detection area EB1 to use the first image processing module BVM1 in combination with a high resolution H of the pixel array.
- an object list OL1, 2, 3 with the detected objects and their parameters could be created.
- other object lists or signal outputs are also conceivable.
- an average resolution M and the second image processing module BVM2 is provided. This module determines, for example, in addition to position and dimension of the objects and their speed and
- the object list OL2 from this processing can be used in particular as PreCrash information.
- the third detection area EB3 is provided in the example shown for closest objects, which can preferably move in the immediate vicinity of the vehicle, for example, crossing pedestrians or cyclists in city traffic.
- This detection area is associated with a low resolution L and the third image processing module BVM3.
- an optional object list OL3 'could be created.
- Monitor image processing module using a security module SM uses the same pixel array data as was available to the processing module VM or the third image processing module.
- the processing of the data takes place with a fourth image processing module BVM4, which is preferably based on another evaluation algorithm and / or another parameterization.
- the results of the third and fourth image processing modules BVM3, 4 are compared with each other and only the securely recognized objects are given as a third object list OL3.
- FIG. 4 shows schematically a front view of a motor vehicle.
- Upper area of the windshield is a 3D camera 200
- located near the headlights are located on the right and left side of the vehicle different
- Lighting modules The illumination modules 101 to the first group illuminate a first illumination area B1 in the far field of the
- the illumination modules 102 to the second group illuminate a lateral near area of the motor vehicle in a first and second illumination area B2, B3.
- Lighting areas B2, B3 can be used, for example, to detect the road edges or lane markings, while the long-range area B1 can be evaluated with respect to obstacle detection.
- the illumination areas are preferably chosen so that they
- FIG. 3 schematically shows the different lighting groups 101 and 102.
- the illumination field spanned by the first illumination group 101 completely illuminates the detection range E of the 3D camera and even exceeds it.
- the illumination areas B2, B3 of the second illumination group 102 are completely within the
- Detection area E of the 3D camera and are also spatially separated.
- This provision of different possibly also spatially separated illumination areas has the advantage that with only a single 3D camera several and different applications can be covered. In particular, it is possible to use the applications not only sequentially but also simultaneously.
- Lighting areas can be adjusted not only in the geometry but also in the range.
- the first lighting group is designed for the illumination of distant objects Namely, while the second illumination group 102 illuminates the near area.
- the 3D camera is preferably designed so that it can detect both the long-range and the short-range at the same time.
- the lighting modules can with one and more light sources
- each light source with its own
- Beam guiding optics preferably a reflector is equipped.
- Beam guiding optics of the individual light sources the same design and define the lighting area by a suitable grouping of the light sources, positioning of the lighting module or forming lighting module groups. Furthermore, a
- Lighting module can also be integrated into an existing lighting unit, for example, the car headlights.
- downstream image processing may be evaluated and / or evaluated with different algorithms or parametrizations.
- the targeted focusing of the light in the respective illumination areas also ensures that sufficient light arrives for a suitable evaluation in these illumination areas.
- FIGS. 7 and 8 Possible evaluations of such lighting situations are shown by way of example in FIGS. 7 and 8.
- FIG. 7 shows a simultaneous detection of the illumination areas B1, B2, B3 during a time interval t1. This time interval can be in
- the recorded data of the individual lighting areas become a subsequent one
- the illumination areas B1, B2, B3 are preferably so-called
- Region-of-interest assigned.
- Such a "region-of-interest” could, for example, be a far-field or a near-field.
- Obstacles, vehicles, traffic signs, etc. are used, while for the second image processing BV2 of the second and third illumination area B2, B3, the algorithm and / or the parameters used preferably for the detection of pages or
- an optional evaluation of the second illumination area B2 with the first image processing BV1 is shown by way of example with a dashed line. For example, this could be
- Lighting areas for the various image processing conceivable, as well as the use of further image processing with different algorithms and / or parameters.
- the data obtained by the image processing BV1, BV2 can be serial or be made available in parallel to other processes.
- As an interface or data bus for example, Ethernet, LVDS, CAN, Flexray etc. into consideration.
- FIG. 8 essentially shows that already shown in FIG
- Image processing wherein the illumination areas are not necessarily operated in parallel, but preferably sequentially.
- it is provided to operate the first illumination area B1 in a time interval t1 and the second and third illumination areas B2, B3 in a second time interval t2.
- the duration and frequency of the time intervals can be completely
- Lighting areas B2, B3 operated and recorded. However, it is also possible to operate the first illumination area B1 permanently and to switch on and off the second or third illumination area B2, B3 only when needed. Also accepting more
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
Beschreibung description
KAMERASYSTEM CAMERA SYSTEM
[0001] Die Erfindung betrifft ein Kamera System mit einer 3D-Kamera und einer aktiven Beleuchtung sowie ein Verfahren zum Betreiben einer solchen Kamera nach der Gattung der unabhängigen Ansprüche. The invention relates to a camera system with a 3D camera and an active illumination and a method for operating such a camera according to the preamble of the independent claims.
[0002] Aus dem Stand der Technik sind Systeme zur dreidimensionalen Systems for three-dimensional systems are known from the prior art
Bilderfassung bekannt, welche mit Hilfe einer aktiven Beleuchtung arbeiten. Dazu gehören so genannten Time-of-flight- (TOF-) oder Image acquisition known, which work with the help of an active lighting. These include so-called time-of-flight (TOF) or
Laufzeitmesssysteme. Diese verwenden eine amplitudenmodulierte oder gepulste Beleuchtung, zur Ausleuchtung der zu erfassenden Runtime measurement systems. These use amplitude modulated or pulsed illumination to illuminate the area to be detected
dreidimensionalen Szenerie. three-dimensional scenery.
[0003] Mit Licht-Laufzeitmesssystem sollen insbesondere auch alle With light transit time measurement system in particular all
3D-Kamerasystem mit umfasst sein, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als 3D-Kamera bzw. PMD-Kamera sind insbesondere so genannte Photomischdetektoren (PMD) geeignet, wie sie u.a. in den Anmeldungen EP 1 777 747, US 6 587 186 und auch DE 197 04 496 beschrieben und beispielsweise von der Firma ,ifm electronic gmbh' als Frame-Grabber O3D zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können. 3D camera system may be included, which gain a time information from the phase shift of an emitted and received radiation. As a 3D camera or PMD camera in particular so-called photonic mixer detectors (PMD) are suitable, as they u.a. in the applications EP 1 777 747, US 6 587 186 and also DE 197 04 496 described and, for example, by the company, ifm electronic gmbh 'as a frame grabber O3D are available. In particular, the PMD camera allows a flexible arrangement of the light source and the detector, which can be arranged both in a housing and separately.
[0004] Aus der DE 100 1 1 263 A1 ist ein Objektdirektionssystem bekannt, bei dem der Objektdetektor in einem ersten und zweiten Betriebsmodus umgeschaltet werden kann, um beispielsweise zwischen einem kleinen und großen Winkelerfassungsbereich umschalten zu können. Für den weit reichenden Bereich wird ein Radarsensor und für den Nahbereich ein Ultraschallsensor eingesetzt. From DE 100 1 1 263 A1 an object management system is known in which the object detector can be switched over in a first and second operating mode in order to be able to switch for example between a small and a large angle detection range. A radar sensor is used for the long range and an ultrasonic sensor for the near range.
[0005] Aufgabe der Erfindung ist es, die Verarbeitungsgeschwindigkeit der The object of the invention is the processing speed of
3D-Kamera zu verbessern. Improve 3D camera.
[0006] Die Aufgabe wird in vorteilhafter Weise durch die erfindungsgemäße The object is achieved in an advantageous manner by the invention
3D-Kamera gelöst. 3D camera solved.
[0007] Vorteilhaft ist eine 3D-Kamera vorgesehen, mit einem Pixel-Array basieren auf einer Photomischdetektion, wobei einzelne Pixel des Pixel-Arrays zu Pixelblöcken, zusammenfassbar sind. Hierdurch ist es in vorteilhafter Weise möglich, für bestimmte Erfassungs- und Advantageously, a 3D camera is provided, based with a pixel array on a photomix detection, wherein individual pixels of the pixel array to pixel blocks, are summarized. This makes it possible in an advantageous manner, for certain detection and
Bildverarbeitungssituationen Pixelblöcke bereitzustellen. Image processing situations to provide pixel blocks.
[0008] Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der in den The measures listed in the dependent claims are advantageous developments and improvements in the
unabhängigen Ansprüchen angegebenen Erfindung möglich. independent claims specified invention possible.
[0009] Insbesondere ist es von Vorteil ein Verarbeitungsmodul derart In particular, it is advantageous a processing module such
auszugestalten, dass eine Größe, Positionen und/oder eine Anzahl der Pixelblöcke, in Abhängigkeit einer vorgegebenen Messaufgabe festgelegt und ausgewertet werden kann. to design that a size, positions and / or a number of pixel blocks, can be set and evaluated depending on a given measurement task.
[0010] In einer weiteren Ausgestaltung ist es vorgesehen die Kamera zusätzlich mit einem Sicherheitsmodul auszugestalten, das unabhängig von dem Verarbeitungsmodul das Pixel-Array auswertet und das Ergebnis mit einem Ergebnis des Verarbeitungsmoduls vergleicht. In a further embodiment, it is intended to additionally design the camera with a security module that evaluates the pixel array independently of the processing module and compares the result with a result of the processing module.
[001 1] Ferner ist es auch möglich, dass das Sicherheitsmodul zur Überwachung Verarbeitungsmodul eine vom Verarbeitungsmodul abweichende Furthermore, it is also possible for the security module to monitor the processing module to deviate from the processing module
Pixelblockgröße verwendet und auswertet. Pixel block size used and evaluated.
[0012] Vorteilhaft ist ein Kamerasystem mit einer 3D-Kamera basierend auf einer Photomischdetektion und einer aktiven Beleuchtung zur Beleuchtung eines Erfassungsbereichs der 3D-Kamera vorgesehen, bei der die aktive Beleuchtung derart ausgestaltet ist, dass mindestens zwei Bereiche des Erfassungsbereichs der 3D-Kamera unterschiedlich beleuchtbar sind. Dieses Vorgehen hat den Vorteil, dass für bestimmte bevorzugte Advantageously, a camera system is provided with a 3D camera based on a photomix detection and active illumination for illuminating a detection range of the 3D camera, wherein the active illumination is configured such that at least two areas of the detection range of the 3D camera different are illuminated. This procedure has the advantage that for certain preferred
Erfassungsbereiche, beispielsweise Seiten streifen oder entfernte Objekte die Beleuchtung entsprechend des gewünschten Erfassungsbedarfs angepasst werden kann. Detection areas, such as stripes or distant objects, the lighting can be adjusted according to the desired detection requirements.
[0013] Vorteilhaft ist ein Kamerasystem mit einer 3D-Kamera basierend auf einer Photomischdetektion und einer aktiven Beleuchtung zur Beleuchtung eines Erfassungsbereichs der 3D-Kamera vorgesehen, bei der die aktive Beleuchtung derart ausgestaltet ist, dass mindestens zwei Bereiche des Erfassungsbereichs der 3D-Kamera unterschiedlich beleuchtbar sind. Dieses Vorgehen hat den Vorteil, dass für bestimmte bevorzugte Erfassungsbereiche, beispielsweise Seiten streifen oder entfernte Objekte die Beleuchtung entsprechend des gewünschten Erfassungsbedarfs angepasst werden kann. Advantageously, a camera system is provided with a 3D camera based on a photomix detection and active illumination for illuminating a detection range of the 3D camera, in which the active illumination is designed such that at least two areas of the detection range of the 3D camera different are illuminated. This procedure has the advantage that for certain preferred Detection areas, such as stripes or distant objects, the lighting can be adjusted according to the desired detection requirements.
[0014] Vorzugsweise ist die aktive Beleuchtung in mehrere Beleuchtungsmodule aufgeteilt. Diese Beleuchtungsmodule können insbesondere in Gruppen zu einem oder mehreren Beleuchtungsmodulen aufgeteilt werden, wobei eine jeweilige Gruppe zur Ausleuchtung eines bestimmten Preferably, the active lighting is divided into several lighting modules. These lighting modules can in particular be divided into groups to one or more lighting modules, wherein a respective group for illuminating a particular
Beleuchtungsbereiches ausgebildet ist. Lighting area is formed.
[0015] Die Einteilung der Beleuchtungsmodule in Gruppen hat den Vorteil, dass die Beleuchtungsbereiche durch Ausrichtung der Module der The division of the lighting modules in groups has the advantage that the lighting areas by aligning the modules of
entsprechenden Gruppe bereits angepasst werden kann. Alternativ oder ergänzend kann es auch vorgesehen sein, mindestens eine appropriate group can already be adjusted. Alternatively or additionally, it may also be provided, at least one
Strahlführungsoptik eines Beleuchtungsmoduls für einen bestimmten Beleuchtungsbereich anzupassen. To adjust the beam guiding optics of a lighting module for a particular lighting area.
[0016] Bezüglich des Verfahrens zum Betreiben des Kamerasystems kann es vorgesehen sein, dass die bestimmten Beleuchtungsbereiche entweder gleichzeitig oder sequenziell beleuchtet werden. With regard to the method for operating the camera system, it may be provided that the specific illumination areas are illuminated either simultaneously or sequentially.
[0017] Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert. The invention will be explained in more detail by means of embodiments with reference to the drawings.
[0018] Es zeigen: [0018] FIG.
Figur 1 schematisch das grundlegende Prinzip der Photomischdetektion, Figur 2 schematisch unterschiedliche Erfassungsbereiche einer Figure 1 shows schematically the basic principle of photomix detection, Figure 2 schematically different detection areas of a
PMD-Kamera PMD camera
Figur 3 schematisch eine erfindungsgemäße Verarbeitung der FIG. 3 schematically shows a processing according to the invention
Erfassungsbereiche, Detection areas,
Figur 4, ein Fahrzeug mit zwei Beleuchtungsmodulgruppen, FIG. 4, a vehicle with two lighting module groups,
Figur 5, schematisch verschiedene Beleuchtungs- und Figure 5, schematically different lighting and
Erfassungsbereiche, Detection areas,
Figur 6, eine seitliche Ansicht der verschiedenen Beleuchtungs- und Erfassungsbereiche, FIG. 6, a side view of the different lighting and detection areas,
Figur 7 und 8 eine serielle und sequenzielle Auswertung der FIGS. 7 and 8 show a serial and sequential evaluation of the
unterschiedlichen Beleuchtungsbereiche. different lighting areas.
[0019] Figur 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einem TOF-Kamerasystem, wie es beispielsweise aus der DE 197 04 496 bekannt ist. FIG. 1 shows a measurement situation for an optical distance measurement a TOF camera system, as it is known for example from DE 197 04 496.
[0020] Das TOF-Kamerasystem umfasst hier eine Sendeeinheit bzw. ein The TOF camera system here comprises a transmitting unit or a
Beleuchtungsmodul 100 mit einer Lichtquelle 12 und einer dazugehörigen Strahlformungsoptik 50 sowie eine Empfangseinheit bzw. 3D-Kamera 200 mit einer Empfangsoptik 150 und einem Photosensor 15. Der Photosensor 15 ist vorzugsweise als Pixel-Array, insbesondere als PMD-Sensor, ausgebildet. Die Empfangsoptik besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 50 der Sendeeinheit 100 ist vorzugsweise als Illumination module 100 with a light source 12 and associated beam shaping optics 50 and a receiving unit or 3D camera 200 with a receiving optics 150 and a photosensor 15. The photosensor 15 is preferably formed as a pixel array, in particular as a PMD sensor. The receiving optics typically consist of improving the imaging properties of a plurality of optical elements. The beam-shaping optical system 50 of the transmitting unit 100 is preferably as
Reflektor ausgebildet. Es können jedoch auch diffraktive Elemente oder Kombinationen aus reflektierenden und diffraktiven Elementen eingesetzt werden. Reflector formed. However, it is also possible to use diffractive elements or combinations of reflective and diffractive elements.
[0021] Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasendifferenz des emittierten und empfangenen Lichts die Laufzeit des emittierten und reflektierten Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle und der Photosensor 15 über einen Modulator 18 gemeinsam mit einer bestimmten The measuring principle of this arrangement is essentially based on the fact that starting from the phase difference of the emitted and received light, the duration of the emitted and reflected light can be determined. For this purpose, the light source and the photosensor 15 via a modulator 18 together with a specific
Modulationsfrequenz mit einer ersten Phasenlage a beaufschlagt. Modulation frequency applied to a first phase position a.
Entsprechend der Modulationsfrequenz sendet die Lichtquelle 12 ein amplitudenmoduliertes Signal mit der Phase a aus. Dieses Signal bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 20 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke In accordance with the modulation frequency, the light source 12 transmits an amplitude-modulated signal having the phase a. In the case shown, this signal or the electromagnetic radiation is reflected by an object 20 and hits due to the distance covered
entsprechend phasenverschoben mit einer zweiten Phasenlage b auf den Photosensor 15. Im Photosensor 15 wird das Signal der ersten corresponding phase-shifted with a second phase position b on the photosensor 15. In the photosensor 15, the signal of the first
Phasenlage a des Modulators 18 mit dem empfangenen Signal, das mittlerweile eine zweite Phasenlage b angenommen hat, gemischt und aus dem resultierenden Signal die Phasenverschiebung bzw. die Phase position a of the modulator 18 with the received signal, which has meanwhile assumed a second phase position b, mixed and from the resulting signal, the phase shift or the
Objektentfernung ermittelt. Object distance determined.
[0022] Figur 2 zeigt eine typische Messsituation der erfindungsgemäßen FIG. 2 shows a typical measurement situation of the invention
3D-Kamera. Im dargestellten Beispiel ist eine 3D-Kamera in einem 3D camera. In the example shown, a 3D camera is in one
Fahrzeug 70 angeordnet und ermöglicht die Überwachung eines Vehicle 70 is arranged and allows the monitoring of a
Gesamterfassungsbereichs E. Aufgrund bestimmter Beleuchtungssituationen oder Auswertealgorithmen ist es möglich, innerhalb des Gesamterfassungsbereichs E unterschiedliche Erfassungsbzw. Überwachungsbereiche auszuwählen. Diese Erfassungsbereiche können sich insbesondere über so genannte„region-of-interest" (ROI) erstrecken oder solche beinhalten. Total coverage E. Due to certain Lighting situations or evaluation algorithms, it is possible within the total coverage area E different Erfassungsbzw. Select monitoring areas. In particular, these coverage areas may include or include so-called "region-of-interest" (ROI).
[0023] In Figur 2 a) ist ein erster Erfassungsbereich EB1 gezeigt, in dem In Figure 2 a), a first detection area EB1 is shown, in which
vorzugsweise Objekte in mittlerer und/oder großer Entfernung erfasst werden. Figur 2 b) zeigt einen zweiten und dritten deckungsgleichen Erfassungsbereich EB2, EB3. Beide Bereiche EB2, 3 sind geeignet Objekte im Nahbereich zu erfassen. Die Bereiche unterscheiden sich vorzugsweise durch eine unterschiedliche Erfassung durch das preferably objects are detected in the middle and / or long distance. Figure 2 b) shows a second and third congruent detection range EB2, EB3. Both areas EB2, 3 are suitable for detecting objects in the near range. The regions preferably differ by a different detection by the
Pixel-Array und/oder durch eine unterschiedliche Auswertung bzw. Pixel array and / or by a different evaluation or
Bildverarbeitung. Image processing.
[0024] Figur 3 zeigt schematisch eine mögliche Verarbeitung und Auswertung der unterschiedlichen Erfassungsbereiche EB1 , 2, 3. Das FIG. 3 schematically shows a possible processing and evaluation of the different detection ranges EB1, 2, 3. The
Verarbeitungssystem besteht hier im Wesentlichen aus drei Modulen, zum einen dem PMD-Chip bzw. Pixel-Array 15, der den gesamten Processing system consists essentially of three modules, on the one hand, the PMD chip or pixel array 15, the entire
Erfassungsbereich erfasst und zum anderen aus einem Captured and secondly from a
Verarbeitungsmodul VM und einem Sicherheitsmodul SM. Das Processing module VM and a security module SM. The
Verarbeitungsmodul VM erlaubt die Auswahl drei verschiedener Processing module VM allows the selection of three different
Bildverarbeitungsmodi BVM1 , 2, 3 zur individuellen Verarbeitung der unterschiedlichen Erfassungsbereiche EB 1 , 2, 3. Darüber hinaus ist das Verarbeitungsmodul derart ausgestaltet, dass beispielsweise abhängig vom verwendeten Bildverarbeitungsmodus bestimmte Eigenschaften des Pixel-Arrays 15 vorgegeben werden können. Im dargestellten Fall kann das Pixel-Array in einem hoch, mittel und niedrig auflösenden Modus H, M, L betrieben werden. Die unterschiedlichen Auflösungen können vorzugsweise durch Zusammenfassen einzelner Pixel zu Pixelblöcken, dem so genannten binning, eingestellt werden. Weitere Einstellungen des Pixel-Arrays 15 bezüglich Pixel-Position, Größe und/oder Anzahl der Pixelblöcke sind möglich. Image processing modes BVM1, 2, 3 for the individual processing of the different detection areas EB 1, 2, 3. In addition, the processing module is configured such that, for example, depending on the image processing mode used certain properties of the pixel array 15 can be specified. In the illustrated case, the pixel array can be operated in a high, medium and low resolution mode H, M, L. The different resolutions can preferably be set by combining individual pixels into blocks of pixels, the so-called binning. Further adjustments of the pixel array 15 with regard to pixel position, size and / or number of pixel blocks are possible.
[0025] Im dargestellten Beispiel ist der zweite Erfassungsbereich gem. Fig. 2 In the example shown, the second detection range is gem. Fig. 2
einem Nahbereich vorzugsweise einem nahen Straßenbereich zugeordnet, in dem Objekte beispielsweise in ihren Abmessungen und Positionen erfasst werden sollen. Zu diesem Zweck ist es vorteilhaft, dass Pixel-Array in einer hohen Auflösung H zu betreiben und eine a vicinity, preferably a nearby street area in which objects are to be recorded, for example, in their dimensions and positions. For this purpose, it is advantageous to operate the pixel array in a high resolution H and a
Bildverarbeitung mit einem geeignetem Algorithmus und geeigneter Parametrisierung auszuwählen. Select image processing with a suitable algorithm and appropriate parameterization.
[0026] Im dargestellten Fall ist für die Verarbeitung des ersten Erfassungsbereich EB1 vorgesehen, dass erste Bildverarbeitungmodul BVM1 in Kombination mit einer hohen Auflösung H des Pixel-Array zu verwenden. Als Ergebnis der Bildverarbeitung könnte beispielsweise eine Objektliste OL1 , 2, 3 mit den erkannten Objekten und ihren Parametern erstellt werden. Es sind jedoch auch andere Objektlisten oder Signalausgänge denkbar. In the illustrated case, it is provided for the processing of the first detection area EB1 to use the first image processing module BVM1 in combination with a high resolution H of the pixel array. As a result of the image processing, for example, an object list OL1, 2, 3 with the detected objects and their parameters could be created. However, other object lists or signal outputs are also conceivable.
[0027] Für den mittleren und/oder fernen zweiten Erfassungsbereich ist eine mittlere Auflösung M und das zweite Bildverarbeitungsmodul BVM2 vorgesehen. Dieses Modul ermittelt beispielsweise neben Position und Abmessung der Objekte auch deren Geschwindigkeit und For the middle and / or distant second detection range, an average resolution M and the second image processing module BVM2 is provided. This module determines, for example, in addition to position and dimension of the objects and their speed and
Beschleunigung. Die Objektliste OL2 aus dieser Verarbeitung kann insbesondere als PreCrash-lnformation genutzt werden. Acceleration. The object list OL2 from this processing can be used in particular as PreCrash information.
[0028] Der dritte Erfassungsbereich EB3 ist im dargestellten Beispiel für nahste Objekte vorgesehen, die sich vorzugsweise in unmittelbarer Nähe des Fahrzeugs bewegen können, beispielsweise querende Fußgänger oder Fahrradfahrer im Stadtverkehr. Dieser Erfassungsbereich ist einer niedrigen Auflösung L und dem dritten Bildverarbeitungsmodul BVM3 zugeordnet. Als Ergebnis könnte eine optionale Objektliste OL3' erstellt werden. The third detection area EB3 is provided in the example shown for closest objects, which can preferably move in the immediate vicinity of the vehicle, for example, crossing pedestrians or cyclists in city traffic. This detection area is associated with a low resolution L and the third image processing module BVM3. As a result, an optional object list OL3 'could be created.
[0029] Aus Sicherheitsgründen ist es jedoch vorgesehen, das dritte For safety reasons, it is provided, the third
Bildverarbeitungsmodul mit Hilfe eines Sicherheitsmoduls SM zu überwachen. Das Sicherheitsmodul SM verwendet hierbei dieselben Pixel-Array-Daten, wie sie auch dem Verarbeitungsmodul VM bzw. dem dritten Bildverarbeitungsmodul zur Verfügung standen. Die Verarbeitung der Daten erfolgt mit einem vierten Bildverarbeitungsmodul BVM4, dem vorzugsweise ein anderer Auswerte-Algorithmus und/oder eine andere Parametrisierung zugrunde liegen. Die Ergebnisse des dritten und vierten Bildverarbeitungsmoduls BVM3, 4 werden miteinander vergleichen und nur die sicher erkannten Objekte als dritte Objektliste OL3 weiter gegeben. Monitor image processing module using a security module SM. The security module SM uses the same pixel array data as was available to the processing module VM or the third image processing module. The processing of the data takes place with a fourth image processing module BVM4, which is preferably based on another evaluation algorithm and / or another parameterization. The results of the third and fourth image processing modules BVM3, 4 are compared with each other and only the securely recognized objects are given as a third object list OL3.
[0030] Figur 4 zeigt schematisch eine Frontansicht eines Kraftfahrzeuges. Im FIG. 4 shows schematically a front view of a motor vehicle. in the
oberen Bereich der Windschutzscheibe ist eine 3D-Kamera 200 Upper area of the windshield is a 3D camera 200
angeordnet in der Nähe der Frontscheinwerfer befinden sich auf der rechten und linken Seite des Kraftfahrzeuges verschiedene located near the headlights are located on the right and left side of the vehicle different
Beleuchtungsmodule. Die Beleuchtungsmodule 101 zur ersten Gruppe beleuchten einen ersten Beleuchtungsbereich B1 im Fernfeld des Lighting modules. The illumination modules 101 to the first group illuminate a first illumination area B1 in the far field of the
Kraftfahrzeuges. Die Beleuchtungsmodule 102 zur zweiten Gruppe beleuchten einen seitlichen Nahbereich des Kraftfahrzeuges in einem ersten und zweiten Beleuchtungsbereich B2, B3. Die seitlichen Motor vehicle. The illumination modules 102 to the second group illuminate a lateral near area of the motor vehicle in a first and second illumination area B2, B3. The lateral ones
Beleuchtungsbereiche B2, B3 können beispielsweise zur Erkennung der Fahrbahnränder oder Fahrbahnmarkierung verwendet werden, während der Fernbereich B1 bezüglich einer Hinderniserkennung ausgewertet werden kann. Lighting areas B2, B3 can be used, for example, to detect the road edges or lane markings, while the long-range area B1 can be evaluated with respect to obstacle detection.
[0031] Die Beleuchtungsbereiche sind vorzugsweise so gewählt dass sie The illumination areas are preferably chosen so that they
innerhalb des Erfassungsbereiches der 3D-Kamera 200 liegen, wie dies exemplarisch in der Figur 5 dargestellt ist. In der Figur 3 sind schematisch die verschiedenen Beleuchtungsgruppen 101 und 102 dargestellt. Das durch die erste Beleuchtungsgruppe 101 aufgespannte Beleuchtungsfeld beleuchtet den Erfassungsbereich E der 3D-Kamera vollständig und geht sogar darüber hinaus. Die Beleuchtungsbereiche B2, B3 der zweiten Beleuchtungsgruppe 102 liegen vollständig innerhalb des lie within the detection range of the 3D camera 200, as shown by way of example in Figure 5. FIG. 3 schematically shows the different lighting groups 101 and 102. The illumination field spanned by the first illumination group 101 completely illuminates the detection range E of the 3D camera and even exceeds it. The illumination areas B2, B3 of the second illumination group 102 are completely within the
Erfassungsbereiches E der 3D-Kamera und sind zudem räumlich voneinander getrennt. Detection area E of the 3D camera and are also spatially separated.
[0032] Diese zur Verfügungstellung verschiedener gegebenenfalls auch räumlich voneinander getrennten Beleuchtungsbereichen hat den Vorteil, dass mit nur einer einzigen 3D-Kamera mehrere und verschiedene Applikationen abgedeckt werden können. Insbesondere besteht die Möglichkeit die Applikationen nicht nur sequenziell sondern auch simultan einzusetzen. This provision of different possibly also spatially separated illumination areas has the advantage that with only a single 3D camera several and different applications can be covered. In particular, it is possible to use the applications not only sequentially but also simultaneously.
[0033] Aus der Seitenansicht in Figur 6 ist ferner zu entnehmen das die From the side view in Figure 6 can also be seen that the
Beleuchtungsbereiche nicht nur in der Geometrie sondern auch in der Reichweite angepasst werden können. Im dargestellten Fall ist die erste Beleuchtungsgruppe für die Beleuchtung entfernter Objekte ausgebildet während die zweite Beleuchtungsgruppe 102 vornämlich den Nahbereich beleuchtet. Die 3D-Kamera ist vorzugsweise so ausgebildet, dass sie sowohl den Fernbereich als auch den Nahbereich gleichzeitig erfassen kann. Lighting areas can be adjusted not only in the geometry but also in the range. In the illustrated case, the first lighting group is designed for the illumination of distant objects Namely, while the second illumination group 102 illuminates the near area. The 3D camera is preferably designed so that it can detect both the long-range and the short-range at the same time.
[0034] Die Beleuchtungsmodule können mit einer und mehreren Lichtquellen The lighting modules can with one and more light sources
ausgestattet sein, wobei jede Lichtquelle mit einer eigenen be equipped, each light source with its own
Strahlführungsoptik vorzugsweise einem Reflektor ausgestattet ist. Beam guiding optics preferably a reflector is equipped.
Prinzipiell ist es möglich die Strahlführungsoptik einer jeden Lichtquelle für den gewünschten Beleuchtungsbereich zu optimieren. In einer In principle, it is possible to optimize the beam guidance optics of each light source for the desired illumination range. In a
einfacheren Ausgestaltung ist es jedoch vorgesehen, die However, it is provided simpler embodiment, the
Strahlführungsoptiken der einzelnen Lichtquellen gleich auszugestalten und den Beleuchtungsbereich durch eine geeignete Gruppierung der Lichtquellen, Positionierung des Beleuchtungsmoduls oder Bilden von Beleuchtungsmodulgruppen festzulegen. Ferner könnte ein Beam guiding optics of the individual light sources the same design and define the lighting area by a suitable grouping of the light sources, positioning of the lighting module or forming lighting module groups. Furthermore, a
Beleuchtungsmodul auch in eine vorhandene Beleuchtungseinheit, zum Beispiel dem PKW-Scheinwerfer, integriert werden. Lighting module can also be integrated into an existing lighting unit, for example, the car headlights.
[0035] Die unterschiedlich beleuchteten Bereiche können nun mit einer The differently illuminated areas can now with a
nachgelagerten Bildverarbeitung gegebenenfalls mit verschiedenen Algorithmen bzw. Parametrisierungen ausgewertet und/oder bewertet werden. Durch die gezielte Fokussierung des Lichts in die jeweiligen Beleuchtungsbereiche wird ferner sichergestellt, dass ausreichend Licht für eine geeignete Auswertung in diesen Beleuchtungsbereichen ankommt. Um Energie zu sparen oder die Belastung der downstream image processing may be evaluated and / or evaluated with different algorithms or parametrizations. The targeted focusing of the light in the respective illumination areas also ensures that sufficient light arrives for a suitable evaluation in these illumination areas. To save energy or strain the
Beleuchtungsmodule zu verringern, kann es insbesondere vorgesehen sein, bestimmte Beleuchtungsbereiche nur kurzfristig zu beleuchten. It may be provided, in particular, to illuminate lighting modules only for a short time in order to reduce lighting modules.
[0036] Weiterhin ist es denkbar, dass bestimmte Beleuchtungsbereiche B1 , B2, B3 nur dann beleuchtet werden, wenn dies eine bestimmte Messsituation erfordert. Furthermore, it is conceivable that certain lighting areas B1, B2, B3 are illuminated only if this requires a specific measurement situation.
[0037] Prinzipiell ist eine gleichzeitige oder sequenzielle Ausleuchtung der In principle, a simultaneous or sequential illumination of the
verschiedenen Beleuchtungsbereiche denkbar. Mögliche Auswertungen derartiger Beleuchtungssituationen sind exemplarisch in den Figuren 7 und 8 dargestellt. different lighting areas conceivable. Possible evaluations of such lighting situations are shown by way of example in FIGS. 7 and 8.
[0038] Fig. 7 zeigt eine gleichzeitige Erfassung der Beleuchtungsbereiche B1 , B2, B3 während eines Zeitintervalls t1. Dieses Zeitintervall kann im FIG. 7 shows a simultaneous detection of the illumination areas B1, B2, B3 during a time interval t1. This time interval can be in
vorliegenden Fall auch ein Dauerbetrieb sein. Die erfassten Daten der einzelnen Beleuchtungsbereiche werden einer nachfolgenden present case also be a continuous operation. The recorded data of the individual lighting areas become a subsequent one
Bildverarbeitung zugeführt, wobei die Daten des ersten erfassten Image processing supplied, wherein the data of the first detected
Bereiches einer ersten Bildverarbeitung BV1 und die Daten aus dem zweiten und dritten Beleuchtungsbereich einer zweiten Bildverarbeitung BV2 zugeführt werden. Area of a first image processing BV1 and the data from the second and third illumination area of a second image processing BV2 are supplied.
[0039] Die Beleuchtungsbereiche B1 , B2, B3 sind vorzugsweise so genannten The illumination areas B1, B2, B3 are preferably so-called
Region-of-interest zugeordnet. Eine derartige„Region-of-interest" könnten beispielsweise ein Fernfeld oder ein Nahfeld sein. So kann beispielsweise für die erste Bildverarbeitung BV1 des ersten Beleuchtungsbereich B1 ein Algorithmus und eine Parametrisierung für die Erkennung von Region-of-interest assigned. Such a "region-of-interest" could, for example, be a far-field or a near-field. For example, for the first image processing BV1 of the first illumination area B1, an algorithm and a parameterization for the recognition of
Hindernissen, Fahrzeugen, Verkehrsschildern etc. verwendetet werden, während für die zweite Bildverarbeitung BV2 des zweiten und dritten Beleuchtungsbereich B2, B3 der Algorithmus und/oder die verwendeten Parameter vorzugsweise für die Erkennung von Seiten streifen bzw. Obstacles, vehicles, traffic signs, etc. are used, while for the second image processing BV2 of the second and third illumination area B2, B3, the algorithm and / or the parameters used preferably for the detection of pages or
Mittelstreifen und/oder Fahrbahnbegrenzungen und/oder Median strip and / or lane boundaries and / or
Fahrbahnunebenheiten o.ä. optimiert sind. Road bumps or similar are optimized.
[0040] Weiterhin ist es denkbar, für bestimmte Fahrsituationen oder Furthermore, it is conceivable for certain driving situations or
Sicherheitsüberprüfungen die verschiedenen Beleuchtungsbereiche bzw. Region-of-interest mittels unterschiedlichen Bildverarbeitungen zu untersuchen. Im dargestellte Beispiel ist beispielhaft mit gestrichelter Linie eine optionale Auswertung des zweiten Beleuchtungsbereichs B2 mit der ersten Bildverarbeitung BV1 gezeigt. Beispielsweise könnte dieser Security checks to examine the different lighting areas or region-of-interest using different image processing. In the example shown, an optional evaluation of the second illumination area B2 with the first image processing BV1 is shown by way of example with a dashed line. For example, this could be
Beleuchtungsbereich zunächst mit der zweiten Bildverarbeitung im Lighting area first with the second image processing in
Hinblick auf Erfassung eines Seitenstreifens untersucht werden und vorzugsweise parallel in der ersten Bildverarbeitung beispielsweise auf Hindernisse. Be examined in terms of detection of a sidelobe, and preferably in parallel in the first image processing, for example on obstacles.
[0041] Selbstverständlich sind auch weitere Zuordnungen der Of course, other assignments of
Beleuchtungsbereiche zu den verschiedenen Bildverarbeitungen denkbar, wie auch die Verwendung weiterer Bildverarbeitungen mit verschiedenen Algorithmen und/oder Parametern. Lighting areas for the various image processing conceivable, as well as the use of further image processing with different algorithms and / or parameters.
[0042] Die von den Bildverarbeitungen BV1 , BV2 gewonnen Daten können seriell oder auch parallel weiteren Prozessen zur Verfügung gestellt werden. Als Schnittstelle bzw. Datenbus kommen beispielsweise Ethernet, LVDS, CAN, Flexray etc. in Betracht. The data obtained by the image processing BV1, BV2 can be serial or be made available in parallel to other processes. As an interface or data bus, for example, Ethernet, LVDS, CAN, Flexray etc. into consideration.
[0043] Figur 8 zeigt im Wesentlichen die bereits in Figur 7 dargestellte FIG. 8 essentially shows that already shown in FIG
Bildverarbeitung, wobei die Beleuchtungsbereiche nicht zwingend parallel, sondern vorzugsweise sequentiell betrieben werden. Im dargestellten Beispiel ist es vorgesehen, den ersten Beleuchtungsbereich B1 in einem Zeitintervall t1 und den zweiten und dritten Beleuchtungsbereich B2, B3 in einem zweiten Zeitintervall t2 zu betreiben. Image processing, wherein the illumination areas are not necessarily operated in parallel, but preferably sequentially. In the example shown, it is provided to operate the first illumination area B1 in a time interval t1 and the second and third illumination areas B2, B3 in a second time interval t2.
[0044] Die Zeitdauer und Häufigkeit der Zeitintervalle kann hierbei völlig The duration and frequency of the time intervals can be completely
unabhängig gewählt werden. So kann beispielsweise zunächst der erste Beleuchtungsbereich B1 und dann die beiden anderen be chosen independently. For example, first the first lighting area B1 and then the other two
Beleuchtungsbereiche B2, B3 betrieben und erfasst werden. Es ist jedoch auch möglich, den ersten Beleuchtungsbereich B1 dauerhaft zu betreiben und den zweiten oder dritten Beleuchtungsbereich B2, B3 nur bei Bedarf zuzuschalten und zu erfassen. Auch das Hinzunehmen weiterer Lighting areas B2, B3 operated and recorded. However, it is also possible to operate the first illumination area B1 permanently and to switch on and off the second or third illumination area B2, B3 only when needed. Also accepting more
Beleuchtungsbereiche oder Bildverarbeitungen sowie weiteren Lighting areas or image processing as well as others
Zeitintervallen ist denkbar. Time intervals are conceivable.
[0045] So kann es auch vorgesehen sein, je nach Auswerte-, Umgebungsund/oder Fahrsituation unterschiedliche Zeitintervalle, Algorithmen, Parameter zu verwenden oder auch zwischen sequenzieller oder paralleler Beleuchtung oder Bildverarbeitung zu wechseln. Thus, it can also be provided, depending on the evaluation, surrounding and / or driving situation, to use different time intervals, algorithms, parameters or also to switch between sequential or parallel illumination or image processing.
[0046] In einer weiterführenden Ausbaustufe ist es möglich, über einen externen Befehl, beispielsweise über CAM, Flexray, LIN, Ethernet, oder ähnliches, den auszuleuchtenden Bereich und den anzuwendenden Algorithmus oder die anzuwendende Algorithmus-Parametrisierung zu definieren. In a further development stage, it is possible to define via an external command, for example via CAM, Flexray, LIN, Ethernet, or the like, the area to be illuminated and the algorithm to be used or the algorithm parameterization to be used.
Claims
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102009045600.7A DE102009045600B4 (en) | 2009-10-12 | 2009-10-12 | Camera system |
| DE102009045600.7 | 2009-10-12 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2011045277A1 true WO2011045277A1 (en) | 2011-04-21 |
Family
ID=43431181
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2010/065210 Ceased WO2011045277A1 (en) | 2009-10-12 | 2010-10-11 | Camera system |
Country Status (2)
| Country | Link |
|---|---|
| DE (1) | DE102009045600B4 (en) |
| WO (1) | WO2011045277A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9720089B2 (en) | 2012-01-23 | 2017-08-01 | Microsoft Technology Licensing, Llc | 3D zoom imager |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102012207328A1 (en) * | 2012-05-03 | 2013-11-07 | Audi Ag | System for acquisition of track profile for vehicle, has control device connected with light-time cameras and determining spacing and dimensions of uneven portion of track profile based on components of vehicle |
| DE102013208805B4 (en) * | 2012-05-30 | 2016-09-08 | Pmdtechnologies Gmbh | Light transit time sensor with buffer |
| DE102012213294B4 (en) * | 2012-07-27 | 2020-10-22 | pmdtechnologies ag | Method for operating a safety system in a motor vehicle, which has a 3D spatial frequency filter camera and a 3D TOF camera |
| DE102015109160A1 (en) * | 2015-06-10 | 2016-12-15 | Valeo Schalter Und Sensoren Gmbh | Driver assistance system for a motor vehicle, motor vehicle and method |
| EP3396413A4 (en) | 2015-12-21 | 2019-08-21 | Koito Manufacturing Co., Ltd. | Image acquisition device for vehicles, control device, vehicle provided with image acquisition device for vehicles and control device, and image acquisition method for vehicles |
| CN108541305A (en) * | 2015-12-21 | 2018-09-14 | 株式会社小糸制作所 | Vehicle image acquiring device and vehicle including the device |
| WO2017110418A1 (en) | 2015-12-21 | 2017-06-29 | 株式会社小糸製作所 | Image acquisition device to be used by vehicle, control device, vehicle equipped with control device or image acquisition device to be used by vehicle, and image acquisition method to be used by vehicle |
| EP3396410A4 (en) | 2015-12-21 | 2019-08-21 | Koito Manufacturing Co., Ltd. | Image acquisition device for vehicles, control device, vehicle provided with image acquisition device for vehicles and control device, and image acquisition method for vehicles |
| DE102018113629B4 (en) | 2017-06-08 | 2024-01-11 | Ifm Electronic Gmbh | Distance measuring system with at least two lighting modules |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19704496A1 (en) | 1996-09-05 | 1998-03-12 | Rudolf Prof Dr Ing Schwarte | Method and device for determining the phase and / or amplitude information of an electromagnetic wave |
| DE19730341A1 (en) * | 1997-07-15 | 1999-01-21 | Sick Ag | Method for operating an opto-electronic sensor arrangement |
| DE10011263A1 (en) | 2000-03-08 | 2001-09-13 | Bosch Gmbh Robert | Object detection system for adaptive cruise control system of vehicle, includes radar sensor with large and small detection ranges |
| WO2003029839A1 (en) * | 2001-09-27 | 2003-04-10 | Conti Temic Microelectronic Gmbh | Method for three-dimensional recording of objects or scenes |
| US6587186B2 (en) | 2000-06-06 | 2003-07-01 | Canesta, Inc. | CMOS-compatible three-dimensional image sensing using reduced peak energy |
| EP1777747A1 (en) | 2005-10-19 | 2007-04-25 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for the demodulation of modulated electromagnetic wave fields |
| EP1927867A1 (en) * | 2006-12-02 | 2008-06-04 | Sick Ag | Optoelectronic multiple plane sensor and method for detecting objects |
| US20080237445A1 (en) * | 2007-03-27 | 2008-10-02 | Ikeno Ryohei | Method and apparatus for distance measurement |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE10022454B4 (en) | 2000-05-09 | 2004-12-09 | Conti Temic Microelectronic Gmbh | Image recorders and image recording methods, in particular for the three-dimensional detection of objects and scenes |
| DE10360174B4 (en) | 2003-12-20 | 2007-03-08 | Leuze Lumiflex Gmbh + Co. Kg | Device for monitoring a detection area on a work equipment |
-
2009
- 2009-10-12 DE DE102009045600.7A patent/DE102009045600B4/en active Active
-
2010
- 2010-10-11 WO PCT/EP2010/065210 patent/WO2011045277A1/en not_active Ceased
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19704496A1 (en) | 1996-09-05 | 1998-03-12 | Rudolf Prof Dr Ing Schwarte | Method and device for determining the phase and / or amplitude information of an electromagnetic wave |
| DE19730341A1 (en) * | 1997-07-15 | 1999-01-21 | Sick Ag | Method for operating an opto-electronic sensor arrangement |
| DE10011263A1 (en) | 2000-03-08 | 2001-09-13 | Bosch Gmbh Robert | Object detection system for adaptive cruise control system of vehicle, includes radar sensor with large and small detection ranges |
| US6587186B2 (en) | 2000-06-06 | 2003-07-01 | Canesta, Inc. | CMOS-compatible three-dimensional image sensing using reduced peak energy |
| WO2003029839A1 (en) * | 2001-09-27 | 2003-04-10 | Conti Temic Microelectronic Gmbh | Method for three-dimensional recording of objects or scenes |
| EP1777747A1 (en) | 2005-10-19 | 2007-04-25 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for the demodulation of modulated electromagnetic wave fields |
| EP1927867A1 (en) * | 2006-12-02 | 2008-06-04 | Sick Ag | Optoelectronic multiple plane sensor and method for detecting objects |
| US20080237445A1 (en) * | 2007-03-27 | 2008-10-02 | Ikeno Ryohei | Method and apparatus for distance measurement |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9720089B2 (en) | 2012-01-23 | 2017-08-01 | Microsoft Technology Licensing, Llc | 3D zoom imager |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102009045600A1 (en) | 2011-04-14 |
| DE102009045600B4 (en) | 2021-11-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102009045600B4 (en) | Camera system | |
| DE19934670B4 (en) | Object detection system | |
| DE102013100327B4 (en) | Vehicle driving environment detection device | |
| DE102009023326B4 (en) | Apparatus and method for detecting a critical area and pedestrian detection apparatus using the same | |
| EP3049823B1 (en) | Method for controlling a micro-mirror scanner, and micro-mirror scanner | |
| DE102011088130B4 (en) | Method and device for detecting a braking situation | |
| DE112017006833B4 (en) | VEHICLE LIGHTING SYSTEM | |
| DE102012220089B4 (en) | Active vision system with unnoticed directed and modulated lighting | |
| EP2748032B1 (en) | Method and device for controlling a headlamp of a vehicle | |
| EP2898343A1 (en) | Method for calibrating a plurality of environment sensors in a vehicle | |
| DE102016001692A1 (en) | Driver assistance system for controlling a light emission of a vehicle-side headlamp device | |
| EP3210825A1 (en) | Lighting device for a motor vehicle, system with the lighting device and method for operating a lighting device | |
| EP2306426A1 (en) | Device for detecting vehicles on a traffic surface | |
| WO2011051286A1 (en) | Camera system | |
| DE102009007408A1 (en) | Vehicle e.g. car, surroundings detecting device, has optics comprising reflecting deflection element, which is formed such that light is fed to image points of sensors for determining image point running time | |
| EP2748760B1 (en) | Method for estimating a road course and method for controlling a light emission of at least one headlamp of a vehicle | |
| DE102006010295A1 (en) | Camera system for e.g. motor vehicle, has two different image sensors, whose data are read and merged based on image characteristics to form three-dimensional image, where sensors are sensitive in different spectral regions | |
| DE102009045558B4 (en) | Camera system | |
| WO2009010334A1 (en) | Driver assistance device | |
| DE102011017707A1 (en) | Method for detecting object e.g. concrete post in vicinity of camera for monitoring rear side region of vehicle, involves reading images captured by cameras after partially illuminating with illumination patterns | |
| EP2562685A1 (en) | Method and device for classifying a light object located in front of a vehicle | |
| DE102021126999A1 (en) | Method for operating a LiDAR system, LiDAR system and vehicle having at least one LiDAR system | |
| WO2019096585A1 (en) | Distance-measuring unit | |
| DE102011007464A1 (en) | Method for visualizing scene, involves selecting scene region in three-dimensional image based on distance information, marking selected scene region in two-dimensional image and presenting scene with marked scene region on display unit | |
| EP3994482A1 (en) | Optical measuring device for determining object information of objects in at least one monitoring region |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10765787 Country of ref document: EP Kind code of ref document: A1 |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 10765787 Country of ref document: EP Kind code of ref document: A1 |