[go: up one dir, main page]

WO2011045277A1 - Camera system - Google Patents

Camera system Download PDF

Info

Publication number
WO2011045277A1
WO2011045277A1 PCT/EP2010/065210 EP2010065210W WO2011045277A1 WO 2011045277 A1 WO2011045277 A1 WO 2011045277A1 EP 2010065210 W EP2010065210 W EP 2010065210W WO 2011045277 A1 WO2011045277 A1 WO 2011045277A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
lighting
illumination
processing module
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/EP2010/065210
Other languages
German (de)
French (fr)
Inventor
Volker Frey
Javier Massanell
Thomas May
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IFM Electronic GmbH
Original Assignee
IFM Electronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IFM Electronic GmbH filed Critical IFM Electronic GmbH
Publication of WO2011045277A1 publication Critical patent/WO2011045277A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Definitions

  • the invention relates to a camera system with a 3D camera and an active illumination and a method for operating such a camera according to the preamble of the independent claims.
  • Runtime measurement systems These use amplitude modulated or pulsed illumination to illuminate the area to be detected
  • 3D camera system may be included, which gain a time information from the phase shift of an emitted and received radiation.
  • a 3D camera or PMD camera in particular so-called photonic mixer detectors (PMD) are suitable, as they u.a. in the applications EP 1 777 747, US 6 587 186 and also DE 197 04 496 described and, for example, by the company, ifm electronic gmbh 'as a frame grabber O3D are available.
  • the PMD camera allows a flexible arrangement of the light source and the detector, which can be arranged both in a housing and separately.
  • an object management system in which the object detector can be switched over in a first and second operating mode in order to be able to switch for example between a small and a large angle detection range.
  • a radar sensor is used for the long range and an ultrasonic sensor for the near range.
  • the object of the invention is the processing speed of
  • a 3D camera is provided, based with a pixel array on a photomix detection, wherein individual pixels of the pixel array to pixel blocks, are summarized. This makes it possible in an advantageous manner, for certain detection and
  • Image processing situations to provide pixel blocks are described.
  • the security module to monitor the processing module to deviate from the processing module
  • Pixel block size used and evaluated.
  • a camera system is provided with a 3D camera based on a photomix detection and active illumination for illuminating a detection range of the 3D camera, wherein the active illumination is configured such that at least two areas of the detection range of the 3D camera different are illuminated.
  • Detection areas such as stripes or distant objects, the lighting can be adjusted according to the desired detection requirements.
  • a camera system is provided with a 3D camera based on a photomix detection and active illumination for illuminating a detection range of the 3D camera, in which the active illumination is designed such that at least two areas of the detection range of the 3D camera different are illuminated.
  • This procedure has the advantage that for certain preferred Detection areas, such as stripes or distant objects, the lighting can be adjusted according to the desired detection requirements.
  • the active lighting is divided into several lighting modules.
  • These lighting modules can in particular be divided into groups to one or more lighting modules, wherein a respective group for illuminating a particular
  • Lighting area is formed.
  • the specific illumination areas are illuminated either simultaneously or sequentially.
  • Figure 1 shows schematically the basic principle of photomix detection
  • Figure 2 schematically different detection areas of a
  • FIG. 3 schematically shows a processing according to the invention
  • FIG. 4 a vehicle with two lighting module groups
  • FIG. 6 a side view of the different lighting and detection areas
  • FIGS. 7 and 8 show a serial and sequential evaluation of the
  • FIG. 1 shows a measurement situation for an optical distance measurement a TOF camera system, as it is known for example from DE 197 04 496.
  • the TOF camera system here comprises a transmitting unit or a
  • Illumination module 100 with a light source 12 and associated beam shaping optics 50 and a receiving unit or 3D camera 200 with a receiving optics 150 and a photosensor 15.
  • the photosensor 15 is preferably formed as a pixel array, in particular as a PMD sensor.
  • the receiving optics typically consist of improving the imaging properties of a plurality of optical elements.
  • the beam-shaping optical system 50 of the transmitting unit 100 is preferably as
  • Reflector formed. However, it is also possible to use diffractive elements or combinations of reflective and diffractive elements.
  • the measuring principle of this arrangement is essentially based on the fact that starting from the phase difference of the emitted and received light, the duration of the emitted and reflected light can be determined.
  • Modulation frequency applied to a first phase position a is Modulation frequency applied to a first phase position a.
  • the light source 12 transmits an amplitude-modulated signal having the phase a.
  • this signal or the electromagnetic radiation is reflected by an object 20 and hits due to the distance covered
  • Phase position a of the modulator 18 with the received signal which has meanwhile assumed a second phase position b, mixed and from the resulting signal, the phase shift or the
  • FIG. 2 shows a typical measurement situation of the invention
  • a 3D camera is in one
  • Vehicle 70 is arranged and allows the monitoring of a
  • Total coverage E Due to certain Lighting situations or evaluation algorithms, it is possible within the total coverage area E different Er chargedsc. Select monitoring areas.
  • these coverage areas may include or include so-called "region-of-interest” (ROI).
  • ROI region-of-interest
  • Figure 2 b) shows a second and third congruent detection range EB2, EB3. Both areas EB2, 3 are suitable for detecting objects in the near range. The regions preferably differ by a different detection by the
  • Pixel array and / or by a different evaluation or
  • FIG. 3 schematically shows a possible processing and evaluation of the different detection ranges EB1, 2, 3.
  • Processing system consists essentially of three modules, on the one hand, the PMD chip or pixel array 15, the entire
  • Processing module VM allows the selection of three different parameters
  • the processing module is configured such that, for example, depending on the image processing mode used certain properties of the pixel array 15 can be specified.
  • the pixel array can be operated in a high, medium and low resolution mode H, M, L.
  • the different resolutions can preferably be set by combining individual pixels into blocks of pixels, the so-called binning. Further adjustments of the pixel array 15 with regard to pixel position, size and / or number of pixel blocks are possible.
  • the second detection range is gem. Fig. 2
  • a vicinity preferably a nearby street area in which objects are to be recorded, for example, in their dimensions and positions.
  • H high resolution
  • the processing of the first detection area EB1 to use the first image processing module BVM1 in combination with a high resolution H of the pixel array.
  • an object list OL1, 2, 3 with the detected objects and their parameters could be created.
  • other object lists or signal outputs are also conceivable.
  • an average resolution M and the second image processing module BVM2 is provided. This module determines, for example, in addition to position and dimension of the objects and their speed and
  • the object list OL2 from this processing can be used in particular as PreCrash information.
  • the third detection area EB3 is provided in the example shown for closest objects, which can preferably move in the immediate vicinity of the vehicle, for example, crossing pedestrians or cyclists in city traffic.
  • This detection area is associated with a low resolution L and the third image processing module BVM3.
  • an optional object list OL3 'could be created.
  • Monitor image processing module using a security module SM uses the same pixel array data as was available to the processing module VM or the third image processing module.
  • the processing of the data takes place with a fourth image processing module BVM4, which is preferably based on another evaluation algorithm and / or another parameterization.
  • the results of the third and fourth image processing modules BVM3, 4 are compared with each other and only the securely recognized objects are given as a third object list OL3.
  • FIG. 4 shows schematically a front view of a motor vehicle.
  • Upper area of the windshield is a 3D camera 200
  • located near the headlights are located on the right and left side of the vehicle different
  • Lighting modules The illumination modules 101 to the first group illuminate a first illumination area B1 in the far field of the
  • the illumination modules 102 to the second group illuminate a lateral near area of the motor vehicle in a first and second illumination area B2, B3.
  • Lighting areas B2, B3 can be used, for example, to detect the road edges or lane markings, while the long-range area B1 can be evaluated with respect to obstacle detection.
  • the illumination areas are preferably chosen so that they
  • FIG. 3 schematically shows the different lighting groups 101 and 102.
  • the illumination field spanned by the first illumination group 101 completely illuminates the detection range E of the 3D camera and even exceeds it.
  • the illumination areas B2, B3 of the second illumination group 102 are completely within the
  • Detection area E of the 3D camera and are also spatially separated.
  • This provision of different possibly also spatially separated illumination areas has the advantage that with only a single 3D camera several and different applications can be covered. In particular, it is possible to use the applications not only sequentially but also simultaneously.
  • Lighting areas can be adjusted not only in the geometry but also in the range.
  • the first lighting group is designed for the illumination of distant objects Namely, while the second illumination group 102 illuminates the near area.
  • the 3D camera is preferably designed so that it can detect both the long-range and the short-range at the same time.
  • the lighting modules can with one and more light sources
  • each light source with its own
  • Beam guiding optics preferably a reflector is equipped.
  • Beam guiding optics of the individual light sources the same design and define the lighting area by a suitable grouping of the light sources, positioning of the lighting module or forming lighting module groups. Furthermore, a
  • Lighting module can also be integrated into an existing lighting unit, for example, the car headlights.
  • downstream image processing may be evaluated and / or evaluated with different algorithms or parametrizations.
  • the targeted focusing of the light in the respective illumination areas also ensures that sufficient light arrives for a suitable evaluation in these illumination areas.
  • FIGS. 7 and 8 Possible evaluations of such lighting situations are shown by way of example in FIGS. 7 and 8.
  • FIG. 7 shows a simultaneous detection of the illumination areas B1, B2, B3 during a time interval t1. This time interval can be in
  • the recorded data of the individual lighting areas become a subsequent one
  • the illumination areas B1, B2, B3 are preferably so-called
  • Region-of-interest assigned.
  • Such a "region-of-interest” could, for example, be a far-field or a near-field.
  • Obstacles, vehicles, traffic signs, etc. are used, while for the second image processing BV2 of the second and third illumination area B2, B3, the algorithm and / or the parameters used preferably for the detection of pages or
  • an optional evaluation of the second illumination area B2 with the first image processing BV1 is shown by way of example with a dashed line. For example, this could be
  • Lighting areas for the various image processing conceivable, as well as the use of further image processing with different algorithms and / or parameters.
  • the data obtained by the image processing BV1, BV2 can be serial or be made available in parallel to other processes.
  • As an interface or data bus for example, Ethernet, LVDS, CAN, Flexray etc. into consideration.
  • FIG. 8 essentially shows that already shown in FIG
  • Image processing wherein the illumination areas are not necessarily operated in parallel, but preferably sequentially.
  • it is provided to operate the first illumination area B1 in a time interval t1 and the second and third illumination areas B2, B3 in a second time interval t2.
  • the duration and frequency of the time intervals can be completely
  • Lighting areas B2, B3 operated and recorded. However, it is also possible to operate the first illumination area B1 permanently and to switch on and off the second or third illumination area B2, B3 only when needed. Also accepting more

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a 3D camera having a pixel array on the basis of a mixing detection, implemented such that individual pixels of the pixel array can be merged to form pixel blocks.

Description

Beschreibung  description

KAMERASYSTEM  CAMERA SYSTEM

[0001] Die Erfindung betrifft ein Kamera System mit einer 3D-Kamera und einer aktiven Beleuchtung sowie ein Verfahren zum Betreiben einer solchen Kamera nach der Gattung der unabhängigen Ansprüche.  The invention relates to a camera system with a 3D camera and an active illumination and a method for operating such a camera according to the preamble of the independent claims.

[0002] Aus dem Stand der Technik sind Systeme zur dreidimensionalen  Systems for three-dimensional systems are known from the prior art

Bilderfassung bekannt, welche mit Hilfe einer aktiven Beleuchtung arbeiten. Dazu gehören so genannten Time-of-flight- (TOF-) oder  Image acquisition known, which work with the help of an active lighting. These include so-called time-of-flight (TOF) or

Laufzeitmesssysteme. Diese verwenden eine amplitudenmodulierte oder gepulste Beleuchtung, zur Ausleuchtung der zu erfassenden  Runtime measurement systems. These use amplitude modulated or pulsed illumination to illuminate the area to be detected

dreidimensionalen Szenerie.  three-dimensional scenery.

[0003] Mit Licht-Laufzeitmesssystem sollen insbesondere auch alle  With light transit time measurement system in particular all

3D-Kamerasystem mit umfasst sein, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als 3D-Kamera bzw. PMD-Kamera sind insbesondere so genannte Photomischdetektoren (PMD) geeignet, wie sie u.a. in den Anmeldungen EP 1 777 747, US 6 587 186 und auch DE 197 04 496 beschrieben und beispielsweise von der Firma ,ifm electronic gmbh' als Frame-Grabber O3D zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.  3D camera system may be included, which gain a time information from the phase shift of an emitted and received radiation. As a 3D camera or PMD camera in particular so-called photonic mixer detectors (PMD) are suitable, as they u.a. in the applications EP 1 777 747, US 6 587 186 and also DE 197 04 496 described and, for example, by the company, ifm electronic gmbh 'as a frame grabber O3D are available. In particular, the PMD camera allows a flexible arrangement of the light source and the detector, which can be arranged both in a housing and separately.

[0004] Aus der DE 100 1 1 263 A1 ist ein Objektdirektionssystem bekannt, bei dem der Objektdetektor in einem ersten und zweiten Betriebsmodus umgeschaltet werden kann, um beispielsweise zwischen einem kleinen und großen Winkelerfassungsbereich umschalten zu können. Für den weit reichenden Bereich wird ein Radarsensor und für den Nahbereich ein Ultraschallsensor eingesetzt.  From DE 100 1 1 263 A1 an object management system is known in which the object detector can be switched over in a first and second operating mode in order to be able to switch for example between a small and a large angle detection range. A radar sensor is used for the long range and an ultrasonic sensor for the near range.

[0005] Aufgabe der Erfindung ist es, die Verarbeitungsgeschwindigkeit der  The object of the invention is the processing speed of

3D-Kamera zu verbessern.  Improve 3D camera.

[0006] Die Aufgabe wird in vorteilhafter Weise durch die erfindungsgemäße  The object is achieved in an advantageous manner by the invention

3D-Kamera gelöst.  3D camera solved.

[0007] Vorteilhaft ist eine 3D-Kamera vorgesehen, mit einem Pixel-Array basieren auf einer Photomischdetektion, wobei einzelne Pixel des Pixel-Arrays zu Pixelblöcken, zusammenfassbar sind. Hierdurch ist es in vorteilhafter Weise möglich, für bestimmte Erfassungs- und Advantageously, a 3D camera is provided, based with a pixel array on a photomix detection, wherein individual pixels of the pixel array to pixel blocks, are summarized. This makes it possible in an advantageous manner, for certain detection and

Bildverarbeitungssituationen Pixelblöcke bereitzustellen.  Image processing situations to provide pixel blocks.

[0008] Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der in den  The measures listed in the dependent claims are advantageous developments and improvements in the

unabhängigen Ansprüchen angegebenen Erfindung möglich.  independent claims specified invention possible.

[0009] Insbesondere ist es von Vorteil ein Verarbeitungsmodul derart  In particular, it is advantageous a processing module such

auszugestalten, dass eine Größe, Positionen und/oder eine Anzahl der Pixelblöcke, in Abhängigkeit einer vorgegebenen Messaufgabe festgelegt und ausgewertet werden kann.  to design that a size, positions and / or a number of pixel blocks, can be set and evaluated depending on a given measurement task.

[0010] In einer weiteren Ausgestaltung ist es vorgesehen die Kamera zusätzlich mit einem Sicherheitsmodul auszugestalten, das unabhängig von dem Verarbeitungsmodul das Pixel-Array auswertet und das Ergebnis mit einem Ergebnis des Verarbeitungsmoduls vergleicht.  In a further embodiment, it is intended to additionally design the camera with a security module that evaluates the pixel array independently of the processing module and compares the result with a result of the processing module.

[001 1] Ferner ist es auch möglich, dass das Sicherheitsmodul zur Überwachung Verarbeitungsmodul eine vom Verarbeitungsmodul abweichende  Furthermore, it is also possible for the security module to monitor the processing module to deviate from the processing module

Pixelblockgröße verwendet und auswertet.  Pixel block size used and evaluated.

[0012] Vorteilhaft ist ein Kamerasystem mit einer 3D-Kamera basierend auf einer Photomischdetektion und einer aktiven Beleuchtung zur Beleuchtung eines Erfassungsbereichs der 3D-Kamera vorgesehen, bei der die aktive Beleuchtung derart ausgestaltet ist, dass mindestens zwei Bereiche des Erfassungsbereichs der 3D-Kamera unterschiedlich beleuchtbar sind. Dieses Vorgehen hat den Vorteil, dass für bestimmte bevorzugte  Advantageously, a camera system is provided with a 3D camera based on a photomix detection and active illumination for illuminating a detection range of the 3D camera, wherein the active illumination is configured such that at least two areas of the detection range of the 3D camera different are illuminated. This procedure has the advantage that for certain preferred

Erfassungsbereiche, beispielsweise Seiten streifen oder entfernte Objekte die Beleuchtung entsprechend des gewünschten Erfassungsbedarfs angepasst werden kann.  Detection areas, such as stripes or distant objects, the lighting can be adjusted according to the desired detection requirements.

[0013] Vorteilhaft ist ein Kamerasystem mit einer 3D-Kamera basierend auf einer Photomischdetektion und einer aktiven Beleuchtung zur Beleuchtung eines Erfassungsbereichs der 3D-Kamera vorgesehen, bei der die aktive Beleuchtung derart ausgestaltet ist, dass mindestens zwei Bereiche des Erfassungsbereichs der 3D-Kamera unterschiedlich beleuchtbar sind. Dieses Vorgehen hat den Vorteil, dass für bestimmte bevorzugte Erfassungsbereiche, beispielsweise Seiten streifen oder entfernte Objekte die Beleuchtung entsprechend des gewünschten Erfassungsbedarfs angepasst werden kann. Advantageously, a camera system is provided with a 3D camera based on a photomix detection and active illumination for illuminating a detection range of the 3D camera, in which the active illumination is designed such that at least two areas of the detection range of the 3D camera different are illuminated. This procedure has the advantage that for certain preferred Detection areas, such as stripes or distant objects, the lighting can be adjusted according to the desired detection requirements.

[0014] Vorzugsweise ist die aktive Beleuchtung in mehrere Beleuchtungsmodule aufgeteilt. Diese Beleuchtungsmodule können insbesondere in Gruppen zu einem oder mehreren Beleuchtungsmodulen aufgeteilt werden, wobei eine jeweilige Gruppe zur Ausleuchtung eines bestimmten  Preferably, the active lighting is divided into several lighting modules. These lighting modules can in particular be divided into groups to one or more lighting modules, wherein a respective group for illuminating a particular

Beleuchtungsbereiches ausgebildet ist.  Lighting area is formed.

[0015] Die Einteilung der Beleuchtungsmodule in Gruppen hat den Vorteil, dass die Beleuchtungsbereiche durch Ausrichtung der Module der  The division of the lighting modules in groups has the advantage that the lighting areas by aligning the modules of

entsprechenden Gruppe bereits angepasst werden kann. Alternativ oder ergänzend kann es auch vorgesehen sein, mindestens eine  appropriate group can already be adjusted. Alternatively or additionally, it may also be provided, at least one

Strahlführungsoptik eines Beleuchtungsmoduls für einen bestimmten Beleuchtungsbereich anzupassen.  To adjust the beam guiding optics of a lighting module for a particular lighting area.

[0016] Bezüglich des Verfahrens zum Betreiben des Kamerasystems kann es vorgesehen sein, dass die bestimmten Beleuchtungsbereiche entweder gleichzeitig oder sequenziell beleuchtet werden.  With regard to the method for operating the camera system, it may be provided that the specific illumination areas are illuminated either simultaneously or sequentially.

[0017] Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.  The invention will be explained in more detail by means of embodiments with reference to the drawings.

[0018] Es zeigen:  [0018] FIG.

Figur 1 schematisch das grundlegende Prinzip der Photomischdetektion, Figur 2 schematisch unterschiedliche Erfassungsbereiche einer  Figure 1 shows schematically the basic principle of photomix detection, Figure 2 schematically different detection areas of a

PMD-Kamera  PMD camera

Figur 3 schematisch eine erfindungsgemäße Verarbeitung der  FIG. 3 schematically shows a processing according to the invention

Erfassungsbereiche,  Detection areas,

Figur 4, ein Fahrzeug mit zwei Beleuchtungsmodulgruppen,  FIG. 4, a vehicle with two lighting module groups,

Figur 5, schematisch verschiedene Beleuchtungs- und  Figure 5, schematically different lighting and

Erfassungsbereiche,  Detection areas,

Figur 6, eine seitliche Ansicht der verschiedenen Beleuchtungs- und Erfassungsbereiche,  FIG. 6, a side view of the different lighting and detection areas,

Figur 7 und 8 eine serielle und sequenzielle Auswertung der  FIGS. 7 and 8 show a serial and sequential evaluation of the

unterschiedlichen Beleuchtungsbereiche.  different lighting areas.

[0019] Figur 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einem TOF-Kamerasystem, wie es beispielsweise aus der DE 197 04 496 bekannt ist. FIG. 1 shows a measurement situation for an optical distance measurement a TOF camera system, as it is known for example from DE 197 04 496.

[0020] Das TOF-Kamerasystem umfasst hier eine Sendeeinheit bzw. ein  The TOF camera system here comprises a transmitting unit or a

Beleuchtungsmodul 100 mit einer Lichtquelle 12 und einer dazugehörigen Strahlformungsoptik 50 sowie eine Empfangseinheit bzw. 3D-Kamera 200 mit einer Empfangsoptik 150 und einem Photosensor 15. Der Photosensor 15 ist vorzugsweise als Pixel-Array, insbesondere als PMD-Sensor, ausgebildet. Die Empfangsoptik besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 50 der Sendeeinheit 100 ist vorzugsweise als  Illumination module 100 with a light source 12 and associated beam shaping optics 50 and a receiving unit or 3D camera 200 with a receiving optics 150 and a photosensor 15. The photosensor 15 is preferably formed as a pixel array, in particular as a PMD sensor. The receiving optics typically consist of improving the imaging properties of a plurality of optical elements. The beam-shaping optical system 50 of the transmitting unit 100 is preferably as

Reflektor ausgebildet. Es können jedoch auch diffraktive Elemente oder Kombinationen aus reflektierenden und diffraktiven Elementen eingesetzt werden.  Reflector formed. However, it is also possible to use diffractive elements or combinations of reflective and diffractive elements.

[0021] Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasendifferenz des emittierten und empfangenen Lichts die Laufzeit des emittierten und reflektierten Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle und der Photosensor 15 über einen Modulator 18 gemeinsam mit einer bestimmten  The measuring principle of this arrangement is essentially based on the fact that starting from the phase difference of the emitted and received light, the duration of the emitted and reflected light can be determined. For this purpose, the light source and the photosensor 15 via a modulator 18 together with a specific

Modulationsfrequenz mit einer ersten Phasenlage a beaufschlagt.  Modulation frequency applied to a first phase position a.

Entsprechend der Modulationsfrequenz sendet die Lichtquelle 12 ein amplitudenmoduliertes Signal mit der Phase a aus. Dieses Signal bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 20 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke  In accordance with the modulation frequency, the light source 12 transmits an amplitude-modulated signal having the phase a. In the case shown, this signal or the electromagnetic radiation is reflected by an object 20 and hits due to the distance covered

entsprechend phasenverschoben mit einer zweiten Phasenlage b auf den Photosensor 15. Im Photosensor 15 wird das Signal der ersten  corresponding phase-shifted with a second phase position b on the photosensor 15. In the photosensor 15, the signal of the first

Phasenlage a des Modulators 18 mit dem empfangenen Signal, das mittlerweile eine zweite Phasenlage b angenommen hat, gemischt und aus dem resultierenden Signal die Phasenverschiebung bzw. die  Phase position a of the modulator 18 with the received signal, which has meanwhile assumed a second phase position b, mixed and from the resulting signal, the phase shift or the

Objektentfernung ermittelt.  Object distance determined.

[0022] Figur 2 zeigt eine typische Messsituation der erfindungsgemäßen  FIG. 2 shows a typical measurement situation of the invention

3D-Kamera. Im dargestellten Beispiel ist eine 3D-Kamera in einem  3D camera. In the example shown, a 3D camera is in one

Fahrzeug 70 angeordnet und ermöglicht die Überwachung eines  Vehicle 70 is arranged and allows the monitoring of a

Gesamterfassungsbereichs E. Aufgrund bestimmter Beleuchtungssituationen oder Auswertealgorithmen ist es möglich, innerhalb des Gesamterfassungsbereichs E unterschiedliche Erfassungsbzw. Überwachungsbereiche auszuwählen. Diese Erfassungsbereiche können sich insbesondere über so genannte„region-of-interest" (ROI) erstrecken oder solche beinhalten. Total coverage E. Due to certain Lighting situations or evaluation algorithms, it is possible within the total coverage area E different Erfassungsbzw. Select monitoring areas. In particular, these coverage areas may include or include so-called "region-of-interest" (ROI).

[0023] In Figur 2 a) ist ein erster Erfassungsbereich EB1 gezeigt, in dem In Figure 2 a), a first detection area EB1 is shown, in which

vorzugsweise Objekte in mittlerer und/oder großer Entfernung erfasst werden. Figur 2 b) zeigt einen zweiten und dritten deckungsgleichen Erfassungsbereich EB2, EB3. Beide Bereiche EB2, 3 sind geeignet Objekte im Nahbereich zu erfassen. Die Bereiche unterscheiden sich vorzugsweise durch eine unterschiedliche Erfassung durch das  preferably objects are detected in the middle and / or long distance. Figure 2 b) shows a second and third congruent detection range EB2, EB3. Both areas EB2, 3 are suitable for detecting objects in the near range. The regions preferably differ by a different detection by the

Pixel-Array und/oder durch eine unterschiedliche Auswertung bzw.  Pixel array and / or by a different evaluation or

Bildverarbeitung.  Image processing.

[0024] Figur 3 zeigt schematisch eine mögliche Verarbeitung und Auswertung der unterschiedlichen Erfassungsbereiche EB1 , 2, 3. Das  FIG. 3 schematically shows a possible processing and evaluation of the different detection ranges EB1, 2, 3. The

Verarbeitungssystem besteht hier im Wesentlichen aus drei Modulen, zum einen dem PMD-Chip bzw. Pixel-Array 15, der den gesamten  Processing system consists essentially of three modules, on the one hand, the PMD chip or pixel array 15, the entire

Erfassungsbereich erfasst und zum anderen aus einem  Captured and secondly from a

Verarbeitungsmodul VM und einem Sicherheitsmodul SM. Das  Processing module VM and a security module SM. The

Verarbeitungsmodul VM erlaubt die Auswahl drei verschiedener  Processing module VM allows the selection of three different

Bildverarbeitungsmodi BVM1 , 2, 3 zur individuellen Verarbeitung der unterschiedlichen Erfassungsbereiche EB 1 , 2, 3. Darüber hinaus ist das Verarbeitungsmodul derart ausgestaltet, dass beispielsweise abhängig vom verwendeten Bildverarbeitungsmodus bestimmte Eigenschaften des Pixel-Arrays 15 vorgegeben werden können. Im dargestellten Fall kann das Pixel-Array in einem hoch, mittel und niedrig auflösenden Modus H, M, L betrieben werden. Die unterschiedlichen Auflösungen können vorzugsweise durch Zusammenfassen einzelner Pixel zu Pixelblöcken, dem so genannten binning, eingestellt werden. Weitere Einstellungen des Pixel-Arrays 15 bezüglich Pixel-Position, Größe und/oder Anzahl der Pixelblöcke sind möglich.  Image processing modes BVM1, 2, 3 for the individual processing of the different detection areas EB 1, 2, 3. In addition, the processing module is configured such that, for example, depending on the image processing mode used certain properties of the pixel array 15 can be specified. In the illustrated case, the pixel array can be operated in a high, medium and low resolution mode H, M, L. The different resolutions can preferably be set by combining individual pixels into blocks of pixels, the so-called binning. Further adjustments of the pixel array 15 with regard to pixel position, size and / or number of pixel blocks are possible.

[0025] Im dargestellten Beispiel ist der zweite Erfassungsbereich gem. Fig. 2  In the example shown, the second detection range is gem. Fig. 2

einem Nahbereich vorzugsweise einem nahen Straßenbereich zugeordnet, in dem Objekte beispielsweise in ihren Abmessungen und Positionen erfasst werden sollen. Zu diesem Zweck ist es vorteilhaft, dass Pixel-Array in einer hohen Auflösung H zu betreiben und eine a vicinity, preferably a nearby street area in which objects are to be recorded, for example, in their dimensions and positions. For this purpose, it is advantageous to operate the pixel array in a high resolution H and a

Bildverarbeitung mit einem geeignetem Algorithmus und geeigneter Parametrisierung auszuwählen.  Select image processing with a suitable algorithm and appropriate parameterization.

[0026] Im dargestellten Fall ist für die Verarbeitung des ersten Erfassungsbereich EB1 vorgesehen, dass erste Bildverarbeitungmodul BVM1 in Kombination mit einer hohen Auflösung H des Pixel-Array zu verwenden. Als Ergebnis der Bildverarbeitung könnte beispielsweise eine Objektliste OL1 , 2, 3 mit den erkannten Objekten und ihren Parametern erstellt werden. Es sind jedoch auch andere Objektlisten oder Signalausgänge denkbar.  In the illustrated case, it is provided for the processing of the first detection area EB1 to use the first image processing module BVM1 in combination with a high resolution H of the pixel array. As a result of the image processing, for example, an object list OL1, 2, 3 with the detected objects and their parameters could be created. However, other object lists or signal outputs are also conceivable.

[0027] Für den mittleren und/oder fernen zweiten Erfassungsbereich ist eine mittlere Auflösung M und das zweite Bildverarbeitungsmodul BVM2 vorgesehen. Dieses Modul ermittelt beispielsweise neben Position und Abmessung der Objekte auch deren Geschwindigkeit und  For the middle and / or distant second detection range, an average resolution M and the second image processing module BVM2 is provided. This module determines, for example, in addition to position and dimension of the objects and their speed and

Beschleunigung. Die Objektliste OL2 aus dieser Verarbeitung kann insbesondere als PreCrash-lnformation genutzt werden.  Acceleration. The object list OL2 from this processing can be used in particular as PreCrash information.

[0028] Der dritte Erfassungsbereich EB3 ist im dargestellten Beispiel für nahste Objekte vorgesehen, die sich vorzugsweise in unmittelbarer Nähe des Fahrzeugs bewegen können, beispielsweise querende Fußgänger oder Fahrradfahrer im Stadtverkehr. Dieser Erfassungsbereich ist einer niedrigen Auflösung L und dem dritten Bildverarbeitungsmodul BVM3 zugeordnet. Als Ergebnis könnte eine optionale Objektliste OL3' erstellt werden.  The third detection area EB3 is provided in the example shown for closest objects, which can preferably move in the immediate vicinity of the vehicle, for example, crossing pedestrians or cyclists in city traffic. This detection area is associated with a low resolution L and the third image processing module BVM3. As a result, an optional object list OL3 'could be created.

[0029] Aus Sicherheitsgründen ist es jedoch vorgesehen, das dritte  For safety reasons, it is provided, the third

Bildverarbeitungsmodul mit Hilfe eines Sicherheitsmoduls SM zu überwachen. Das Sicherheitsmodul SM verwendet hierbei dieselben Pixel-Array-Daten, wie sie auch dem Verarbeitungsmodul VM bzw. dem dritten Bildverarbeitungsmodul zur Verfügung standen. Die Verarbeitung der Daten erfolgt mit einem vierten Bildverarbeitungsmodul BVM4, dem vorzugsweise ein anderer Auswerte-Algorithmus und/oder eine andere Parametrisierung zugrunde liegen. Die Ergebnisse des dritten und vierten Bildverarbeitungsmoduls BVM3, 4 werden miteinander vergleichen und nur die sicher erkannten Objekte als dritte Objektliste OL3 weiter gegeben. Monitor image processing module using a security module SM. The security module SM uses the same pixel array data as was available to the processing module VM or the third image processing module. The processing of the data takes place with a fourth image processing module BVM4, which is preferably based on another evaluation algorithm and / or another parameterization. The results of the third and fourth image processing modules BVM3, 4 are compared with each other and only the securely recognized objects are given as a third object list OL3.

[0030] Figur 4 zeigt schematisch eine Frontansicht eines Kraftfahrzeuges. Im FIG. 4 shows schematically a front view of a motor vehicle. in the

oberen Bereich der Windschutzscheibe ist eine 3D-Kamera 200  Upper area of the windshield is a 3D camera 200

angeordnet in der Nähe der Frontscheinwerfer befinden sich auf der rechten und linken Seite des Kraftfahrzeuges verschiedene  located near the headlights are located on the right and left side of the vehicle different

Beleuchtungsmodule. Die Beleuchtungsmodule 101 zur ersten Gruppe beleuchten einen ersten Beleuchtungsbereich B1 im Fernfeld des  Lighting modules. The illumination modules 101 to the first group illuminate a first illumination area B1 in the far field of the

Kraftfahrzeuges. Die Beleuchtungsmodule 102 zur zweiten Gruppe beleuchten einen seitlichen Nahbereich des Kraftfahrzeuges in einem ersten und zweiten Beleuchtungsbereich B2, B3. Die seitlichen  Motor vehicle. The illumination modules 102 to the second group illuminate a lateral near area of the motor vehicle in a first and second illumination area B2, B3. The lateral ones

Beleuchtungsbereiche B2, B3 können beispielsweise zur Erkennung der Fahrbahnränder oder Fahrbahnmarkierung verwendet werden, während der Fernbereich B1 bezüglich einer Hinderniserkennung ausgewertet werden kann.  Lighting areas B2, B3 can be used, for example, to detect the road edges or lane markings, while the long-range area B1 can be evaluated with respect to obstacle detection.

[0031] Die Beleuchtungsbereiche sind vorzugsweise so gewählt dass sie  The illumination areas are preferably chosen so that they

innerhalb des Erfassungsbereiches der 3D-Kamera 200 liegen, wie dies exemplarisch in der Figur 5 dargestellt ist. In der Figur 3 sind schematisch die verschiedenen Beleuchtungsgruppen 101 und 102 dargestellt. Das durch die erste Beleuchtungsgruppe 101 aufgespannte Beleuchtungsfeld beleuchtet den Erfassungsbereich E der 3D-Kamera vollständig und geht sogar darüber hinaus. Die Beleuchtungsbereiche B2, B3 der zweiten Beleuchtungsgruppe 102 liegen vollständig innerhalb des  lie within the detection range of the 3D camera 200, as shown by way of example in Figure 5. FIG. 3 schematically shows the different lighting groups 101 and 102. The illumination field spanned by the first illumination group 101 completely illuminates the detection range E of the 3D camera and even exceeds it. The illumination areas B2, B3 of the second illumination group 102 are completely within the

Erfassungsbereiches E der 3D-Kamera und sind zudem räumlich voneinander getrennt.  Detection area E of the 3D camera and are also spatially separated.

[0032] Diese zur Verfügungstellung verschiedener gegebenenfalls auch räumlich voneinander getrennten Beleuchtungsbereichen hat den Vorteil, dass mit nur einer einzigen 3D-Kamera mehrere und verschiedene Applikationen abgedeckt werden können. Insbesondere besteht die Möglichkeit die Applikationen nicht nur sequenziell sondern auch simultan einzusetzen.  This provision of different possibly also spatially separated illumination areas has the advantage that with only a single 3D camera several and different applications can be covered. In particular, it is possible to use the applications not only sequentially but also simultaneously.

[0033] Aus der Seitenansicht in Figur 6 ist ferner zu entnehmen das die  From the side view in Figure 6 can also be seen that the

Beleuchtungsbereiche nicht nur in der Geometrie sondern auch in der Reichweite angepasst werden können. Im dargestellten Fall ist die erste Beleuchtungsgruppe für die Beleuchtung entfernter Objekte ausgebildet während die zweite Beleuchtungsgruppe 102 vornämlich den Nahbereich beleuchtet. Die 3D-Kamera ist vorzugsweise so ausgebildet, dass sie sowohl den Fernbereich als auch den Nahbereich gleichzeitig erfassen kann. Lighting areas can be adjusted not only in the geometry but also in the range. In the illustrated case, the first lighting group is designed for the illumination of distant objects Namely, while the second illumination group 102 illuminates the near area. The 3D camera is preferably designed so that it can detect both the long-range and the short-range at the same time.

[0034] Die Beleuchtungsmodule können mit einer und mehreren Lichtquellen  The lighting modules can with one and more light sources

ausgestattet sein, wobei jede Lichtquelle mit einer eigenen  be equipped, each light source with its own

Strahlführungsoptik vorzugsweise einem Reflektor ausgestattet ist.  Beam guiding optics preferably a reflector is equipped.

Prinzipiell ist es möglich die Strahlführungsoptik einer jeden Lichtquelle für den gewünschten Beleuchtungsbereich zu optimieren. In einer  In principle, it is possible to optimize the beam guidance optics of each light source for the desired illumination range. In a

einfacheren Ausgestaltung ist es jedoch vorgesehen, die  However, it is provided simpler embodiment, the

Strahlführungsoptiken der einzelnen Lichtquellen gleich auszugestalten und den Beleuchtungsbereich durch eine geeignete Gruppierung der Lichtquellen, Positionierung des Beleuchtungsmoduls oder Bilden von Beleuchtungsmodulgruppen festzulegen. Ferner könnte ein  Beam guiding optics of the individual light sources the same design and define the lighting area by a suitable grouping of the light sources, positioning of the lighting module or forming lighting module groups. Furthermore, a

Beleuchtungsmodul auch in eine vorhandene Beleuchtungseinheit, zum Beispiel dem PKW-Scheinwerfer, integriert werden.  Lighting module can also be integrated into an existing lighting unit, for example, the car headlights.

[0035] Die unterschiedlich beleuchteten Bereiche können nun mit einer  The differently illuminated areas can now with a

nachgelagerten Bildverarbeitung gegebenenfalls mit verschiedenen Algorithmen bzw. Parametrisierungen ausgewertet und/oder bewertet werden. Durch die gezielte Fokussierung des Lichts in die jeweiligen Beleuchtungsbereiche wird ferner sichergestellt, dass ausreichend Licht für eine geeignete Auswertung in diesen Beleuchtungsbereichen ankommt. Um Energie zu sparen oder die Belastung der  downstream image processing may be evaluated and / or evaluated with different algorithms or parametrizations. The targeted focusing of the light in the respective illumination areas also ensures that sufficient light arrives for a suitable evaluation in these illumination areas. To save energy or strain the

Beleuchtungsmodule zu verringern, kann es insbesondere vorgesehen sein, bestimmte Beleuchtungsbereiche nur kurzfristig zu beleuchten.  It may be provided, in particular, to illuminate lighting modules only for a short time in order to reduce lighting modules.

[0036] Weiterhin ist es denkbar, dass bestimmte Beleuchtungsbereiche B1 , B2, B3 nur dann beleuchtet werden, wenn dies eine bestimmte Messsituation erfordert.  Furthermore, it is conceivable that certain lighting areas B1, B2, B3 are illuminated only if this requires a specific measurement situation.

[0037] Prinzipiell ist eine gleichzeitige oder sequenzielle Ausleuchtung der  In principle, a simultaneous or sequential illumination of the

verschiedenen Beleuchtungsbereiche denkbar. Mögliche Auswertungen derartiger Beleuchtungssituationen sind exemplarisch in den Figuren 7 und 8 dargestellt.  different lighting areas conceivable. Possible evaluations of such lighting situations are shown by way of example in FIGS. 7 and 8.

[0038] Fig. 7 zeigt eine gleichzeitige Erfassung der Beleuchtungsbereiche B1 , B2, B3 während eines Zeitintervalls t1. Dieses Zeitintervall kann im FIG. 7 shows a simultaneous detection of the illumination areas B1, B2, B3 during a time interval t1. This time interval can be in

vorliegenden Fall auch ein Dauerbetrieb sein. Die erfassten Daten der einzelnen Beleuchtungsbereiche werden einer nachfolgenden  present case also be a continuous operation. The recorded data of the individual lighting areas become a subsequent one

Bildverarbeitung zugeführt, wobei die Daten des ersten erfassten  Image processing supplied, wherein the data of the first detected

Bereiches einer ersten Bildverarbeitung BV1 und die Daten aus dem zweiten und dritten Beleuchtungsbereich einer zweiten Bildverarbeitung BV2 zugeführt werden.  Area of a first image processing BV1 and the data from the second and third illumination area of a second image processing BV2 are supplied.

[0039] Die Beleuchtungsbereiche B1 , B2, B3 sind vorzugsweise so genannten The illumination areas B1, B2, B3 are preferably so-called

Region-of-interest zugeordnet. Eine derartige„Region-of-interest" könnten beispielsweise ein Fernfeld oder ein Nahfeld sein. So kann beispielsweise für die erste Bildverarbeitung BV1 des ersten Beleuchtungsbereich B1 ein Algorithmus und eine Parametrisierung für die Erkennung von Region-of-interest assigned. Such a "region-of-interest" could, for example, be a far-field or a near-field. For example, for the first image processing BV1 of the first illumination area B1, an algorithm and a parameterization for the recognition of

Hindernissen, Fahrzeugen, Verkehrsschildern etc. verwendetet werden, während für die zweite Bildverarbeitung BV2 des zweiten und dritten Beleuchtungsbereich B2, B3 der Algorithmus und/oder die verwendeten Parameter vorzugsweise für die Erkennung von Seiten streifen bzw.  Obstacles, vehicles, traffic signs, etc. are used, while for the second image processing BV2 of the second and third illumination area B2, B3, the algorithm and / or the parameters used preferably for the detection of pages or

Mittelstreifen und/oder Fahrbahnbegrenzungen und/oder  Median strip and / or lane boundaries and / or

Fahrbahnunebenheiten o.ä. optimiert sind.  Road bumps or similar are optimized.

[0040] Weiterhin ist es denkbar, für bestimmte Fahrsituationen oder  Furthermore, it is conceivable for certain driving situations or

Sicherheitsüberprüfungen die verschiedenen Beleuchtungsbereiche bzw. Region-of-interest mittels unterschiedlichen Bildverarbeitungen zu untersuchen. Im dargestellte Beispiel ist beispielhaft mit gestrichelter Linie eine optionale Auswertung des zweiten Beleuchtungsbereichs B2 mit der ersten Bildverarbeitung BV1 gezeigt. Beispielsweise könnte dieser  Security checks to examine the different lighting areas or region-of-interest using different image processing. In the example shown, an optional evaluation of the second illumination area B2 with the first image processing BV1 is shown by way of example with a dashed line. For example, this could be

Beleuchtungsbereich zunächst mit der zweiten Bildverarbeitung im  Lighting area first with the second image processing in

Hinblick auf Erfassung eines Seitenstreifens untersucht werden und vorzugsweise parallel in der ersten Bildverarbeitung beispielsweise auf Hindernisse.  Be examined in terms of detection of a sidelobe, and preferably in parallel in the first image processing, for example on obstacles.

[0041] Selbstverständlich sind auch weitere Zuordnungen der  Of course, other assignments of

Beleuchtungsbereiche zu den verschiedenen Bildverarbeitungen denkbar, wie auch die Verwendung weiterer Bildverarbeitungen mit verschiedenen Algorithmen und/oder Parametern.  Lighting areas for the various image processing conceivable, as well as the use of further image processing with different algorithms and / or parameters.

[0042] Die von den Bildverarbeitungen BV1 , BV2 gewonnen Daten können seriell oder auch parallel weiteren Prozessen zur Verfügung gestellt werden. Als Schnittstelle bzw. Datenbus kommen beispielsweise Ethernet, LVDS, CAN, Flexray etc. in Betracht. The data obtained by the image processing BV1, BV2 can be serial or be made available in parallel to other processes. As an interface or data bus, for example, Ethernet, LVDS, CAN, Flexray etc. into consideration.

[0043] Figur 8 zeigt im Wesentlichen die bereits in Figur 7 dargestellte  FIG. 8 essentially shows that already shown in FIG

Bildverarbeitung, wobei die Beleuchtungsbereiche nicht zwingend parallel, sondern vorzugsweise sequentiell betrieben werden. Im dargestellten Beispiel ist es vorgesehen, den ersten Beleuchtungsbereich B1 in einem Zeitintervall t1 und den zweiten und dritten Beleuchtungsbereich B2, B3 in einem zweiten Zeitintervall t2 zu betreiben.  Image processing, wherein the illumination areas are not necessarily operated in parallel, but preferably sequentially. In the example shown, it is provided to operate the first illumination area B1 in a time interval t1 and the second and third illumination areas B2, B3 in a second time interval t2.

[0044] Die Zeitdauer und Häufigkeit der Zeitintervalle kann hierbei völlig  The duration and frequency of the time intervals can be completely

unabhängig gewählt werden. So kann beispielsweise zunächst der erste Beleuchtungsbereich B1 und dann die beiden anderen  be chosen independently. For example, first the first lighting area B1 and then the other two

Beleuchtungsbereiche B2, B3 betrieben und erfasst werden. Es ist jedoch auch möglich, den ersten Beleuchtungsbereich B1 dauerhaft zu betreiben und den zweiten oder dritten Beleuchtungsbereich B2, B3 nur bei Bedarf zuzuschalten und zu erfassen. Auch das Hinzunehmen weiterer  Lighting areas B2, B3 operated and recorded. However, it is also possible to operate the first illumination area B1 permanently and to switch on and off the second or third illumination area B2, B3 only when needed. Also accepting more

Beleuchtungsbereiche oder Bildverarbeitungen sowie weiteren  Lighting areas or image processing as well as others

Zeitintervallen ist denkbar.  Time intervals are conceivable.

[0045] So kann es auch vorgesehen sein, je nach Auswerte-, Umgebungsund/oder Fahrsituation unterschiedliche Zeitintervalle, Algorithmen, Parameter zu verwenden oder auch zwischen sequenzieller oder paralleler Beleuchtung oder Bildverarbeitung zu wechseln.  Thus, it can also be provided, depending on the evaluation, surrounding and / or driving situation, to use different time intervals, algorithms, parameters or also to switch between sequential or parallel illumination or image processing.

[0046] In einer weiterführenden Ausbaustufe ist es möglich, über einen externen Befehl, beispielsweise über CAM, Flexray, LIN, Ethernet, oder ähnliches, den auszuleuchtenden Bereich und den anzuwendenden Algorithmus oder die anzuwendende Algorithmus-Parametrisierung zu definieren.  In a further development stage, it is possible to define via an external command, for example via CAM, Flexray, LIN, Ethernet, or the like, the area to be illuminated and the algorithm to be used or the algorithm parameterization to be used.

Claims

Ansprüche claims 1. 3D-Kamera mit einem Pixel-Array basierend auf einer Photomischdetektion dadurch gekennzeichnet,  1. 3D camera characterized by a pixel array based on a photomix detection characterized dass einzelne Pixel des Pixel-Arrays zu Pixelblöcken zusammenfassbar sind. that individual pixels of the pixel array can be combined into blocks of pixels. 2. Kamera nach Anspruch 1 , mit einem Verarbeitungsmodul, das derart 2. Camera according to claim 1, with a processing module, the like ausgestaltet ist, dass eine Größe, Positionen und/oder eine Anzahl der Pixelblöcke, in Abhängigkeit einer vorgegebenen Messaufgabe festgelegt und auswertet werden.  is configured such that a size, positions and / or a number of pixel blocks are set and evaluated depending on a given measurement task. 3. Kamera nach Anspruch 2, mit einem Sicherheitsmodul, das unabhängig von dem Verarbeitungsmodul das Pixel-Array auswertet und das Ergebnis mit einem Ergebnis des Verarbeitungsmoduls vergleicht.  A camera according to claim 2, including a security module that independently of the processing module evaluates the pixel array and compares the result to a result of the processing module. 4. Kamera nach Anspruch 3, bei der das Sicherheitsmodul zur Überwachung Verarbeitungsmodul eine vom Verarbeitungsmodul abweichende  4. Camera according to claim 3, wherein the security module for monitoring processing module deviates from the processing module Pixelblockgröße verwendet und auswertet.  Pixel block size used and evaluated. 5. Kamera nach einem der vorhergehenden Ansprüche, bei dem eine aktive  5. Camera according to one of the preceding claims, wherein an active Beleuchtung in Gruppen zu einem oder mehreren Beleuchtungsmodulen aufgeteilt ist, wobei eine jeweilige Gruppe zur Ausleuchtung eines bestimmten Beleuchtungsbereiches ausgebildet ist.  Lighting is divided into groups to one or more lighting modules, wherein a respective group is designed to illuminate a particular lighting area. 6. Kamera nach Anspruch 5, bei dem die bestimmten Beleuchtungsbereiche bestimmten Überwachungsbereichen, insbesondere Region-of-interest zugeordnet sind.  6. Camera according to claim 5, wherein the specific illumination areas are assigned to specific surveillance areas, in particular region-of-interest. 7. Kamerasystem nach einem der vorhergehenden Ansprüche, bei dem zur  7. Camera system according to one of the preceding claims, wherein the Ausleuchtung des bestimmten Beleuchtungsbereichs die  Illumination of the particular lighting area Beleuchtungsmodulgruppe entsprechend ausgerichtet werden kann und/oder mindestens eine Strahlführungsoptik eines Beleuchtungsmoduls für den bestimmten Beleuchtungsbereich angepasst ist.  Lighting module group can be aligned accordingly and / or at least one beam guiding optics of a lighting module for the particular lighting area is adjusted. 8. Verfahren für eine 3D-Kamera nach einem der vorhergehenden Ansprüche, bei dem die Größe und/oder Anzahl der Pixelblöcke in Abhängigkeit der vorgegebenen Sicherheitsanforderungsstufe festgelegt wird.  8. A method for a 3D camera according to any one of the preceding claims, wherein the size and / or number of pixel blocks is determined in dependence on the predetermined security requirement level. 9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Größe der Pixelblöcke mit steigender Sicherheitsanforderung abnimmt.  9. The method according to any one of the preceding claims, wherein the size of the pixel blocks decreases with increasing security requirement. 10. Verfahren nach einem der vorhergehenden Ansprüche, bei für einen  10. The method according to any one of the preceding claims, in for a Nahbereich im Wesentlichen die volle Auflösung des Pixel-Array und für einen Fernbereich zunnindest teilweise die Einzelpixel zu Pixelblöcken Close range essentially the full resolution of the pixel array and for one Remote area at least partially the single pixels to pixel blocks zusammengefasst werden.  be summarized. 1. Verfahren für ein Kamerasystem nach einem der vorhergehenden Ansprüche, bei dem die von der 3D-Kamera erfassten Beleuchtungsbereiche A method for a camera system according to any one of the preceding claims, wherein the illumination areas detected by the 3D camera unterschiedlich ausgewertet und/oder bewertet werden.  be evaluated differently and / or evaluated.
PCT/EP2010/065210 2009-10-12 2010-10-11 Camera system Ceased WO2011045277A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102009045600.7A DE102009045600B4 (en) 2009-10-12 2009-10-12 Camera system
DE102009045600.7 2009-10-12

Publications (1)

Publication Number Publication Date
WO2011045277A1 true WO2011045277A1 (en) 2011-04-21

Family

ID=43431181

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2010/065210 Ceased WO2011045277A1 (en) 2009-10-12 2010-10-11 Camera system

Country Status (2)

Country Link
DE (1) DE102009045600B4 (en)
WO (1) WO2011045277A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012207328A1 (en) * 2012-05-03 2013-11-07 Audi Ag System for acquisition of track profile for vehicle, has control device connected with light-time cameras and determining spacing and dimensions of uneven portion of track profile based on components of vehicle
DE102013208805B4 (en) * 2012-05-30 2016-09-08 Pmdtechnologies Gmbh Light transit time sensor with buffer
DE102012213294B4 (en) * 2012-07-27 2020-10-22 pmdtechnologies ag Method for operating a safety system in a motor vehicle, which has a 3D spatial frequency filter camera and a 3D TOF camera
DE102015109160A1 (en) * 2015-06-10 2016-12-15 Valeo Schalter Und Sensoren Gmbh Driver assistance system for a motor vehicle, motor vehicle and method
EP3396413A4 (en) 2015-12-21 2019-08-21 Koito Manufacturing Co., Ltd. Image acquisition device for vehicles, control device, vehicle provided with image acquisition device for vehicles and control device, and image acquisition method for vehicles
CN108541305A (en) * 2015-12-21 2018-09-14 株式会社小糸制作所 Vehicle image acquiring device and vehicle including the device
WO2017110418A1 (en) 2015-12-21 2017-06-29 株式会社小糸製作所 Image acquisition device to be used by vehicle, control device, vehicle equipped with control device or image acquisition device to be used by vehicle, and image acquisition method to be used by vehicle
EP3396410A4 (en) 2015-12-21 2019-08-21 Koito Manufacturing Co., Ltd. Image acquisition device for vehicles, control device, vehicle provided with image acquisition device for vehicles and control device, and image acquisition method for vehicles
DE102018113629B4 (en) 2017-06-08 2024-01-11 Ifm Electronic Gmbh Distance measuring system with at least two lighting modules

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (en) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Method and device for determining the phase and / or amplitude information of an electromagnetic wave
DE19730341A1 (en) * 1997-07-15 1999-01-21 Sick Ag Method for operating an opto-electronic sensor arrangement
DE10011263A1 (en) 2000-03-08 2001-09-13 Bosch Gmbh Robert Object detection system for adaptive cruise control system of vehicle, includes radar sensor with large and small detection ranges
WO2003029839A1 (en) * 2001-09-27 2003-04-10 Conti Temic Microelectronic Gmbh Method for three-dimensional recording of objects or scenes
US6587186B2 (en) 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
EP1777747A1 (en) 2005-10-19 2007-04-25 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for the demodulation of modulated electromagnetic wave fields
EP1927867A1 (en) * 2006-12-02 2008-06-04 Sick Ag Optoelectronic multiple plane sensor and method for detecting objects
US20080237445A1 (en) * 2007-03-27 2008-10-02 Ikeno Ryohei Method and apparatus for distance measurement

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10022454B4 (en) 2000-05-09 2004-12-09 Conti Temic Microelectronic Gmbh Image recorders and image recording methods, in particular for the three-dimensional detection of objects and scenes
DE10360174B4 (en) 2003-12-20 2007-03-08 Leuze Lumiflex Gmbh + Co. Kg Device for monitoring a detection area on a work equipment

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (en) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Method and device for determining the phase and / or amplitude information of an electromagnetic wave
DE19730341A1 (en) * 1997-07-15 1999-01-21 Sick Ag Method for operating an opto-electronic sensor arrangement
DE10011263A1 (en) 2000-03-08 2001-09-13 Bosch Gmbh Robert Object detection system for adaptive cruise control system of vehicle, includes radar sensor with large and small detection ranges
US6587186B2 (en) 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
WO2003029839A1 (en) * 2001-09-27 2003-04-10 Conti Temic Microelectronic Gmbh Method for three-dimensional recording of objects or scenes
EP1777747A1 (en) 2005-10-19 2007-04-25 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for the demodulation of modulated electromagnetic wave fields
EP1927867A1 (en) * 2006-12-02 2008-06-04 Sick Ag Optoelectronic multiple plane sensor and method for detecting objects
US20080237445A1 (en) * 2007-03-27 2008-10-02 Ikeno Ryohei Method and apparatus for distance measurement

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager

Also Published As

Publication number Publication date
DE102009045600A1 (en) 2011-04-14
DE102009045600B4 (en) 2021-11-04

Similar Documents

Publication Publication Date Title
DE102009045600B4 (en) Camera system
DE19934670B4 (en) Object detection system
DE102013100327B4 (en) Vehicle driving environment detection device
DE102009023326B4 (en) Apparatus and method for detecting a critical area and pedestrian detection apparatus using the same
EP3049823B1 (en) Method for controlling a micro-mirror scanner, and micro-mirror scanner
DE102011088130B4 (en) Method and device for detecting a braking situation
DE112017006833B4 (en) VEHICLE LIGHTING SYSTEM
DE102012220089B4 (en) Active vision system with unnoticed directed and modulated lighting
EP2748032B1 (en) Method and device for controlling a headlamp of a vehicle
EP2898343A1 (en) Method for calibrating a plurality of environment sensors in a vehicle
DE102016001692A1 (en) Driver assistance system for controlling a light emission of a vehicle-side headlamp device
EP3210825A1 (en) Lighting device for a motor vehicle, system with the lighting device and method for operating a lighting device
EP2306426A1 (en) Device for detecting vehicles on a traffic surface
WO2011051286A1 (en) Camera system
DE102009007408A1 (en) Vehicle e.g. car, surroundings detecting device, has optics comprising reflecting deflection element, which is formed such that light is fed to image points of sensors for determining image point running time
EP2748760B1 (en) Method for estimating a road course and method for controlling a light emission of at least one headlamp of a vehicle
DE102006010295A1 (en) Camera system for e.g. motor vehicle, has two different image sensors, whose data are read and merged based on image characteristics to form three-dimensional image, where sensors are sensitive in different spectral regions
DE102009045558B4 (en) Camera system
WO2009010334A1 (en) Driver assistance device
DE102011017707A1 (en) Method for detecting object e.g. concrete post in vicinity of camera for monitoring rear side region of vehicle, involves reading images captured by cameras after partially illuminating with illumination patterns
EP2562685A1 (en) Method and device for classifying a light object located in front of a vehicle
DE102021126999A1 (en) Method for operating a LiDAR system, LiDAR system and vehicle having at least one LiDAR system
WO2019096585A1 (en) Distance-measuring unit
DE102011007464A1 (en) Method for visualizing scene, involves selecting scene region in three-dimensional image based on distance information, marking selected scene region in two-dimensional image and presenting scene with marked scene region on display unit
EP3994482A1 (en) Optical measuring device for determining object information of objects in at least one monitoring region

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10765787

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 10765787

Country of ref document: EP

Kind code of ref document: A1