[go: up one dir, main page]

DE102024206379B3 - Procedure for calibrating a camera system - Google Patents

Procedure for calibrating a camera system

Info

Publication number
DE102024206379B3
DE102024206379B3 DE102024206379.7A DE102024206379A DE102024206379B3 DE 102024206379 B3 DE102024206379 B3 DE 102024206379B3 DE 102024206379 A DE102024206379 A DE 102024206379A DE 102024206379 B3 DE102024206379 B3 DE 102024206379B3
Authority
DE
Germany
Prior art keywords
camera
cameras
distance
flash
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102024206379.7A
Other languages
German (de)
Inventor
Jens Schick
Michael Scharrer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tripleye GmbH
Original Assignee
Tripleye GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tripleye GmbH filed Critical Tripleye GmbH
Priority to DE102024206379.7A priority Critical patent/DE102024206379B3/en
Priority to PCT/EP2025/068850 priority patent/WO2026008709A1/en
Application granted granted Critical
Publication of DE102024206379B3 publication Critical patent/DE102024206379B3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Zum Kalibrieren eines Kamerasystems mit mindestens drei Kameras (51, 52, 53) mit bekannten Brennweiten (f), die im Bereich einer gemeinsamen Kamera-Anordnungsebene (xy) längs einer Kamera-Anordnungs-Koordinate (x) nebeneinander angeordnet sind und deren objektseitiger Öffnungswinkel jeweils höchstens 45° beträgt, werden zunächst mindestens drei Kalibrier-Markierungen ausgewählt. Die Kalibrier-Markierungen dienen zur Vorgabe jeweils eines Kalibrier-Markierungspunktes (PA, PB, PC), wobei die Kalibrier-Markierungspunkte (PA, PB, PC) in verschiedenen Abständen (dA, dB, dC) zur Kamera-Anordnungsebene (xy) angeordnet sind. Die Kalibrier-Markierungspunkte (PA, PB, PC) werden mit den Kameras (51, 52, 53) zur Erfassung von Kalibrierungs-Markierungs-Bildpunkten (PA', PB', PC') in eine Kamera-Bildebene der jeweiligen Kamera (51, 52, 53) abgebildet. Für jede Paarung von zweien der Kameras (51, 52, 53) wird eine Disparität der Abbildung des jeweiligen Kalibrierungs-Markierungs-Bildpunktes (PA', PB', PC') in der jeweiligen Kamera-Bildebene gemessen. Aus den jeweils mindestens neun gemessenen Disparitäten und den Kamera-Brennweiten (f) werden Abstände (xi - xk) zwischen jeweils den Kameras (5i, 5k) eines Kamerapaars längs der Kamera-Anordnungs-Koordinate (x) sowie Lagefehler jedes Kamerapaars (5i, 5k) bestimmt, die aufgrund von Anordnungsabweichungen der Kameras (51, 52, 53) relativ zur Kamera-Anordnungsebene (xy) herrühren. Es resultiert ein Kalibrierverfahren, mit dem ein präziser und sicherer Betrieb des Kamerasystems gewährleistet ist. To calibrate a camera system with at least three cameras (5 1 , 5 2 , 5 3 ) with known focal lengths (f), which are arranged next to one another in the area of a common camera arrangement plane (xy) along a camera arrangement coordinate (x) and whose object-side aperture angle is each at most 45°, at least three calibration markings are first selected. The calibration markings serve to specify a calibration marking point (P A , P B , P C ), wherein the calibration marking points (P A , P B , P C ) are arranged at different distances (d A , d B , d C ) from the camera arrangement plane (xy). The calibration marking points (P A , P B , P C ) are imaged into a camera image plane of the respective camera (5 1 , 5 2 , 5 3 ) using the cameras (5 1 , 5 2 , 5 3 ) to capture calibration marking image points (P A ' , P B ' , P C '). For each pairing of two of the cameras (5 1 , 5 2 , 5 3 ), a disparity of the image of the respective calibration marking image point (P A ', P B ', P C ') in the respective camera image plane is measured. From the at least nine measured disparities and the camera focal lengths (f), distances (x i - x k ) between the cameras (5 i , 5 k ) of a camera pair along the camera arrangement coordinate (x) are determined, as well as position errors of each camera pair (5 i , 5 k ) resulting from arrangement deviations of the cameras (5 1 , 5 2 , 5 3 ) relative to the camera arrangement plane (xy). This results in a calibration procedure that ensures precise and reliable operation of the camera system.

Description

Die Erfindung betrifft ein Verfahren zum Kalibrieren eines Kamerasystems mit mindestens drei Kameras mit bekannten Brennweiten. Ferner betrifft die Erfindung ein Kamerasystem, kalibriert nach einem derartigen Verfahren, und Verfahren zum Betrieb eines derartigen Kamerasystems.The invention relates to a method for calibrating a camera system comprising at least three cameras with known focal lengths. Furthermore, the invention relates to a camera system calibrated according to such a method and to a method for operating such a camera system.

Kamerasysteme sind bekannt aus der WO 2022/069 424 A1 , der WO 2022/069 425 A2 , der WO 2022/179 998 A1 und der DE 10 2011 080 702 B3 . Die US 2019/0158813 A1 offenbart ein Verfahren zum Rekalibrieren von Stereokameras in Echtzeit.Camera systems are known from the WO 2022/069 424 A1 , the WO 2022/069 425 A2 , the WO 2022/179 998 A1 and the DE 10 2011 080 702 B3 . The US 2019/0158813 A1 discloses a method for recalibrating stereo cameras in real time.

Es ist eine Aufgabe der vorliegenden Erfindung, einen präzisen und sicheren Betrieb eines Kamerasystems mit mehreren Kameras, die insbesondere Bestandteile von Stereokameras zur triangulatorischen Objekt-Abstandsbestimmung innerhalb einer bilderfassenden Umgebung darstellen können, zu gewährleisten.It is an object of the present invention to ensure precise and reliable operation of a camera system with multiple cameras, which can in particular represent components of stereo cameras for triangulatory object distance determination within an image-capturing environment.

Diese Aufgabe ist erfindungsgemäß gelöst durch ein Kalibrierverfahren mit den im Anspruch 1 angegebenen Merkmalen.This object is achieved according to the invention by a calibration method having the features specified in claim 1.

Erfindungsgemäß wurde erkannt, dass mit Hilfe eines derartigen Kalibrierverfahrens auch Kameras mit vergleichsweise kleinem objektseitigem Öffnungswinkel sicher und präzise kalibriert werden können, so dass diese Kameras nach durchgeführter Kalibrierung dann im Kamerasystem beispielsweise als Bestandteile von Stereokameras zum Einsatz kommen können. Bei dem Kalibrierverfahren wird ausgenutzt, dass die nebeneinander längs der Kamera-Anordnungs-Koordinate angeordneten, zu kalibrierenden Kameras des Kamerasystems die ausgewählten Kalibrier-Markierungspunkte mit definiert unterschiedlichen Disparitäten sehen, so dass auch kleine Lage- bzw. Disparitätsfehler bestimmt werden können.According to the invention, it was recognized that with the help of such a calibration method, even cameras with a comparatively small object-side aperture angle can be calibrated reliably and precisely. After calibration, these cameras can then be used in the camera system, for example, as components of stereo cameras. The calibration method takes advantage of the fact that the cameras of the camera system to be calibrated, which are arranged side by side along the camera arrangement coordinate, see the selected calibration marker points with defined, different disparities, so that even small position or disparity errors can be determined.

Bei den mindestens drei Kalibrier-Markierungen, die beim Kalibrierverfahren ausgewählt werden, kann es sich um natürliche Markierungspunkte, also insbesondere um natürliche Merkmale einer Szenerie, handeln. Alternativ oder zusätzlich können Markierungen im Rahmen des Kalibrierverfahrens auch bereitgestellt werden.The at least three calibration markers selected during the calibration process can be natural landmarks, particularly natural features of a scene. Alternatively or additionally, markers can also be provided as part of the calibration process.

Die Kalibrier-Markierungspunkte liegen tiefengestaffelt vor.The calibration marking points are staggered in depth.

Der objektseitige Öffnungswinkel der Kameras des Kamerasystems beträgt jeweils höchstens 45°. Je nach Ausführung des Kamerasystems kann der Öffnungswinkel der Kameras des Kamerasystems jeweils auch kleiner sein und kann beispielsweise höchstens 40°, höchstens 35° oder auch höchstens 30° betragen. Der maximale objektseitige Öffnungswinkel der Kameras des Kamerasystems kann auch noch kleiner sein. Regelmäßig ist dieser Öffnungswinkel größer als 5°.The maximum aperture angle of the cameras in the camera system toward the object is 45°. Depending on the camera system design, the aperture angle of the cameras in the camera system can also be smaller, for example, 40°, 35°, or 30°. The maximum aperture angle of the cameras in the camera system toward the object can also be even smaller. This aperture angle is usually greater than 5°.

Die beim Kalibrierverfahren abgebildeten Kalibrier-Markierungspunkte liegen alle in den Öffnungswinkeln aller zu kalibrierenden Kameras des Kamerasystems.The calibration marking points depicted during the calibration procedure are all located in the aperture angles of all cameras in the camera system to be calibrated.

Grundsätzlich kann das Kalibrierverfahren auch mit einem Kamerasystem mit mindestens einer Kamera zum Einsatz kommen, deren Öffnungswinkel größer ist als 45°. Insbesondere kann das Kalibrierverfahren auch bei einem Kamerasystem mit Fischaugenkameras bzw. Fischaugenobjektiven zum Einsatz kommen.In principle, the calibration procedure can also be used with a camera system with at least one camera with an aperture angle greater than 45°. In particular, the calibration procedure can also be used with a camera system with fisheye cameras or fisheye lenses.

Das zu kalibrierende Kamerasystem kann mehr als drei Kameras aufweisen, zum Beispiel vier Kameras, fünf Kameras oder auch noch mehr Kameras. Die Kameras des zu kalibrierenden Kamerasystems müssen nicht exakt in ein und derselben Ebene angeordnet sein. Ein Abstand einer jeweiligen Kamera von einer nächstliegenden gemeinsamen Kamera-Anordnungsebene ist im Regelfall deutlich kleiner als ein typischer Abstand zwischen zwei benachbarten Kameras des zu kalibrierenden Kamerasystems.The camera system to be calibrated can have more than three cameras, for example, four cameras, five cameras, or even more. The cameras of the camera system to be calibrated do not have to be arranged exactly in one and the same plane. The distance of a particular camera from the nearest common camera arrangement plane is usually significantly smaller than the typical distance between two adjacent cameras of the camera system to be calibrated.

Abstands-Relativunterschiede nach Anspruch 2 verbessern ein Kalibrierergebnis. Abstände der Kalibrier-Markierungspunkte können sich voneinander um mehr als 20 % unterscheiden, beispielsweise um mindestens 25 %, um mindestens 50 % oder auch um mindestens 100 %.Relative distance differences according to claim 2 improve a calibration result. Distances between the calibration marking points can differ from each other by more than 20%, for example by at least 25%, by at least 50%, or even by at least 100%.

Eine Vorgabe von mehr als drei Kalibrier-Messpunkten nach Anspruch 3 verbessert eine Präzision der Kalibrierung. Es ist alternativ oder zusätzlich möglich, pro ausgewählter bzw. bereitgestellter Kalibrier-Markierung mehr als einen Kalibrier-Markierungspunkt vorzugeben.Specifying more than three calibration measurement points according to claim 3 improves calibration precision. Alternatively or additionally, it is possible to specify more than one calibration marking point per selected or provided calibration marking.

Die Vorteile eines Kamerasystems nach Anspruch 4 entsprechen denen, die vorstehend unter Bezugnahme auf das Kalibrierverfahren bereits erläutert wurden. Ein derartiges Kamerasystem, ausgeführt zur räumlichen Bilderfassung, kann an die Praxis insbesondere der Bilderfassung zur Sicherstellung eines unterstützenden oder autonomen Fahrens gut angepasst sein. Die jeweilige Teleobjektiv-Kamera kann eine Brennweite im Bereich zwischen 6 mm und 100 mm, beispielsweise im Bereich zwischen 8 mm und 50 mm, aufweisen.The advantages of a camera system according to claim 4 correspond to those already explained above with reference to the calibration method. Such a camera system, designed for spatial image capture, can be well adapted to the practice, particularly for image capture to ensure assisted or autonomous driving. The respective telephoto lens camera can have a focal length in the range between 6 mm and 100 mm, for example, in the range between 8 mm and 50 mm.

Bei einem Pixelabstand der jeweiligen Kamera von 5 µm pro Pixel und einer Brennweite von 10 mm ergibt sich eine relative Brennweite (Brennweite/Pixelabstand) von 2000 Pixelabständen (kurz: 2000 Pixel). Der Pixelabstand kann auch kleiner sein und beispielsweise 3,45 µm betragen.With a pixel pitch of the respective camera of 5 µm per pixel and a focal length of 10 mm, the relative focal length (Focal length/pixel pitch) of 2000 pixel pitches (short: 2000 pixels). The pixel pitch can also be smaller, for example, 3.45 µm.

Bei einem Weitwinkel-Objektiv mit 2,1mm Brennweite und 3,45µm pro Pixel ergibt sich eine relative Brennweite von 609 Pixel (2,1/3,45 *1000). Je nach Ausführung des Kamerasystems können auch alle Kameras des Kamerasystems als entsprechende Teleobjektiv-Kameras ausgeführt sein.A wide-angle lens with a 2.1mm focal length and 3.45µm per pixel results in a relative focal length of 609 pixels (2.1/3.45 * 1000). Depending on the camera system, all cameras in the system can also be designed as telephoto lenses.

Bei Ausgestaltung der Kamerapaare als Stereokameras nach Anspruch 5 kommen die Vorteile der Kalibrierung besonders gut zum Tragen.When the camera pairs are designed as stereo cameras according to claim 5, the advantages of calibration are particularly effective.

Beim Kamerasystem nach Anspruch 6 ergänzen sich die Funktionen einerseits mindestens einer Stereokamera und andererseits einer Bilderfassung mittels eines Beleuchtungs-Laufzeitverfahrens vorteilhaft ergänzen. Sowohl die Stereokamera als auch die ein Laufzeitverfahren ermöglichenden Komponenten Blitzlichtquelle und Sensor-Array, über die Laufzeitverfahrens-Bilderfassungsparameter vorgegeben werden können, erlauben die Ermittlung eines Abstandes von Objekten innerhalb der Umgebung.In the camera system according to claim 6, the functions of at least one stereo camera and an image capture system using a time-of-flight illumination method advantageously complement each other. Both the stereo camera and the components enabling a time-of-flight illumination method, namely the flash source and the sensor array, allow the determination of the distance between objects within the environment.

Das Kamerasystem kann zur räumlichen Bilderfassung einer relativ zum Kamerasystem bewegten Umgebung dienen. Die mindestens eine Stereokamera kann zur triangulatorischen Objekt-Abstandsbestimmung innerhalb der erfassten Umgebung in Vorwärtsrichtung einer Relativbewegung des Kamerasystems zur Umgebung dienen. Dies kann zur Verbesserung einer Sicherheit der Umgebungserfassung insbesondere im Zusammenhang mit einem fahrerunterstützenden oder auch einem autonomen Fahren genutzt werden. Das Kamerasystem kann Bestandteil eines Fahrzeugs, beispielsweise eines PKW oder LKW, sein.The camera system can be used for spatial image capture of an environment moving relative to the camera system. The at least one stereo camera can be used for triangulatory object distance determination within the captured environment in the forward direction of a relative movement of the camera system to the environment. This can be used to improve the reliability of environmental detection, particularly in connection with driver-assisted or autonomous driving. The camera system can be part of a vehicle, for example, a car or truck.

Die Steuereinrichtung kann insbesondere einen Delay-Zeitraum zwischen dem Blitzbeleuchtungsbeginn der mindestens einen Blitzlichtquelle und dem Detektionsbeginn des jeweiligen Sensor-Arrays der Kameras der mindestens einen Stereokamera vorgeben. Der Abstand der Kameras der Stereokamera zueinander ergibt eine Länge einer Baseline, also eines Abstandes von Zentren von Eintrittspupillen der Kameras der mindestens einen Stereokamera. Mit dem Kamerasystem können Prinzipien einer TOF (Time of Flight)-Kamera mit einer triangulatorisch abstandsvermessenden Stereokamera verknüpft werden. Eine entsprechende TOF-Bilderfassung ist beschrieben beispielsweise in der US 2019/056 498 A1 . Die Blitzlichtquelle kann so ausgeführt sein, wie dies prinzipiell von TOF-Kameras oder von LIDAR-Systemen bekannt ist. Entsprechendes gilt für die Sensor-Arrays der Kameras. Ein Sensor-Array, das bei der TOF-Bilderfassung genutzt wird, kann als Single Photon Avalanche Diode (SPAD)-Array aufgebaut sein. Ein derartiges SPAD-Array und seine Anwendung im Zusammenhang mit einer TOF-Messung ist bekannt aus einem Fachartikel von T. Swedish et al.: „Beyond the Line of Sight? What's New in Optical Perception“, AUVSI XPONENTIAL 2022-SWEDISH (Konferenz-Handout), S. 1-8, https://www.xponential.org/xponential2022/Custom/Handout/Speaker5158 4_Session4220_1.pdf und aus der US 2022/0174255 A1 .The control device can, in particular, specify a delay period between the start of the flash illumination of the at least one flash light source and the start of detection of the respective sensor array of the cameras of the at least one stereo camera. The distance between the cameras of the stereo camera results in a length of a baseline, i.e., a distance between the centers of the entrance pupils of the cameras of the at least one stereo camera. The camera system can combine the principles of a TOF (Time of Flight) camera with a triangulatory distance-measuring stereo camera. A corresponding TOF image acquisition is described, for example, in US 2019/056 498 A1 The flash light source can be designed in a manner similar to that used in TOF cameras or LIDAR systems. The same applies to the camera sensor arrays. A sensor array used in TOF image acquisition can be constructed as a single photon avalanche diode (SPAD) array. Such a SPAD array and its application in connection with a TOF measurement are described in a technical article by T. Swedish et al.: "Beyond the Line of Sight? What's New in Optical Perception", AUVSI XPONENTIAL 2022-SWEDISH (Conference Handout), pp. 1-8, https://www.xponential.org/xponential2022/Custom/Handout/Speaker5158 4_Session4220_1.pdf and from the US 2022/0174255 A1 .

Zur triangulatorischen Objekt-Abstandsbestimmung sind die beiden Kameras der Stereokamera über eine Synchronisierungseinheit miteinander synchronisiert. Durch diese Synchronisation kann insbesondere eine exakt zeitgleiche Erfassung des jeweiligen Objekts über die Kameras der Stereokamera erreicht werden. Dies unterscheidet eine Stereokamera zur triangulatorischen Objekt-Abstandsbestimmung von einer stereoskopischen Kamera, über die ausschließlich ein Raumeindruck einer Bilderfassung erzeugt wird und die beispielsweise beschrieben ist in der US 2015/296 200 A1 . Der Einsatz eines SPAD-Arrays kann zu einer Verringerung einer Bewegungsunschärfe führen und kann zur Kontrastverbesserung einer Bilderfassung genutzt werden.For triangulatory object distance determination, the two cameras of the stereo camera are synchronized with each other via a synchronization unit. This synchronization enables, in particular, an exactly simultaneous capture of the respective object via the cameras of the stereo camera. This distinguishes a stereo camera for triangulatory object distance determination from a stereoscopic camera, which exclusively creates a spatial impression of an image capture and which is described, for example, in the US 2015/296 200 A1 The use of a SPAD array can reduce motion blur and can be used to enhance the contrast of an image capture.

Die Synchronisation und insbesondere die zeitgleiche Objekterfassung bei der triangulatorischen Objekt-Abstandsbestimmung ermöglicht es, auch fremdbewegte Objekte in ihrer Entfernung präzise zu erfassen, da dann der Einfluss einer zusätzlichen Relativgeschwindigkeit aufgrund der Fremdbewegung des Objekts die Entfernungsbestimmung nicht beeinflusst.Synchronization and, in particular, simultaneous object detection in triangulatory object distance determination makes it possible to precisely detect the distance of even externally moving objects, since the influence of an additional relative speed due to the external movement of the object does not affect the distance determination.

Eine Brennweite f der jeweiligen Kamera einer Stereokamera, die Baseline b der Stereokamera sowie eine Disparität D, also ein Unterschied zwischen Bildkoordinaten von Abbildungspositionen des gleichen Punktes auf den Sensor-Arrays der Kameras der Stereokamera, werden so aufeinander abgestimmt, dass unter Einbeziehung der Beziehung d = f b / D für den zu erfassenden Objekt-Abstandswert d gilt: 3  m d 300  m A focal length f of the respective camera of a stereo camera, the baseline b of the stereo camera and a disparity D, i.e. a difference between image coordinates of imaging positions of the same point on the sensor arrays of the cameras of the stereo camera, are coordinated in such a way that, taking into account the relationship d = f b / D For the object distance value d to be recorded, the following applies: 3  m d 300  m

Zusätzlich kann das Kamerasystem so ausgelegt sein, dass ein entsprechender Objekt-Entfernungsbereich über die TOF-Bilderfassungsfunktionalität des Kamerasystems erfasst wird.In addition, the camera system can be designed so that a corresponding object distance range is captured via the TOF image capture functionality of the camera system.

Bei der Blitzlichtquelle kann es sich um eine gesteuerte Blitzlampe handeln oder auch um eine entsprechend zeitgesteuerte LED- oder Laser-Lichtquelle. Es können Blitzlichtquellen zum Einsatz kommen, die zum Einsatz beispielsweise bei LIDAR-Vorrichtungen bekannt sind.The flash light source can be a controlled flash lamp or a time-controlled LED or laser light source. Flash light sources can be used. which are known for use in LIDAR devices, for example.

Eine Blitzbeleuchtungsdauer der Blitzlichtquelle kann im Bereich zwischen 10 ns und 200 ns, beispielsweise im Bereich von 100 ns, liegen.
Eine Detektionsdauer der Sensor-Arrays der mindestens einen Stereokamera ist regelmäßig so vorgegeben, dass sie doppelt so groß ist wie die Blitzbeleuchtungsdauer der Blitzlichtquelle. Die Detektionsdauer kann im Bereich zwischen 20 ns und 400 ns, beispielsweise im Bereich von 200 ns, liegen.
A flash illumination duration of the flash light source can be in the range between 10 ns and 200 ns, for example in the range of 100 ns.
The detection duration of the sensor arrays of at least one stereo camera is usually set to twice the flash illumination duration of the flash light source. The detection duration can be in the range between 20 ns and 400 ns, for example, in the range of 200 ns.

Sowohl die Blitzbeleuchtungsdauer als auch die Detektionsdauer können über die Steuereinrichtung einstellbar vorgebbar sein.Both the flash illumination duration and the detection duration can be set via the control device.

Die Synchronisierungseinheit kann Teil der Steuereinrichtung sein. Teil der Steuereinrichtung kann eine Speichereinheit insbesondere in Form eines Flash-Speichers sein. Die Synchronisationseinheit kann Bestandteil einer Synchronisationseinrichtung zur Synchronisation der Blitzlichtquelle und der Sensor-Arrays der Kameras der mindestens einen Stereokamera sein. Die Synchronisationseinrichtung kann wiederum Bestandteil der Steuereinrichtung des Kamerasystems sein.The synchronization unit can be part of the control device. A memory unit, particularly in the form of a flash memory, can be part of the control device. The synchronization unit can be part of a synchronization device for synchronizing the flash light source and the sensor arrays of the cameras of the at least one stereo camera. The synchronization device can, in turn, be part of the control device of the camera system.

Eine Synchronisation, die über die Synchronisationseinrichtung bereitgestellt werden kann, kann besser sein als 5 ns, kann besser sein als 2 ns, kann besser sein als 1 ns und kann auch noch besser sein.Synchronization that can be provided by the synchronization device can be better than 5 ns, can be better than 2 ns, can be better than 1 ns, and can be even better.

Die Kameras der Stereokamera können lateral zur Vorwärtsrichtung voneinander beabstandet sein. Je nach Erfassungswinkel der Kameras und je nach Anwendungszweck und Haupt-Erfassungsrichtung der Stereokamera sind auch andere Kamera-Anordnungen der Stereokamera möglich.The stereo camera's cameras can be spaced apart laterally relative to the forward direction. Depending on the cameras' detection angle, the application, and the stereo camera's primary detection direction, other camera arrangements are also possible.

Die Kameras der mindestens einen Stereokamera können eine Tele-Optik zur Erfassung von Objekten im Entfernungsbereich zwischen 30m und 300 m aufweisen. Je nach Anwendungszweck können die Kameras der Stereokamera auch mit Optiken anderer Brennweiten ausgerüstet sein. Diese Kameraoptiken sind so ausgeführt, dass ein gesamter vorgegebener Entfernungsbereich insbesondere zwischen 3 m und 300 m abgedeckt wird. Grundsätzlich können auch noch kleinere Entfernungen abgedeckt werden.The cameras of at least one stereo camera can be equipped with a telephoto lens for capturing objects at distances between 30 m and 300 m. Depending on the application, the stereo camera cameras can also be equipped with lenses of other focal lengths. These camera lenses are designed to cover an entire specified distance range, particularly between 3 m and 300 m. In principle, even shorter distances can be covered.

Die Entfernungsbereiche der triangulatorischen Objekterfassung einerseits und der TOF-Entfernungserfassung andererseits sind aufeinander abgestimmt und können beispielsweise gleich sein. Auch eine Teilüberdeckung dieser Entfernungsbereiche ist möglich, sodass in einem Entfernungsbereich beide Entfernungsbestimmungsprinzipien „triangulatorisch“ und „TOF“ zur Verfügung stehen und in anderen Entfernungsbereichen eines dieser Prinzipien.The distance ranges of triangulatory object detection on the one hand and TOF distance detection on the other are coordinated and can, for example, be identical. Partial overlap of these distance ranges is also possible, so that both "triangulatory" and "TOF" distance determination principles are available in one distance range, and one of these principles is available in other distance ranges.

Mittels der Kameras der mindestens einen Stereokamera kann eine Korrespondenzanalyse zur Identifizierung von sich von einem Hintergrund unterscheidenden, in einem interessierenden Sichtbereich vorliegenden Objekten stattfinden. Methoden einer entsprechenden Korrespondenzanalyse sind bekannt aus der WO 2022/069 424 A1 und der WO 2022/069 425 A2 . Zur Vorbereitung eines Betriebs des Kamerasystems kann eine Stereo-Kalibrierung der Kameras der mindestens einen Stereokamera erfolgen, die grundsätzlich bekannt ist aus der WO 2022/069 424 A1 und der DE 10 2011 080 702 B3 .Using the cameras of the at least one stereo camera, a correspondence analysis can be performed to identify objects that differ from a background and are present in a field of view of interest. Methods for such correspondence analysis are known from WO 2022/069 424 A1 and the WO 2022/069 425 A2 In preparation for operation of the camera system, a stereo calibration of the cameras of at least one stereo camera can be carried out, which is generally known from the WO 2022/069 424 A1 and the DE 10 2011 080 702 B3 .

Die mindestens eine Stereokamera kann mehr als zwei zueinander beabstandete Kameras aufweisen, was insbesondere einen Wechsel zwischen verschiedenen Baselines ermöglicht, was ebenfalls beispielsweise in der WO 2022/069 424 A1 beschrieben ist.The at least one stereo camera can have more than two cameras spaced apart from each other, which in particular allows a change between different baselines, which is also possible, for example, in the WO 2022/069 424 A1 described.

Das Kamerasystem kann mindestens zwei Stereokameras mit relativ großer Baseline und mindestens eine weitere Stereokamera mit im Vergleich hierzu deutlich kleinerer Baseline aufweisen, wobei die kleinere Baseline höchstens 50 %, höchstens 25 % oder auch höchstens 10 % der größeren Baseline sein kann. Das Kamerasystem kann auch mehrere Stereokameras mit der kleinen Baseline aufweisen.The camera system can comprise at least two stereo cameras with a relatively large baseline and at least one further stereo camera with a significantly smaller baseline, whereby the smaller baseline can be at most 50%, at most 25%, or at most 10% of the larger baseline. The camera system can also comprise multiple stereo cameras with the smaller baseline.

Weitere Objektinformationen, insbesondere Objekt-Abstandsinformationen, können durch Auswertung eines Objekt-Schattenwurfs erfolgen, der von einem Objekt innerhalb der erfassten Umgebung als Schatten der Blitzbeleuchtung geworfen wird und von den beiden zueinander beabstandeten Kameras der mindestens einen Stereokamera unterschiedlich abgebildet wird. Insbesondere eine Höhe des Objektes kann ermittelt werden, weil ein Bild eines Objektschattens von der Höhenlage und der seitlichen Ablage des Objekts abhängig ist.Further object information, in particular object distance information, can be obtained by evaluating an object's shadow, which is cast by an object within the captured environment as a shadow of the flash illumination and is imaged differently by the two spaced-apart cameras of the at least one stereo camera. In particular, the height of the object can be determined because an image of an object's shadow depends on the object's elevation and lateral offset.

Mit dem Kamerasystem kann eine räumliche Bilderfassung der relativ zur zum Kamerasystem bewegten oder auch unbewegten Umgebung erreicht werden, die, beispielsweise beim Einsatz des Kamerasystems als Bestandteil eines Fahrzeugs, eine fahrerunterstützende Funktion oder auch die Funktion eines autonomen Fahrens ermöglicht.The camera system can be used to capture spatial images of the environment, whether moving or stationary relative to the camera system, which, for example, enables a driver-assisting function or even the function of autonomous driving when the camera system is used as part of a vehicle.

Die Blitzlichtquelle des Kamerasystems oder eine weitere Lichtquelle des Kamerasystems zur Umgebungsbeleuchtung kann einen Messlichtstrahl aufweisen, der über seinen Strahlquerschnitt texturiert beziehungsweise strukturiert ist. Eine derartige Texturierung/Strukturierung des Messlichtstrahls kann dadurch erfolgen, dass dieser als Vielzahl von einzelnen, die Umgebung in Form eines Rasters erfassenden Einzelstrahlen aufgebaut ist. Eine derartige Lichtquelle zur Erzeugung eines texturierten/strukturierten Messlichtstrahls kann als Laser ausgeführt sein. Beispiele für eine Detektionseinrichtung, die mittels eines solchen texturierten/strukturierten Messlichtstrahls arbeitet, finden sich in der DE 10 2018 213 976 A1 und den dort angegebenen Referenzen, insbesondere in der WO 2012/095 258 A1 , der US 9,451,237 B2 und der WO 2013/020 872 A1 . Mithilfe einer derartigen texturierten/strukturierten Beleuchtung können optisch unstrukturierte, insbesondere diffuse Streumedien innerhalb der umfassten Umgebung hinsichtlich ihres Abstandes vermessen werden. Bei derartigen diffusen Streumedien kann es sich beispielsweise um Nebel, Rauch oder Staub handeln.The flash light source of the camera system or another light source of the camera system for ambient lighting can have a measuring light beam that has a textu rized or structured. Such texturing/structuring of the measuring light beam can be achieved by constructing it as a plurality of individual beams that capture the environment in the form of a grid. Such a light source for generating a textured/structured measuring light beam can be designed as a laser. Examples of a detection device that operates using such a textured/structured measuring light beam can be found in DE 10 2018 213 976 A1 and the references given therein, in particular in the WO 2012/095 258 A1 , the US 9,451,237 B2 and the WO 2013/020 872 A1 Using such textured/structured illumination, optically unstructured, particularly diffuse, scattering media within the encompassed environment can be measured with respect to their distance. Such diffuse scattering media can be, for example, fog, smoke, or dust.

Mit dem Kamerasystem kann insbesondere bei der Nutzung zur räumlichen Bilderfassung eine Formredundanz und/oder eine Funktionsredundanz erreicht werden. Eine Formredundanz ist dann erreicht, wenn unterschiedliche Technologien zur Ermittlung ein und derselben Messgröße genutzt werden. Eine Funktionsredundanz liegt dann vor, wenn mehrere Vorrichtungen derselben Technologie zur Messung ein und derselben Messgröße verwendet werden. Diese Begriffe „Formredundanz“ und „Funktionsredundanz“ sind hauptsächlich im Bereich der Luftfahrt gebräuchlich. Dort wird eine Kombination aus Form- und Funktionsredundanz gefordert, damit Mehrfachauswirkungen eines Fehlers vermieden werden. Derartige Redundanzen können, je nach Applikation der Vorrichtung, gesetzlich vorgeschrieben sein.The camera system can achieve form redundancy and/or function redundancy, particularly when used for spatial image capture. Form redundancy is achieved when different technologies are used to determine one and the same measured variable. Functional redundancy exists when multiple devices of the same technology are used to measure one and the same measured variable. The terms "form redundancy" and "functional redundancy" are primarily used in the aviation sector. There, a combination of form and function redundancy is required to prevent the multiple effects of a fault. Such redundancies may be required by law, depending on the device's application.

Mindestens eine weitere Blitzlichtquelle und/oder mindestens eine weitere Stereokamera nach Anspruch 7 ermöglichen eine zusätzliche Funktionsredundanz des Kamerasystems. Bei Vorsehen mindestens einer weiteren Blitzlichtquelle kann beispielsweise nach Ausfall der zunächst eingesetzten Blitzlichtquelle auf die weitere Blitzlichtquelle umgeschaltet werden, sodass eine längere Betriebspause des Kamerasystems vermieden ist. Bei Einsatz mindestens einer weiteren Stereokamera kann, beispielsweise bei parallelem triangulatorischen Vermessen über zwei Stereokameras, eine weitere Redundanz bei der Objekt-Abstandsbestimmung erreicht werden.At least one additional flash source and/or at least one additional stereo camera according to claim 7 enable additional functional redundancy of the camera system. By providing at least one additional flash source, for example, if the initially used flash source fails, switching to the additional flash source is possible, thus avoiding a prolonged downtime of the camera system. By using at least one additional stereo camera, additional redundancy in object distance determination can be achieved, for example, during parallel triangulation measurements using two stereo cameras.

Die Kameras der weiteren Stereokamera können wiederum jeweils ein Sensor-Array mit gesteuerter Vorgabe eines Detektionsbeginns und einer Detektionsdauer aufweisen, sodass die weitere Stereokamera in ihrer Funktion grundsätzlich die ursprünglich eingesetzte Stereokamera ersetzen kann. Auch eine redundante TOF-Bestimmung von Objekt-Abständen ist über zwei entsprechende Stereokameras mit gesteuerter Vorgabe des Detektionsbeginns und der Detektionsdauer möglich, was eine zusätzliche Sicherheit bei der Objekt-Abstandsbestimmung liefert und beispielsweise Synchronisationsprobleme erkennen hilft.The cameras of the additional stereo camera can each have a sensor array with a controlled preset detection start and duration, so that the additional stereo camera can essentially replace the original stereo camera in its function. Redundant TOF determination of object distances is also possible using two corresponding stereo cameras with controlled preset detection start and duration, which provides additional reliability in object distance determination and helps detect synchronization problems, for example.

Bei Verwendung mehrerer Stereokameras ist zudem eine Zuordnung von Kameras verschiedener Stereokameras zu einer neuen „virtuellen“ Stereokamera mit entsprechend veränderter Baseline möglich, was eine weitere Redundanz beziehungsweise Sicherheit bei der Objekt-Abstandsbestimmung ermöglicht. Es kann beispielsweise dasjenige Kamerapaar zur Baseline-Vorgabe ausgewählt werden, welches sich in Bezug auf ein bestimmtes Umgebungs-Objekt für eine Triangulationsbestimmung als besonders günstig herausstellt.When using multiple stereo cameras, it is also possible to assign cameras from different stereo cameras to a new "virtual" stereo camera with a correspondingly modified baseline, which provides further redundancy and reliability in object distance determination. For example, the camera pair that proves to be particularly favorable for triangulation determination with respect to a specific surrounding object can be selected as the baseline.

Das Kamerasystem kann grundsätzlich auch mindestens eine Fischaugen-Stereokamera aufweisen. Eine derartige Fischaugen-Stereokamera kann mindestens zwei Fischaugen-Kameras aufweisen, wobei jede der Fischaugen-Kameras zur Erfassung der Umgebung sowohl in einer Haupterfassungsrichtung als auch längs hierzu in lateraler Richtung ausgerichtet ist, wobei Erfassungsbereiche der Fischaugen-Kameras in der Haupterfassungsrichtung in einem Überlapp-Bereich überlappen. Mindestens eine derartige Fischaugen-Stereokamera ermöglicht den Einsatz zusätzlicher Triangulations-Baselines, was zur Erfassung weiterer Umgebungs-Objekte und/oder zur Kontrolle von Objekt-Abstandsergebnissen der anderen Stereokameras und/oder zur Kalibrierung der anderen Stereokameras, insbesondere von mit Tele-Optik-Kameras ausgeführten Stereokameras, genutzt werden kann. Bei der Haupterfassungsrichtung kann es sich um die Vorwärtsrichtung einer Relativbewegung des Kamerasystems zur Umgebung handeln. Die Nutzung von Fischaugen-Kameras ist aus den oben genannten Referenzen sowie aus der WO 2022/179 998 A1 bekannt. Eine Fischaugen-Kamera, die möglichst steif an eine Tele-Optik-Kamera befestigt ist, erlaubt eine genauere Kalibrierung der Stereokameras zueinander, wegen des größeren Öffnungswinkels der Fischaugen-Kamera. Eine inertiale Messeinheit (Inertial Measurement Unit, IMU) in den Kameras der jeweiligen Stereokamera erlaubt eine weitere Optimierung der relativen Kalibrierung. Mittels der IMU kann insbesondere eine Drehrate, also eine Relativverkippung der jeweiligen Kamera um eine definierte Kippachse, bestimmt werden.The camera system can in principle also comprise at least one fisheye stereo camera. Such a fisheye stereo camera can comprise at least two fisheye cameras, wherein each of the fisheye cameras is oriented to capture the environment both in a main capture direction and longitudinally thereto in a lateral direction, wherein capture areas of the fisheye cameras overlap in the main capture direction in an overlap area. At least one such fisheye stereo camera enables the use of additional triangulation baselines, which can be used to capture additional environmental objects and/or to check object distance results of the other stereo cameras and/or to calibrate the other stereo cameras, in particular stereo cameras implemented with telephoto lenses. The main capture direction can be the forward direction of a relative movement of the camera system to the environment. The use of fisheye cameras is known from the above-mentioned references as well as from the WO 2022/179 998 A1 A fisheye camera, mounted as rigidly as possible to a telephoto camera, allows for more precise calibration of the stereo cameras relative to each other due to the fisheye camera's larger aperture angle. An inertial measurement unit (IMU) in the respective stereo camera's cameras allows for further optimization of the relative calibration. The IMU can be used, in particular, to determine a rotation rate—that is, a relative tilt of the respective camera around a defined tilt axis.

Das Kamerasystem kann mehrere Fischaugen-Stereokameras beinhalten, was eine zusätzliche Redundanz ermöglicht. Auch die Kameras der mindestens einen Fischaugen-Stereokamera können jeweils Sensor-Arrays mit gesteuerter Vorgabe eines Detektionsbeginns und einer Detektionsdauer aufweisen, sodass hierüber auch eine TOF-Bestimmung von Objekt-Abständen möglich ist. Grundsätzlich kann die mindestens eine Fischaugen-Stereokamera auch ohne TOF-Funktion ausgeführt sein. Soweit die Vorrichtung mehrere Fischaugen-Stereokameras aufweist, ist auch möglich, dass mindestens eine der Fischaugen-Stereokameras mit TOF-Funktion und mindestens eine weitere der Fischaugen-Stereokameras ohne TOF-Funktion ausgeführt ist.The camera system can include multiple fisheye stereo cameras, allowing for additional redundancy. The cameras of at least one fisheye stereo camera can also each contain sensor arrays with controlled presets. a detection start and a detection duration, so that a TOF determination of object distances is also possible. In principle, the at least one fisheye stereo camera can also be designed without a TOF function. If the device has multiple fisheye stereo cameras, it is also possible for at least one of the fisheye stereo cameras to be designed with a TOF function and at least one other fisheye stereo camera to be designed without a TOF function.

Grundsätzlich kann die Vorrichtung gemäß den obigen Ansprüchen so genutzt werden, dass hierüber mittels der TOF-Komponenten genau ein Entfernungsbereich erfasst wird, beispielsweise im Abstandsbereich zwischen 30 m und 300 m, insbesondere zwischen 100 m und 200 m, zur Vorrichtung.In principle, the device according to the above claims can be used in such a way that precisely one distance range is detected by means of the TOF components, for example in the distance range between 30 m and 300 m, in particular between 100 m and 200 m, from the device.

Die Vorteile eines Betriebsverfahrens nach Anspruch 9 entsprechen denen, die vorstehend unter Bezugnahme auf das Kamerasystem bereits erläutert wurden. Ein derartiges Betriebsverfahren ermöglicht einen Echtzeitbetrieb der Vorrichtung, sodass beispielsweise autonomes Fahren beim Einsatz der Vorrichtung als Bestandteil eines Fahrzeugs möglich ist.The advantages of an operating method according to claim 9 correspond to those already explained above with reference to the camera system. Such an operating method enables real-time operation of the device, so that, for example, autonomous driving is possible when the device is used as part of a vehicle.

Bei dem Betriebsverfahren kann ein abgedeckter Gesamt-Entfernungsbereich in eine Mehrzahl von aneinander angrenzenden oder miteinander teilweise überlappenden Entfernungsbereichen unterteilt sein. Es können dabei beispielsweise drei bis 100 derartige Entfernungsbereiche über entsprechende Bilderfassungsparameter vorgegeben werden, beispielsweise 50 Entfernungsbereiche, die innerhalb des Gesamt-Entfernungsbereichs liegen. Beim Betrieb des Kamerasystems kann der Gesamt-Entfernungsbereich über die vorgegebenen einzelnen Entfernungsbereiche mehrmals in der Sekunde, beispielsweise mit einer Rate von 10 Hertz, erfasst werden. Beim Betrieb kann mit dem innerhalb des Gesamt-Entfernungsbereichs entferntesten Entfernungsbereich begonnen werden. Dies stellt sicher, dass beim Überschreiben von in einem vorhergehenden Erfassungsschritt erfassten Bildern mit einem jeweils zuletzt erfassten Bild in nicht herausgefilterten Bildbereichen des zuletzt erfassten Bildes nahe Objekte entferntere Objekte überschreiben, sodass das Ergebnis des Betriebsverfahrens, nämlich das zuletzt aktualisierte, ausgegebene Bild, in jedem Fall die dem Kamerasystem nächst benachbarten Objekte darstellt, worauf dann beispielsweise durch Eingriff in eine Bewegung des Kamerasystems reagiert werden kann. Ein Zwischenspeichern von in jeweils vorhergehenden Erfassungsschritten erfassten Bildern kann dann entfallen, was die Geschwindigkeit des Verfahrensablaufs erhöht.In the operating method, a covered total distance range can be divided into a plurality of adjacent or partially overlapping distance ranges. For example, three to 100 such distance ranges can be specified using corresponding image acquisition parameters, for example, 50 distance ranges that lie within the total distance range. During operation of the camera system, the total distance range can be acquired across the specified individual distance ranges several times per second, for example at a rate of 10 Hertz. During operation, the acquisition can begin with the most distant distance range within the total distance range. This ensures that when images acquired in a previous acquisition step are overwritten with a most recently acquired image, nearby objects overwrite more distant objects in non-filtered image areas of the most recently acquired image, so that the result of the operating method, namely the most recently updated, output image, always represents the objects closest to the camera system, to which the system can then react, for example, by intervening in a movement of the camera system. Buffering of images captured in previous acquisition steps can then be eliminated, which increases the speed of the process.

Das zuletzt aktualisierte, ausgegebene Bild ist ein 2D-Bild mit nicht herausgefilterten Objekten in allen innerhalb des Gesamt-Entfernungsbereichs erfassten Entfernungsbereichen. Auch im Laufe des Betriebsverfahrens überschriebene Informationen der innerhalb des Gesamt-Entfernungsbereichs früher erfassten Entfernungsbereiche können für eine unabhängige räumliche (3D-) Auswertung erhalten bleiben.The last updated output image is a 2D image with unfiltered objects in all distance ranges captured within the overall distance range. Information from previously captured distance ranges within the overall distance range that was overwritten during the operating procedure can also be retained for independent spatial (3D) analysis.

Zu den jeweils nicht herausgefilterten Objekten, die dem jeweiligen Erfassungsschritt zugeordnet sind, ergibt das Verfahren als Ergebnis einen Entfernungsbereich, in dem das Objekt relativ zum Kamerasystem vorliegt. Diese resultierenden Objekt-Entfernungsinformationen, die mittels der TOF-Bilderfassung ermittelt werden, ermöglichen im Zusammenspiel mit einer über die mindestens eine Stereokamera ermöglichten triangulatorischen Entfernungserfassung eine Formredundanz des Betriebsverfahrens.For the non-filtered objects assigned to the respective detection step, the method produces a distance range in which the object is located relative to the camera system. This resulting object distance information, determined using TOF image acquisition, in conjunction with triangulatory distance detection enabled by at least one stereo camera, enables form redundancy of the operating method.

Als Entfernungsinformation kann eine jeweils geringste Entfernung des erfassten Objekts ausgegeben werden oder auch eine Entfernung pro Objekt-Bildpunkt des jeweiligen Sensor-Arrays.The distance information can be output as the smallest distance of the detected object or as a distance per object pixel of the respective sensor array.

Insgesamt resultiert eine einerseits sichere und andererseits vorausschauende Bilderfassung, die an die Erfordernisse insbesondere einer Fahrerunterstützung oder auch eines autonomen Fahrens gut angepasst ist.The overall result is both safe and predictive image capture, which is well adapted to the requirements of driver assistance or autonomous driving in particular.

Beim digitalen Filtern zum Herausfiltern strukturloser Bildbereiche kann eine Stereo-Korrespondenzbestimmung zum Einsatz kommen, die beispielsweise beschrieben ist in der WO 2022/069 424 A1 .When digitally filtering to filter out structureless image areas, a stereo correspondence determination can be used, which is described, for example, in the WO 2022/069 424 A1 .

Mindestens zwei der aufeinanderfolgenden Erfassungsschritte können zeitlich miteinander überlappen. Ein derartiger zeitlicher Überlapp ermöglicht einen schnellen Ablauf des Betriebsverfahrens. Der zeitliche Überlapp kann derart sein, dass mindestens zwei Entfernungsbereiche mit gleichzeitigem Detektionsbeginn und gleicher Detektionsdauer mit den Sensor-Arrays gleichzeitig erfasst werden, wobei diese Erfassungsbereiche durch unterschiedliche Vorgabe des jeweiligen Blitzlichtbeleuchtungsbeginns und/oder der jeweiligen Blitzbeleuchtungsdauer hinsichtlich ihrer Bilderfassungsparameter vorgegeben werden. Es ist auch möglich, die Wiederholungssequenz des Betriebsverfahrens so zu gestalten, dass tatsächlich eine Detektion genau zu einem Zeitraum, also bei einem vorgegebenen Detektionsbeginn und mit einer vorgegebenen Detektionsdauer, für alle vorgegebenen Entfernungsbereiche erfolgt. Durch diese gleichzeitige Detektionserfassung von mindestens zwei Erfassungsbereichen kann ein Bildverarbeitungsaufwand reduziert und eine Beschleunigung des gesamten Verfahrens erreicht werden.At least two of the consecutive detection steps can overlap in time. Such a temporal overlap enables the operating method to run quickly. The temporal overlap can be such that at least two distance ranges with simultaneous detection start and the same detection duration are detected simultaneously with the sensor arrays, whereby these detection ranges are specified by different specifications of the respective flash illumination start and/or the respective flash illumination duration with regard to their image acquisition parameters. It is also possible to design the repetition sequence of the operating method such that a detection actually occurs at exactly one time period, i.e. at a specified detection start and with a specified detection duration, for all specified distance ranges. This simultaneous detection of at least two detection ranges can reduce image processing effort and accelerate the entire method.

Entfernungs-Ausdehnungen der Entfernungsbereiche können sich voneinander unterscheiden. Derart sich voneinander unterscheidende Entfernungs-Ausdehnungen der Entfernungsbereiche ermöglichen insbesondere, eine Entfernungs-Empfindlichkeit abhängig von der Entfernung vorzugeben, was ebenfalls hilft, eine Ablaufdauer des Betriebsverfahrens zu verkürzen. Mit zunehmender Entfernung kann beispielsweise die Entfernungs-Ausdehnung des jeweiligen Entfernungsbereiches vergrößert werden, insbesondere progressiv vergrößert werden.The distance extensions of the distance ranges can differ from one another. Such differing distance extensions of the distance ranges make it possible, in particular, to specify a distance sensitivity depending on the distance, which also helps to shorten the duration of the operating procedure. As the distance increases, for example, the distance extension of the respective distance range can be increased, in particular, progressively increased.

Nach dem Erfassen des jeweiligen Entfernungsbereiches kann eine Triangulationsbestimmung einer Entfernung von Objekten in nicht herausgefilterten Bildbereichen mittels der mindestens einen Stereokamera erfolgen. Eine derartige zusätzliche Triangulationsbestimmung ermöglicht einen Abgleich von Objekt-Abstandswerten, die einerseits über das Entfernungsbereich-aufgelöste Erfassen mithilfe der TOF-Bilderfassungsparameter und andererseits mittels der Triangulation bestimmt wurden.After capturing the respective distance range, a triangulation determination of the distance to objects in non-filtered image areas can be performed using the at least one stereo camera. Such an additional triangulation determination enables a comparison of object distance values determined, on the one hand, via distance-resolved detection using the TOF image acquisition parameters and, on the other hand, via triangulation.

Vor dem Erfassen kann eine Region of Interest (ROI) als Teil eines von den Stereokameras erfassbaren Bildfeldes vorgegeben werden. Eine derartige ROI-Vorgabe ermöglicht eine Reduktion der zu verarbeitenden Bilddaten, was das Verfahren zudem verkürzen kann. Bei der vorgegebenen ROI kann es sich um einen Straßenbereich in der Vorwärtsrichtung handeln.Before acquisition, a region of interest (ROI) can be specified as part of the image field captured by the stereo cameras. Such a ROI specification allows for a reduction in the amount of image data to be processed, which can also shorten the process. The specified ROI can be a section of the road in the forward direction.

Ein Betriebsverfahren nach Anspruch 10 kann alternativ oder zusätzlich zum vorstehend erläuterten Betriebsverfahren zum Einsatz kommen. Ein derartiges Betriebsverfahren ermöglicht eine redundante Entfernungsbestimmung eines jeweiligen Objektabstandes. Hierüber kann insbesondere eine Formredundanz bereitgestellt werden, also eine Redundanz, gegeben durch Verwendung unterschiedlicher Technologien zur Entfernungserfassung.An operating method according to claim 10 can be used alternatively or in addition to the operating method explained above. Such an operating method enables redundant distance determination of a respective object distance. This can, in particular, provide form redundancy, i.e., redundancy provided by using different distance detection technologies.

Die TOF-Entfernung kann als Eingangsgröße für die triangulatorische Erfassung benutzt werden. Eine derartige Nutzung der erfassten TOF-Entfernung als Eingangsgröße für die triangulatorische Erfassung kann eine Korrespondenzanalyse bei der triangulatorischen Erfassung erleichtern. Insbesondere kann bei der Korrespondenzanalyse ein abzudeckender Disparitätsbereich eingegrenzt werden. Umgekehrt kann auch die triangulatorisch erfasste Entfernung als Eingangsgröße für eine TOF-Erfassung genutzt werden. Die Verwendung einer erfassten Objektentfernung kann im Betrieb des Kamerasystems zum Nachverfolgen beziehungsweise Tracken von erfassten Objekten genutzt werden. Es kann genau ein derartiges Objekt nachverfolgt werden oder auch eine Mehrzahl derartiger Objekte kann gleichzeitig nachverfolgt werden. Objekt-Nachverfolgungsschritte können sich mit Erfassungsschritten eines gesamten vorgegebenen Entfernungsbereichs abwechseln. Zum Objekt-Tracken können Bilderfassungsparameter der TOF-Entfernungserfassung und/oder der triangulatorischen Entfernungserfassung an eine bei der Nachverfolgung zu erwartende Objektentfernung angepasst werden.The TOF distance can be used as an input variable for triangulation detection. Using the measured TOF distance as an input variable for triangulation detection can facilitate correspondence analysis during triangulation detection. In particular, correspondence analysis can be used to narrow down the disparity range to be covered. Conversely, the triangulation-detected distance can also be used as an input variable for TOF detection. The use of a measured object distance can be used in the operation of the camera system to track detected objects. Precisely one such object can be tracked, or multiple such objects can be tracked simultaneously. Object tracking steps can alternate with detection steps of an entire specified distance range. For object tracking, image acquisition parameters of the TOF distance detection and/or the triangulation distance detection can be adapted to the object distance expected during tracking.

Eine Beleuchtungsintensität der Blitzlichtquelle kann auf einen zu erfassenden Entfernungsbereich abgestimmt werden. Eine derartige Blitzintensitäts-/Entfernungsbereichs-Abstimmung ermöglicht es insbesondere, einen Rückschluss auf im Blitzlicht- und/oder im Kamera-Erfassungsweg vorliegende diffuse Streumedien zu ziehen. Ein sicherer Vorrichtungsbetrieb auch in nebliger, staubiger oder verrauchter Umgebung ist dann möglich.The illumination intensity of the flash light source can be adjusted to the distance range to be captured. Such flash intensity/distance range adjustment makes it possible, in particular, to draw conclusions about diffuse scattering media present in the flash light and/or camera detection path. Safe device operation is then possible even in foggy, dusty, or smoky environments.

Die Blitzintensität kann quadratisch von einer Entfernung innerhalb des zu erfassenden Entfernungsbereichs abhängen. Eine derartige quadratische Abhängigkeit der Blitzintensität von der zu erfassenden Entfernung ermöglicht insbesondere dann, wenn sich die Beleuchtungsintensität quadratisch mit wachsendem Entfernungsbereich erhöht, eine Abstimmung derart, dass bei identischer Umgebungs-Rückstreuung und zu vernachlässigender Streuung längs eines Blitz- und längs eines Erfassungsweges zwischen Quelle und Objekt eine Aussteuerung einer konstanten Intensitätsausleuchtung des mindestens einen Sensor-Arrays. Dies kann zur Bestimmung diffuser Streumedien im erfassten Entfernungsbereich genutzt werden.The flash intensity can depend quadratically on a distance within the distance range to be detected. Such a quadratic dependence of the flash intensity on the distance to be detected enables adjustment such that, with identical ambient backscatter and negligible scattering along a flash path and along a detection path between source and object, a constant intensity illumination of the at least one sensor array is controlled. This can be used to determine diffuse scattering media in the detected distance range.

Eine Pixelempfindlichkeit eines Sensorpixels des Sensor-Arrays kann als Funktion einer einfallenden Lichtintensität der Blitzlichtquelle geregelt werden. Eine derartige Regelung einer Pixelempfindlichkeit kann insbesondere nicht linear zur einfallenden Lichtintensität erfolgen. Es kann insbesondere eine Gamma-Korrektur (γ) erfolgen. Die Empfindlichkeit des mindestens einen Sensor-Arrays kann dann spezifisch an bei der Anwendung vorliegende Beleuchtungs- und/oder Detektionsverhältnisse angepasst werden.The pixel sensitivity of a sensor pixel of the sensor array can be controlled as a function of the incident light intensity of the flash light source. Such control of the pixel sensitivity can, in particular, not be linear with the incident light intensity. In particular, gamma correction (γ) can be performed. The sensitivity of the at least one sensor array can then be specifically adapted to the lighting and/or detection conditions prevailing in the application.

Eine Auswahl von zu erfassenden Objekt-Entfernungsbereichen kann an einen Bewegungsmodus des Kamerasystems relativ zur Umgebung angepasst werden. Eine derartig angepasste Entfernungsbereichs-/Bewegungsmodus-Auswahl ermöglicht eine effiziente Ausnutzung insbesondere einer Rechnerleistung des Kamerasystems und kann auch eine Betriebssicherheit erhöhen.A selection of object distance ranges to be captured can be adapted to a movement mode of the camera system relative to the environment. Such an adapted distance range/movement mode selection enables efficient utilization of the camera system's computing power, in particular, and can also increase operational reliability.

Bei der Auswertung mit triangulatorischer Stereoskopie bei binokularem Sehen werden zwei Bilder verglichen, so dass eventuelle Helligkeitsänderungen durch veränderte Dichteverläufe in erster Näherung vernachlässigt werden können. Bei Vergleich der Bilder mit trainierten Daten (Neuronale Netze, KI) bei monokularem Sehen erhöht eine homogene Helligkeitsverteilung über die Entfernung die Entdeckungsleistung, sich verändernde Dichteverteilungen erschweren dagegen eine sichere Objekterkennung.When evaluating with triangulatory stereoscopy in binocular vision, two images are compared so that any changes in brightness Changes due to changing density distributions can be neglected in a first approximation. When comparing images with trained data (neural networks, AI) in monocular vision, a homogeneous brightness distribution over distance increases detection performance, whereas changing density distributions make reliable object recognition more difficult.

Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung näher erläutert. In dieser zeigen:

  • 1 schematisch eine Aufsicht auf eine Vorrichtung zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung, wobei ein Umgebungs-Objekt in Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung beispielhaft und perspektivisch veranschaulicht ist;
  • 2 ein Zeitdiagramm zur Verdeutlichung von Bilderfassungsparametern beim Betrieb der Vorrichtung nach 1;
  • 3 in einer zur 1 ähnlichen Darstellung eine weitere Ausführung einer Vorrichtung zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung, wobei Umgebungs-Objekte in Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung beispielhaft und perspektivisch veranschaulicht sind;
  • 4 in einer zur 2 ähnlichen Darstellung einen zeitlichen Ablauf eines Betriebsverfahrens der Vorrichtung nach 3;
  • 5 in einer Seitenansicht Hauptkomponenten einer Ausführung der Vorrichtung bei der räumlichen Bilderfassung einer Umgebung innerhalb von drei beispielhaften Entfernungsparametern, wobei innerhalb der erfassten Umgebung ein wolkenförmiges diffuses Streumedium vorliegt; und
  • 6 schematisch Parameterverhältnisse bei einer Kalibriersituation eines Kalibrierverfahrens eines Kamerasystems mit drei Kameras.
Embodiments of the invention are explained in more detail below with reference to the drawings, in which:
  • 1 schematically shows a plan view of a device for spatial image capture of an environment moving relative to the device, wherein an environmental object is illustrated by way of example and in perspective in the forward direction of a relative movement of the device to the environment;
  • 2 a timing diagram to illustrate image acquisition parameters during operation of the device according to 1 ;
  • 3 in a 1 similar representation, a further embodiment of a device for spatial image capture of an environment moving relative to the device, wherein environmental objects in the forward direction of a relative movement of the device to the environment are illustrated by way of example and in perspective;
  • 4 in a 2 similar representation a chronological sequence of an operating method of the device according to 3 ;
  • 5 in a side view, main components of an embodiment of the device in the spatial image capture of an environment within three exemplary distance parameters, wherein a cloud-shaped diffuse scattering medium is present within the captured environment; and
  • 6 schematic parameter relationships in a calibration situation of a calibration procedure of a camera system with three cameras.

1 zeigt eine Aufsicht auf eine Vorrichtung 1 zur räumlichen Bilderfassung einer relativ zu der Vorrichtung 1 bewegten Umgebung, die anhand eines Umgebungs-Objekts 2 in Form eines zylindrischen Körpers veranschaulicht ist. Die Vorrichtung 1 stellt ein Kamerasystem dar. 1 shows a top view of a device 1 for spatial image capture of an environment moving relative to the device 1, which is illustrated by an environmental object 2 in the form of a cylindrical body. The device 1 represents a camera system.

Die Vorrichtung 1 kann Bestandteil eines Fahrzeugs 3, beispielsweise eines PKW oder eines LKW, sein. Eine Vorwärtsrichtung der Relativbewegung der Vorrichtung 1 zur Umgebung ist in der 1 durch einen Pfeil 4 veranschaulicht.The device 1 can be part of a vehicle 3, for example a car or a truck. A forward direction of the relative movement of the device 1 to the environment is shown in the 1 illustrated by an arrow 4.

Die Vorrichtung 1 hat mehrere Stereokameras zur triangulatorischen Objekt-Abstandsmessung von Objekten innerhalb der erfassten Umgebung in der Vorwärtsrichtung 4, also insbesondere zur Abstandsbestimmung des Objekts 2.The device 1 has several stereo cameras for triangulatory object distance measurement of objects within the detected environment in the forward direction 4, i.e. in particular for determining the distance of the object 2.

Eine erste Stereokamera 5 dieser Stereokameras hat zwei zueinander beabstandete Kameras 51, 52. Ein Abstand A dieser Kameras 51, 52 der Stereokamera 5 ergibt eine Länge einer Baseline der Stereokamera 5, also eine Länge eines Abstandes von Zentren von Eintrittspupillen der Kameras 51, 52 der Stereokamera. Die Kameras 51, 52 der Stereokamera 5 haben jeweils ein Sensor-Array 61, 62 mit gesteuerter Vorgabe eines Detektionsbeginns der jeweiligen Kamera 51 und 52 und einer Detektionsdauer der jeweiligen Kamera 51, 52. Die Sensor-Arrays 61, 62 sind nach Art entsprechender Sensoren von Time of Flight (TOF)-Kameras ausgeführt und können eine Detektionsdauer im Bereich zwischen 1 ns und 500 ns realisieren. Eine typische Detektionsdauer liegt im Bereich zwischen 50 ns und 400 ns, beispielsweise zwischen 150 ns und 250 ns.A first stereo camera 5 of these stereo cameras has two cameras 5 1 , 5 2 spaced apart from one another. A distance A between these cameras 5 1 , 5 2 of the stereo camera 5 results in a length of a baseline of the stereo camera 5, i.e. a length of a distance from the centers of entrance pupils of the cameras 5 1 , 5 2 of the stereo camera. The cameras 5 1 , 5 2 of the stereo camera 5 each have a sensor array 6 1 , 6 2 with controlled specification of a start of detection for the respective camera 5 1 and 5 2 and a detection duration for the respective camera 5 1 , 5 2 . The sensor arrays 6 1 , 6 2 are designed like corresponding sensors of time-of-flight (TOF) cameras and can realize a detection duration in the range between 1 ns and 500 ns. A typical detection time is in the range between 50 ns and 400 ns, for example between 150 ns and 250 ns.

Die Sensor-Arrays 61, 62 können jeweils 100 x 100 Pixel oder auch 200 x 200 Pixel aufweisen. Grundsätzlich ist auch eine höhere Pixelanzahl möglich, insbesondere eine Anzahl von 640 x 480 oder auch von 1440 x 1080 Pixeln.The sensor arrays 6 1 , 6 2 can each have 100 x 100 pixels or 200 x 200 pixels. A higher number of pixels is also possible, in particular 640 x 480 or 1440 x 1080 pixels.

Die Sensor-Arrays 61, 62 können als CMOS-Array ausgeführt sein.The sensor arrays 6 1 , 6 2 can be designed as CMOS arrays.

Die Kameras 51, 52 haben eine Tele-Optik zur Erfassung von Objekten im Entfernungsbereich zwischen 50 m und 300 m.The cameras 5 1 , 5 2 have a telephoto lens for detecting objects at distances between 50 m and 300 m.

Zur Vorrichtung 1 gehört weiterhin eine Blitzlichtquelle 7, die ebenfalls nach Art der Lichtquelle einer TOF-Kamera ausgeführt sein kann und eine gesteuerte Vorgabe eines Blitzbeleuchtungsbeginns und einer Blitzbeleuchtungsdauer aufeinander folgender Beleuchtungsblitze ermöglicht. Eine Blitzbeleuchtungsdauer kann im Bereich zwischen 5 ns und 150 ns, beispielsweise im Bereich von 100 ns liegen.The device 1 also includes a flash light source 7, which can also be designed like the light source of a TOF camera and allows for controlled setting of a flash illumination start time and flash illumination duration for successive illumination flashes. A flash illumination duration can be in the range between 5 ns and 150 ns, for example, in the range of 100 ns.

2 verdeutlicht einen zeitlichen Ablauf beim Betrieb der Vorrichtung 1 mit der Stereokamera 5 und der Blitzlichtquelle 7. Zu einem Zeitpunkt t = 0 beginnt ein Beleuchtungsblitz der Blitzlichtquelle 7. t = 0 stellt somit den Beleuchtungsblitzbeginn eines in der 2 schematisch als Signalkasten dargestellten Beleuchtungsblitzes 8 dar. Eine Blitzbeleuchtungsdauer des Beleuchtungsblitzes 8 ist in der 2 mit Δtflash angegeben. 2 illustrates a temporal sequence during the operation of the device 1 with the stereo camera 5 and the flash light source 7. At a time t = 0, an illumination flash of the flash light source 7 begins. t = 0 thus represents the illumination flash start of a 2 schematically shown as a signal box. The flash duration of the lighting flash 8 is shown in the 2 indicated by Δt flash .

Ebenfalls zum Zeitpunkt t = 0 startet eine Verzögerungszeit Δtlag, die auch als Delay-Zeit bezeichnet ist. Diese Verzögerungszeit Δtlag liegt im Bereich zwischen 300 ns und 2 ms und kann beispielsweise im Bereich zwischen 500 ns und 1 ms, zum Beispiel im Bereich zwischen 700 ns und 900 ns, zum Beispiel bei 800 ns, liegen.Also at time t = 0, a delay time Δt lag starts, which is also called delay time. This delay time Δt lag lies in the range between 300 ns and 2 ms and can, for example, be in the range between 500 ns and 1 ms, for example in the range between 700 ns and 900 ns, for example 800 ns.

Nach Ablauf des Delay-Zeitraums Δtlag beginnt zum Zeitpunkt t = tE eine Detektion 9 durch das jeweilige Sensor-Array 61 beziehungsweise 62 der Stereokamera 5. tE stellt somit den Detektionsbeginn dar. Das jeweilige Sensor-Array 61, 62 detektiert einfallendes Licht der Blitzlichtquelle 7 dann während einer Detektionsdauer Δtexp.After the delay period Δt lag has elapsed, a detection 9 by the respective sensor array 6 1 or 6 2 of the stereo camera 5 begins at time t = t E. t E thus represents the start of detection. The respective sensor array 6 1 , 6 2 then detects incident light from the flash light source 7 during a detection period Δt exp .

Die Detektion 9 durch das jeweilige Sensor-Array 61, 62 der Stereokamera 5 ist in der 2 wiederum durch einen zeitlichen Kasten veranschaulicht.The detection 9 by the respective sensor array 6 1 , 6 2 of the stereo camera 5 is in the 2 again illustrated by a time box.

Die vorstehend erläuterten Bilderfassungsparameter, nämlich der Blitzbeleuchtungsbeginn (t = 0), die Blitzbeleuchtungsdauer Δtflash, der Detektionsbeginn (t = tE) und die Detektionsdauer Δtexp werden zeitlich synchronisiert von einer Steuereinrichtung 10 der Vorrichtung 1 vorgegeben. Hierzu kann eine Synchronisationseinheit einer Synchronisationseinrichtung der Steuereinrichtung 10 genutzt werden.The image acquisition parameters explained above, namely the flash illumination start (t = 0), the flash illumination duration Δt flash , the detection start (t = t E ), and the detection duration Δt exp , are specified in a time-synchronized manner by a control device 10 of the device 1. A synchronization unit of a synchronization device of the control device 10 can be used for this purpose.

Die Steuereinrichtung 10 hat einen Bildprozessor zur Echtzeit-Datenverarbeitung. Hierbei kann es sich um einen Prozessor mit einem Field Programmable Gate Array (FPGA, im Feld programmierbare Logik-Gatter-Anordnung) handeln. Der Bildprozessor kann auf ein ultraschnelles, mittels der Steuereinrichtung 10 getriggertes Image Grabbing der von den Sensor-Arrays 6i erfassten Einzelbilder getrimmt sein.The control device 10 has an image processor for real-time data processing. This can be a processor with a field-programmable gate array (FPGA). The image processor can be configured for ultrafast image grabbing of the individual images captured by the sensor arrays 6i , triggered by the control device 10.

Aufgrund der synchronisierten Vorgabe des Blitzlichtbeleuchtungsbeginns und des Detektionsbeginns gibt die Steuereinrichtung 10 zwangsläufig auch den Delay-Zeitraum Δtlag zwischen dem Beleuchtungsblitzbeginn (t = 0) und dem Detektionsbeginn (t = tE) der Vorrichtung 1 vor.Due to the synchronized specification of the start of the flash illumination and the start of detection, the control device 10 necessarily also specifies the delay period Δt lag between the start of the illumination flash (t = 0) and the start of detection (t = t E ) of the device 1.

Korreliert mit der Lichtgeschwindigkeit ergibt sich ein mittels der Stereokamera 5 erfasster Entfernungsbereich 11 in der Vorwärtsrichtung 4 der Vorrichtung 1. Das Objekt 2 hat zur Vorrichtung 1 einen Abstand längs der Vorwärtsrichtung 4, der innerhalb dieses Entfernungsbereichs 11 liegt, sodass das Objekt 2 von der Stereokamera 5 erfasst wird. Der erfasste Entfernungsbereich 11 ist von der Vorrichtung 1 etwa um 100 m bis 150 m beabstandet und hat längs der Vorwärtsrichtung 4 eine Ausdehnung von beispielsweise 30 m.Correlating with the speed of light, this results in a distance range 11 in the forward direction 4 of the device 1, captured by the stereo camera 5. The object 2 is at a distance from the device 1 along the forward direction 4 that lies within this distance range 11, so that the object 2 is captured by the stereo camera 5. The captured distance range 11 is approximately 100 m to 150 m from the device 1 and has an extension of, for example, 30 m along the forward direction 4.

Dieser Abstand ist in der 1 bei 12 angegeben und ist im Vergleich zum Entfernungsbereich 11 nicht maßstäblich.This distance is in the 1 at 12 and is not to scale compared to distance range 11.

Aufgrund der Erfassung über die beiden Kameras 51, 52 der Stereokamera 5 ergibt sich eine räumliche Bilderfassung des Objekts 2. Triangulatorisch kann dann redundant zur TOF-Abstandsmessung über den Delay-Zeitraum Δtlag auch eine Referenz-Abstandsbestimmung des Objekts 2 zur Vorrichtung 1 vorgenommen werden. Bei der Vorrichtung 1 handelt es sich also prinzipiell um eine TOF-Kamera mit zusätzlicher Triangulation.Due to the acquisition via the two cameras 5 1 , 5 2 of the stereo camera 5, a spatial image of the object 2 is captured. A reference distance determination of the object 2 to the device 1 can then be performed triangulatorily, redundantly to the TOF distance measurement over the delay period Δt lag . The device 1 is therefore essentially a TOF camera with additional triangulation.

Die Stereokamera 5 kann zudem eine Korrespondenzanalyse von mit den beiden Kameras 51, 52 aufgenommenen Kamera-Einzelbildern durchführen, um stereoskopisch erfasste Objekte von Hintergrundrauschen, das nur bei einer der beiden Kameras 51, 52 vorliegt, zu trennen. Eine derartige Korrespondenzanalyse ist beispielsweise beschrieben in der WO 2022/069424 A1 und in der WO 2022/069425 A2 .The stereo camera 5 can also perform a correspondence analysis of individual camera images recorded with the two cameras 5 1 , 5 2 in order to separate stereoscopically captured objects from background noise that is only present in one of the two cameras 5 1 , 5 2. Such a correspondence analysis is described, for example, in WO 2022/069424 A1 and in the WO 2022/069425 A2 .

Initial kann bei der Stereokamera 5 eine Stereo-Kalibrierung insbesondere von Ausrichtungen und Lagen der Kameras 51, 52 der Stereokamera 5 mithilfe eines Verfahrens durchgeführt werden, das ebenfalls beschrieben ist in der WO 2022/069424 A1 . Hinsichtlich der Kalibrierung wird auch auf die DE 10 2011 080 702 B3 verwiesen.Initially, a stereo calibration of the stereo camera 5, in particular of the alignments and positions of the cameras 5 1 , 5 2 of the stereo camera 5, can be carried out using a method which is also described in the WO 2022/069424 A1 . Regarding calibration, reference is also made to the DE 10 2011 080 702 B3 referred to.

Bei der räumlichen Bilderfassung mittels der Vorrichtung 1 kann eine mittels des TOF-Prinzips erfasste TOF-Entfernung mindestens eines erfassten Objekts mit einer triangulatorischen Entfernung des Objekts, die mittels der mindestens einen Stereokamera mittels der triangulatorischen Prinzips erfasst wurde, abgeglichen werden. Die TOF-Entfernung kann dabei beispielsweise als Eingangsgröße für die triangulatorische Erfassung genutzt werden. Hierüber kann die Korrespondenzanalyse bei der triangulatorischen Erfassung, beispielsweise durch Eingrenzung eines bei der Korrespondenzanalyse abzudeckenden Disparitätsbereichs, erleichtert werden.During spatial image acquisition using device 1, a TOF distance of at least one detected object, acquired using the TOF principle, can be compared with a triangulatory distance of the object, acquired using the triangulatory principle by the at least one stereo camera. The TOF distance can be used, for example, as an input variable for the triangulatory acquisition. This can facilitate correspondence analysis during the triangulatory acquisition, for example, by limiting a disparity range to be covered by the correspondence analysis.

Mithilfe der über die Kameras 51, 52 der Stereokamera 5 erfassten Bilder des mittels der Blitzlichtquelle 7 beleuchteten Objekts 2 kann auch eine Schattenerfassung eines vom Objekt 2 geworfenen Schattens für das Beleuchtungslicht der Blitzlichtquelle 7 erfolgen. Mittels einer derartigen Schattenwurf-Auswertung des unterschiedlichen Schattenwurfes des Objekts 2, aufgenommen durch die beiden Kameras 51, 52 der Stereokamera 5, ist eine zusätzlich redundante Ermittlung des Abstandes des Objekts 2 zur Vorrichtung 1 möglich.Using the images of the object 2 illuminated by the flash light source 7 captured by the cameras 5 1 , 5 2 of the stereo camera 5, a shadow cast by the object 2 can also be captured for the illumination light of the flash light source 7. By means of such a shadow casting analysis of the different shadows cast by the object 2, recorded by the two cameras 5 1 , 5 2 of the stereo camera 5, an additional redundant determination of the distance of the object 2 from the device 1 is possible.

Die Vorrichtung 1 hat eine weitere Blitzlichtquelle 13, deren Funktion derjenigen der Blitzlichtquelle 7 entspricht, die also ebenfalls zur gesteuerten Vorgabe eines Blitzbeleuchtungsbeginns und einer Blitzbeleuchtungsdauer aufeinander folgender Beleuchtungsblitze dient. Die weitere Blitzlichtquelle 13 kann redundant zur zunächst beschriebenen Blitzlichtquelle 7 zum Einsatz kommen, beispielsweise bei einem Ausfall der zunächst beschriebenen Blitzlichtquelle 7. Während des Betriebs der weiteren Blitzlichtquelle 13 kann die zunächst beschriebene Blitzlichtquelle 7 dann beispielsweise ausgetauscht werden, sodass ein lückenloser Betrieb der Vorrichtung 1 beispielsweise während einer zu überwachenden Fahrt des PKW oder LKW, auf dem die Vorrichtung 1 montiert ist, möglich ist.The device 1 has a further flash light source 13, the function of which corresponds to that of the flash light source 7, which is also used for the controlled setting of a flash illumination start and a flash illumination duration of successive Illumination flashes. The additional flash light source 13 can be used redundantly to the initially described flash light source 7, for example, in the event of a failure of the initially described flash light source 7. During operation of the additional flash light source 13, the initially described flash light source 7 can then be replaced, for example, so that continuous operation of the device 1 is possible, for example, during a monitored journey of the car or truck on which the device 1 is mounted.

Die Vorrichtung 1 hat eine weitere Stereokamera 14 mit Kameras 141, 142, deren Aufbau und Funktion dem entspricht, was vorstehend unter Bezugnahme auf die Stereokamera 5 bereits erläutert wurde. Die Stereokamera 141 ist der Stereokamera 51 direkt benachbart angeordnet und deckt praktisch das gleiche Sichtfeld in der Vorwärtsrichtung 4 ab, wie die Kamera 51. Die Kamera 142 ist wiederum der Kamera 52 direkt benachbart angeordnet und deckt in der Vorwärtsrichtung 4 das gleiche Sichtfeld ab, wie die Kamera 52.The device 1 has a further stereo camera 14 with cameras 14 1 , 14 2 , the structure and function of which correspond to what was already explained above with reference to the stereo camera 5. The stereo camera 14 1 is arranged directly adjacent to the stereo camera 5 1 and covers practically the same field of view in the forward direction 4 as the camera 5 1 . The camera 14 2 is in turn arranged directly adjacent to the camera 5 2 and covers the same field of view in the forward direction 4 as the camera 5 2 .

Die Stereokamera 14 ist wiederum redundant zur Stereokamera 5. Hier gilt, was zu den Blitzlichtquellen 7 und 13 ausgeführt wurde.The stereo camera 14 is in turn redundant to the stereo camera 5. The same applies here as described for the flash light sources 7 and 13.

Die Vorrichtung 1 hat weiterhin eine Fischaugen-Stereokamera 15 mit zwei Paaren 151, 152 einerseits und 153, 154 andererseits. Jede dieser Fischaugen-Kameras 15i (i = 1 bis 4) dient zur Erfassung der Umgebung um die Vorrichtung 1 sowohl in der Vorwärtsrichtung 4 als auch in hierzu lateraler Richtung (vgl. Pfeil 16 in 1). Die beiden in der 1 links am Fahrzeug 3 angeordneten Fischaugen-Kameras 151 und 152 haben eine Haupt-Erfassungsrichtung 17, die wie die Haupterfassungsrichtungen der Kameras 5i und 6i horizontal verläuft, aber im Falle der Fischaugen-Kameras 151 und 152 einen Winkel von 45 ° zur Vorwärtsrichtung 4 einnimmt. Diese Fischaugen-Kameras 151, 152 decken also sowohl die Vorwärtsrichtung 4 als auch die zur lateralen Richtung 16 entgegengesetzte seitliche Richtung (links in der 1) des Fahrzeugs 3 ab, an dem die Vorrichtung 1 montiert ist. Entsprechend decken die beiden weiteren Fischaugen-Kameras 153, 154, deren Haupterfassungsrichtungen 18 ebenfalls einen Winkel von 45 ° zur Vorwärtsrichtung 4 einnehmen, neben der Vorwärtsrichtung 4 auch einen rechtsseitigen Bereich in der lateralen Richtung 16 ab.The device 1 further comprises a fisheye stereo camera 15 with two pairs 15 1 , 15 2 on the one hand and 15 3 , 15 4 on the other hand. Each of these fisheye cameras 15 i (i = 1 to 4) serves to capture the environment around the device 1 both in the forward direction 4 and in the lateral direction (cf. arrow 16 in 1 ). The two in the 1 The fisheye cameras 15 1 and 15 2 arranged on the left side of the vehicle 3 have a main detection direction 17 which, like the main detection directions of the cameras 5 i and 6 i, is horizontal, but in the case of the fisheye cameras 15 1 and 15 2 , forms an angle of 45 ° to the forward direction 4. These fisheye cameras 15 1 , 15 2 therefore cover both the forward direction 4 and the lateral direction opposite to the lateral direction 16 (left in the 1 ) of the vehicle 3 on which the device 1 is mounted. Accordingly, the two additional fisheye cameras 15 3 , 15 4 , whose main detection directions 18 also form an angle of 45° to the forward direction 4, cover not only the forward direction 4 but also a right-hand area in the lateral direction 16.

Die Fischaugen-Kameras 15i haben einen Erfassungswinkel um die HauptErfassungsrichtungen 17, 18 von 180 °. Grenzwinkel der Erfassungsbereiche dieser Fischaugen-Kameras 15i sind in der 1 gestrichelt angedeutet. Diese Öffnungsbereiche überlappen in einem Überlapp-Bereich 19, der in der 1 durch eine Schraffur angedeutet ist. In diesem Überlapp-Bereich 19 liegt insbesondere das Objekt 2.The fisheye cameras 15 i have a detection angle around the main detection directions 17, 18 of 180°. The limit angles of the detection ranges of these fisheye cameras 15 i are shown in the 1 These opening areas overlap in an overlap area 19, which is shown in the 1 indicated by hatching. Object 2, in particular, lies in this overlap area 19.

Die Beleuchtungslichtquelle 7 strahlt Blitzlicht der Beleuchtungsblitze längs der Vorwärtsrichtung in einem Beleuchtungskegel ab, dessen Randstrahlen in der 1 bei 8a veranschaulicht sind. Das Objekt 2 und auch der Überlappbereich 19 liegen innerhalb des Beleuchtungskegels 8a der Blitzlichtquelle 7.The illumination light source 7 emits flash light of the illumination flashes along the forward direction in an illumination cone, the edge rays of which are in the 1 at 8a are illustrated. The object 2 and also the overlap area 19 lie within the illumination cone 8a of the flash light source 7.

Die Fischaugen-Stereokamera 15 kann wahlweise eine triangulatorische Objekt-Abstandsbestimmung mittels mindestens zweier der insgesamt vier Fischaugen-Kameras 15i durchführen, wobei mit kurzen Baselines, Abstände der Fischaugen-Kameras 151, 152 einerseits beziehungsweise 153, 154 andererseits oder auch mit langen Baselines (Abstände der Fischaugen-Kameras 151 und 153 oder 151 und 154 oder 152 und 153 oder 152 und 154) gearbeitet werden kann. Hierüber lässt sich wiederum eine redundante triangulatorische Objekt-Abstandsbestimmung vornehmen.The fisheye stereo camera 15 can optionally perform a triangulatory object distance determination using at least two of the four fisheye cameras 15 i , whereby it can work with short baselines (distances between the fisheye cameras 15 1 , 15 2 on the one hand, or 15 3 , 15 4 on the other hand), or with long baselines (distances between the fisheye cameras 15 1 and 15 3 or 15 1 and 15 4 or 15 2 and 15 3 or 15 2 and 15 4 ). This, in turn, allows for a redundant triangulatory object distance determination.

Die Nutzung derartiger zusätzlicher Triangulations-Baselines sind beispielsweise beschrieben in der WO 2022/069424 A1 und in der WO 2022/179998 A1 .The use of such additional triangulation baselines is described, for example, in the WO 2022/069424 A1 and in the WO 2022/179998 A1 .

Die Vorrichtung 1 hat zudem eine weitere Fischaugen-Stereokamera 20 mit Fischaugen-Kameras 201 bis 204, die in ihrem Aufbau, ihrer Ausrichtung und paarweisen Anordnung den Fischaugen-Kameras 151 bis 154 entsprechen. Die Fischaugen-Stereokamera 20 kann redundant zur Fischaugen-Stereokamera 15 zum Einsatz kommen. Hier gilt entsprechend, was vorstehend zu den Blitzlichtquellen 7 und 13 beziehungsweise zu den Stereokameras 5 und 14 ausgeführt wurde.The device 1 also has a further fisheye stereo camera 20 with fisheye cameras 20 1 to 20 4 , which correspond in their structure, orientation, and paired arrangement to the fisheye cameras 15 1 to 15 4 . The fisheye stereo camera 20 can be used redundantly to the fisheye stereo camera 15. The above statements regarding the flash light sources 7 and 13 and the stereo cameras 5 and 14 apply accordingly.

Die Kameras 15i der Fischaugen-Stereokamera 15 haben wiederum Sensor-Arrays nach Art der vorstehend beschriebenen Sensor-Arrays 6i, können also wiederum als Bestandteil einer TOF-Erfassung genutzt werden, wie vorstehend bereits erläutert.The cameras 15 i of the fisheye stereo camera 15 in turn have sensor arrays similar to the sensor arrays 6 i described above, and can therefore again be used as part of a TOF detection, as already explained above.

Die Steuereinrichtung 10 steht mit den Stereokameras 5, 14, 15 und 20 und mit den Blitzlichtquellen 7 und 13 in Signalverbindung. Weiterhin kann die Steuereinrichtung 10 mit Komponenten des Fahrzeugs 3 in Signalverbindung stehen, beispielsweise mit einem Antrieb und/oder mit einer Bremsanlage und/oder mit Fahrzeug-Anzeigevorrichtungen, beispielsweise in einem Armaturenbrett des Fahrzeugs 3.The control device 10 is in signal communication with the stereo cameras 5, 14, 15, and 20 and with the flash light sources 7 and 13. Furthermore, the control device 10 can be in signal communication with components of the vehicle 3, for example, with a drive and/or with a braking system and/or with vehicle display devices, for example in a dashboard of the vehicle 3.

Beim Echtzeitbetrieb kann die Vorrichtung 1 eine Bildaufnahme von beispielsweise zehn Bildern pro Sekunde vornehmen.In real-time operation, the device 1 can record images at, for example, ten images per second.

3 zeigt eine weitere Ausführung einer Vorrichtung 21, die anstelle der Vorrichtung 1 zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung eingesetzt werden kann. Komponenten und Funktionen der Vorrichtung 21, die denjenigen der Vorrichtung 1 entsprechen, tragen insbesondere die gleichen Bezugsziffern und werden nicht nochmals im Einzelnen diskutiert. 3 shows a further embodiment of a device 21 that can be used instead of device 1 for spatial image capture of an environment moving relative to the device. Components and functions of device 21 that correspond to those of device 1 bear the same reference numerals and will not be discussed in detail again.

Die Vorrichtung 21 ist mit zwei Stereokameras 5, 14 ausgerüstet, die die Umgebung der wiederum auf ein Fahrzeug 3 montierten Vorrichtung 21 in der Vorwärtsrichtung 4 erfassen. Veranschaulicht sind innerhalb dieser erfassten Umgebung drei Umgebungs-Objekte 22, 23 und 24.The device 21 is equipped with two stereo cameras 5, 14, which capture the surroundings of the device 21, which is in turn mounted on a vehicle 3, in the forward direction 4. Three surrounding objects 22, 23, and 24 are illustrated within this captured environment.

Mit der Vorrichtung 21 ist insbesondere ein in der Vorwärtsrichtung 4, die auch als z-Richtung bezeichnet ist, z-gepufferter (z-buffered) Betrieb möglich, bei dem ein Gesamt-Entfernungsbereich 25 längs der Vorwärtsrichtung 4, innerhalb dem die Objekte 22 bis 24 liegen, in eine Mehrzahl von Entfernungsbereiche 221 bis 22max, also in Entfernungsbereiche 22i (i = 1 bis max) unterteilt wird. Die maximale Anzahl max dieser Entfernungsbereiche 22i kann im Bereich zwischen 3 und 50 liegen, beispielsweise im Bereich von 10. Diese Entfernungsbereiche 22i werden auch als Entfernungszonen (gate zones) gz bezeichnet.With the device 21, in particular, z-buffered operation in the forward direction 4, which is also referred to as the z-direction, is possible, in which a total distance range 25 along the forward direction 4, within which the objects 22 to 24 lie, is divided into a plurality of distance ranges 22 1 to 22 max , i.e. into distance ranges 22 i (i = 1 to max). The maximum number max of these distance ranges 22 i can be in the range between 3 and 50, for example in the range of 10. These distance ranges 22 i are also referred to as gate zones gz.

Beim entsprechenden Z-Buffering-Betrieb der Vorrichtung 21 werden zunächst die Bilderfassungsparameter Beleuchtungsblitzbeginn (t = 0), Beleuchtungsblitzdauer (Δtflash, gz-1), ein Detektionsbeginn (t = tE) und eine Detektionsdauer (Δtexp, gz-1) vorgegeben.During the corresponding Z-buffering operation of the device 21, the image acquisition parameters illumination flash start (t = 0), illumination flash duration (Δt flash , gz-1 ), a detection start (t = t E ) and a detection duration (Δt exp , gz-1 ) are initially specified.

Diese Bilderfassungsparameter-Vorgabe erfolgt wiederum mittels der Steuereinrichtung 10.This image acquisition parameter specification is again carried out by means of the control device 10.

Der Entfernungsbereich gz-1, also beispielsweise der Entfernungsbereich 22max, wird dann mit den so vorgegebenen Bilderfassungsparametern erfasst.The distance range gz-1, for example the distance range 22 max , is then recorded using the image acquisition parameters specified in this way.

Über die Steuereinrichtung 10 werden weitere Bilderfassungsparameter vorgegeben, nämlich ein weiterer Blitzlichtbeginn (t = tflash), eine weitere Blitzlichtdauer (Δflash, gz), ein weiterer Detektionsbeginn (t = tE1) und eine Detektionsdauer (Δtexp, gz). Diese Vorgabe ist so gewählt, dass ein Delay-Zeitraum (Δtlag, gz) bei diesen weiteren vorgegebenen Bilderfassungsparametern etwas kürzer ist als der zunächst vorgegebene Delay-Zeitraum Δtlag, gz-1. Dies bedingt, dass bei der Erfassung mit den zuletzt vorgegebenen Bilderfassungsparametern ein weiterer Erfassungsbereich gz erfasst wird, der den zunächst erfassten Entfernungsbereich gz-1, also den Entfernungsbereich 22max, zu kürzeren Abständen zur Vorrichtung 21 hin benachbart ist.Further image acquisition parameters are specified via the control device 10, namely a further flash start (t = t flash ), a further flash duration (Δ flash , gz ), a further detection start (t = t E1 ) and a detection duration (Δt exp , gz ). This specification is selected such that a delay period (Δt lag, gz ) with these further specified image acquisition parameters is somewhat shorter than the initially specified delay period Δt lag , gz-1 . This means that when capturing with the last specified image acquisition parameters, a further detection range gz is captured, which is adjacent to the initially captured distance range gz-1, i.e. the distance range 22 max , at shorter distances from the device 21.

Der weitere Entfernungsbereich gz grenzt an den vorhergehenden Entfernungsbereich gz-1 längs der Vorwärtsrichtung 4 in einer Erfassungsfortschrittsrichtung +z an oder überlappt mit diesem teilweise.The further distance range gz borders on or partially overlaps the previous distance range gz-1 along the forward direction 4 in a detection progress direction +z.

In diesem nun erfassten Erfassungsbereich gz liegt das Objekt 24.Object 24 is located in this now recorded detection area gz.

Es erfolgt nun ein digitales Filtern des zuletzt erfassten Bildes im Entfernungsbereich gz zum Herausfiltern strukturloser Bildbereiche, sodass das Objekt 24 übrigbleibt. Anschließend wird das im der Erfassung des Entfernungsbereichs gz vorhergehenden Erfassungsbereich (Erfassung des Entfernungsbereichs gz-1) erfasste Bild mit dem zuletzt erfassten Bild (Entfernungsbereich gz) in nicht herausgefilterten Bildbereichen, also im Bereich des Objekts 24, dieses zuletzt erfassten Bildes überschrieben, sodass in der Steuereinrichtung 10 ein aktualisiertes Bild abgelegt wird, welches die Informationen aus den beiden Entfernungsbereichen gz-1 und gz beinhaltet.The last acquired image in the distance range gz is now digitally filtered to filter out structureless image areas, leaving only the object 24. Subsequently, the image acquired in the acquisition range preceding the acquisition of the distance range gz (acquisition of the distance range gz-1) is overwritten with the last acquired image (distance range gz) in the unfiltered image areas, i.e., in the area of the object 24, of this last acquired image, so that an updated image is stored in the control device 10, which contains the information from the two distance ranges gz-1 and gz.

Die Steuereinrichtung 10 gibt im Betrieb weitere Bilderfassungsparameter vor, sodass ein weiterer Entfernungsbereich gz+1 erfasst wird, der sich wiederum entgegen der Vorwärtsrichtung 4 an dem Entfernungsbereich gz anschließt beziehungsweise mit diesem teilweise überlappt.During operation, the control device 10 specifies further image acquisition parameters so that a further distance range gz+1 is acquired, which in turn adjoins the distance range gz opposite to the forward direction 4 or partially overlaps with it.

Nun werden die zuletzt beschriebenen Schritte Erfassen, Filtern, Überschreiben und Bilderfassungsparameter-Vorgeben für diesen Entfernungsbereich gz+1 sowie weitere Entfernungsbereiche 224, 223, 222 und 221 wiederholt, bis der vorgegebene Gesamt-Entfernungsbereich 25 abgedeckt ist, der sich aus der Überlagerung der erfassten Entfernungsbereiche 221 bis 22max ergibt. Im Zuge dieser Sequenzen werden im jeweils für den Entfernungsbereich 22i aktualisierten Bild die Bildbereiche am Ort der weiteren Objekte 23 (Entfernungsbereich 222) und 22 (Entfernungsbereich 221) überschrieben, sodass im zuletzt aktualisierten Bild alle drei Objekte 22 bis 24 mit ihren über die Zuordnung zum jeweiligen Entfernungsbereich 22i bestimmten Objekt-Abständen zur Vorrichtung 1 ausgegeben werden.Now the last described steps of capturing, filtering, overwriting and specifying image capture parameters are repeated for this distance range gz+1 as well as further distance ranges 22 4 , 22 3 , 22 2 and 22 1 until the specified total distance range 25 is covered, which results from the superposition of the captured distance ranges 22 1 to 22 max . In the course of these sequences, the image areas at the location of the further objects 23 (distance range 22 2 ) and 22 (distance range 22 1 ) are overwritten in the image updated for the distance range 22 i , so that in the last updated image all three objects 22 to 24 are output with their object distances to the device 1 determined via the assignment to the respective distance range 22 i .

Die Anzahl i (i = 1 bis max) der Entfernungsbereiche 22i, die während des Betriebsverfahrens erfasst werden, kann beispielsweise bei 50 liegen. Das Betriebsverfahren mit Abrastern aller Entfernungsbereiche 22max bis 221 kann im 10 Hertz-Betrieb in Echtzeit stattfinden. Das Ergebnis eines solchen kompletten Abrasterung-Vorgangs der Entfernungsbereiche 22max bis 221 ist ein 2D-Bild mit den nicht herausgefilterten Objekten 22, 23 und 24 in allen innerhalb des Gesamt-Entfernungsbereichs 25 erfassten Entfernungsbereichen 22i. Auch überschriebene Informationen der innerhalb des Gesamt-Entfernungsbereichs 25 zunächst erfassten Entfernungsbereiche 22max bis 222 können beim zuletzt aktualisierten, ausgegebenen Bild nach Erfassung des Entfernungsbereichs 221 für eine unabhängige räumliche (3D-) Auswertung erhalten bleiben.The number i (i = 1 to max) of distance ranges 22 i that are acquired during the operating procedure can be, for example, 50. The operating procedure with scanning of all distance ranges 22 max to 22 1 can take place in 10 Hertz operation in real time. The result of such a complete scanning process of the distance ranges 22 max to 22 1 is a 2D image with the non-filtered objects 22, 23 and 24 in all distance ranges 22 i acquired within the total distance range 25. Written information of the distance ranges 22 max to 22 2 initially recorded within the total distance range 25 can be retained in the last updated output image after recording the distance range 22 1 for an independent spatial (3D) evaluation.

Wie die 4 veranschaulicht, können aufeinanderfolgende Erfassungsschritte für Entfernungsbereiche gz-1 und gz zeitlich miteinander überlappen. Auch mehr als zwei derartiger Erfassungsschritte können zeitlich miteinander überlappen, sodass beispielsweise während eines Delay-Zeitraums bei der Erfassung eines ersten Entfernungsbereichs gz ein Blitzlichtbeginn mindestens einer weiteren Erfassung eines weiteren Entfernungsbereichs gz+1, gz+2 stattfindet. Auch ein Detektionszeitraum einer vorhergehenden Erfassung kann beispielsweise mit einem Blitzzeitraum einer nachfolgenden Erfassung überlappen.As the 4 As illustrated, successive detection steps for distance ranges gz-1 and gz can overlap in time. More than two such detection steps can also overlap in time, so that, for example, during a delay period in the detection of a first distance range gz, a flash of at least one further detection of another distance range gz+1, gz+2 begins. A detection period of a previous detection can also overlap, for example, with a flash period of a subsequent detection.

Entfernungs-Ausdehnungen Δz der verschiedenen Entfernungsbereiche 22i, 22j können sich voneinander unterscheiden. Es können sich also die Detektionsdauern bei den verschiedenen Erfassungsschritten des Betriebsverfahrens unterscheiden.The distance extensions Δz of the various distance ranges 22 i , 22 j can differ from each other. Therefore, the detection times can differ for the various acquisition steps of the operating procedure.

Nach dem Erfassen eines jeweiligen Entfernungsbereichs 22i kann zusätzlich eine Triangulations-Bestimmung einer Entfernung der Objekte 22 bis 24 in den nicht herausgefilterten Bildbereichen mithilfe der mindestens einen Stereokamera 5, 14 erfolgen. Hierbei kann wiederum eine Stereo-Korrespondenzbestimmung stattfinden, wie vorstehend bereits erläutert.After capturing a respective distance range 22 i, a triangulation determination of the distance of the objects 22 to 24 in the non-filtered image areas can additionally be performed using the at least one stereo camera 5, 14. In this case, a stereo correspondence determination can again take place, as already explained above.

Vor einem jeweiligen Erfassungsschritt des Betriebsverfahrens kann eine Region of Interest (ROI) als Teil eines über die jeweilige Kamera 5i, 14i erfassbaren Bildfeldes vorgegeben werden, beispielsweise ein durch entsprechende Objektfilterung identifizierter Straßenbereich in der Vorwärtsrichtung 4.Before a respective detection step of the operating method, a region of interest (ROI) can be specified as part of an image field that can be captured by the respective camera 5 i , 14 i , for example a road area in the forward direction 4 identified by appropriate object filtering.

5 zeigt eine Seitenansicht einer weiteren Ausführung der Bilderfassungs-Vorrichtung 1. Komponenten und Funktionen, die denjenigen entsprechen, die vorstehend unter Bezugnahme auf die 1 bis 4 bereits erläutert wurden, tragen die gleichen Bezugsziffern und werden nicht nochmals im Einzelnen diskutiert. 5 shows a side view of another embodiment of the image capture device 1. Components and functions corresponding to those described above with reference to the 1 to 4 already explained, have the same reference numbers and will not be discussed in detail again.

Anhand der 5 wird der Einsatz der Vorrichtung 1 zur Bestimmung und Erkennung eines diffusen Streumediums längs eines Blitzlichtweges 28 zwischen der Blitzlichtquelle 7 und einem beispielhaften Umgebungs-Objekt 2 erläutert. Dargestellt ist in der 5 beispielhaft die Kamera 51 der Stereokamera 5, die neben der triangulatorischen Entfernungsbestimmung auch eine TOF-Entfernungsbestimmung ermöglicht.Based on the 5 The use of the device 1 for determining and detecting a diffuse scattering medium along a flash light path 28 between the flash light source 7 and an exemplary environmental object 2 is explained. 5 For example, camera 5 1 of stereo camera 5, which enables not only triangulatory distance determination but also TOF distance determination.

Beim Erfassungsbeispiel nach 5 erfasst die Vorrichtung 1 insgesamt drei Entfernungsbereiche 221, 222, 223 durch Vorgabe entsprechender TOF-Bilderfassungsparameter. Der erste, nächste Entfernungsbereich 221 erstreckt sich um einen ersten Abstand d1. Der nächstentfernte weitere Entfernungsbereich 222 erstreckt sich um einen zweiten Abstand d2, für den gilt: d2 = 2 x d1. Der nächstentfernte, dritte Entfernungsbereich 223 erstreckt sich um einen dritten Abstand d3, für den gilt: d3 = 3 x d1. Zur Vorgabe der Bilderfassungsparameter für die drei Entfernungsbereiche 221 bis 223 gehört neben der Vorgabe der TOF-Bilderfassungsparameter „Beleuchtungsbeginn“, „Beleuchtungsdauer“, „Detektionsbeginn“ und „Detektionsdauer“ auch eine Vorgabe einer Blitzintensität Ii zur Ausleuchtung des jeweiligen Entfernungsbereichs 22i. Die Blitzintensität I2 zur Ausleuchtung des Entfernungsbereich 222 ist viermal so groß wie die Blitzintensität I1 zur Ausleuchtung des ersten, nächstgelegenen Entfernungsbereichs 221. Die Blitzintensität I3 zur Ausleuchtung des im Beispiel nach 5 entferntesten, dritten Entfernungsbereichs 223 ist neunmal so groß wie die Blitzintensität I1. Die Blitzintensität Ii hängt also quadratisch von einer Entfernung di innerhalb eines insgesamt zu erfassenden Gesamt-Entfernungsbereichs 25 ab.In the example according to 5 the device 1 detects a total of three distance ranges 22 1 , 22 2 , 22 3 by specifying corresponding TOF image acquisition parameters. The first, closest distance range 22 1 extends by a first distance d 1 . The next, further distance range 22 2 extends by a second distance d 2 , for which the following applies: d 2 = 2 x d 1 . The next, third distance range 22 3 extends by a third distance d 3 , for which the following applies: d 3 = 3 x d 1 . The specification of the image acquisition parameters for the three distance ranges 22 1 to 22 3 includes, in addition to the specification of the TOF image acquisition parameters “start of illumination”, “duration of illumination”, “start of detection” and “duration of detection”, a specification of a flash intensity I i for illuminating the respective distance range 22 i . The flash intensity I 2 for illuminating the distance range 22 2 is four times as large as the flash intensity I 1 for illuminating the first, nearest distance range 22 1 . The flash intensity I 3 for illuminating the distance range 22 1 in the example 5 The third, most distant distance range 22 3 is nine times as large as the flash intensity I 1 . The flash intensity I i therefore depends quadratically on a distance d i within a total distance range 25 to be recorded.

Unter Voraussetzung einer konstanten Reflektivität beziehungsweise eines konstanten Streuvermögens einer Umgebungs-Oberfläche 29 ergibt sich aufgrund dieser quadratischen Abhängigkeit der Beleuchtungsintensität Ii von der Entfernung di, dass das Sensor-Array 61 der Kamera 51 eine konstante Intensitätsausleuchtung bei der Bilderfassung der drei Entfernungsbereiche 221, 222 und 223 erfährt. Diese konstante Intensitätsausleuchtung des Sensor-Arrays 61 liegt nur dann vor, wenn längs Blitzlichtwegen 311, 312, 313 zwischen der Blitzlichtquelle 7 und der Umgebung in den Entfernungsbereichen 221 bis 223 keine wesentliche Streuung des Beleuchtungsblitzes 8 durch das diffuse Streumedium 27 vorliegt. Anders ausgedrückt: Ungleichheiten einer Intensitätsausleuchtung des Sensor-Arrays 61 längs der Erfassungswege 30i bei der vorgegebenen quadratischen Abhängigkeit der Beleuchtungsintensität Ii von der Entfernung di innerhalb des zu erfassenden Entfernungsbereiches 22i sind ein Hinweis auf das Vorliegen des diffusen Streumediums 27.Assuming a constant reflectivity or a constant scattering power of an ambient surface 29, this quadratic dependence of the illumination intensity I i on the distance d i results in the sensor array 6 1 of the camera 5 1 experiencing a constant intensity illumination when capturing images of the three distance ranges 22 1 , 22 2 and 22 3 . This constant intensity illumination of the sensor array 6 1 only occurs when there is no significant scattering of the illumination flash 8 by the diffuse scattering medium 27 along flash light paths 31 1 , 31 2 , 31 3 between the flash light source 7 and the environment in the distance ranges 22 1 to 22 3 . In other words: Inequalities in the intensity illumination of the sensor array 6 1 along the detection paths 30 i with the given quadratic dependence of the illumination intensity I i on the distance d i within the distance range 22 i to be detected are an indication of the presence of the diffuse scattering medium 27.

Hierbei können folgende Fälle unterschieden werden:

  1. a) Das diffuse Streumedium 27 liegt innerhalb des aktuell erfassten Entfernungsbereichs, im in der 5 dargestellten Fall also innerhalb des Entfernungsbereichs 222, vor. In diesem Fall wird das diffuse Streumedium 27 längs des Beleuchtungsweges 312 direkt beleuchtet und eine entsprechende Streuung des Beleuchtungslichts 8 durch das diffuse Streumedium 27 in das Sensor-Array 61 bei der TOF-Erfassung gemessen, was zu einer Erhöhung der Intensitätsausleuchtung längs des Erfassungsweges 302 führt.
  2. b) Das diffuse Streumedium 27 liegt zwischen der Blitzlichtquelle 7 und dem Sensor-Array 61 einerseits und dem aktuell erfassten Entfernungsbereich, beispielsweise dem Entfernungsbereich 223, andererseits. In diesem Fall erfolgt eine Schwächung des Beleuchtungslichts längs des Blitzlichtweges 313 beim Durchtreten des diffusen Streumediums 27. Eine weitere Schwächung erfährt das vom Erfassungsbereich 223 in Richtung des Sensor-Arrays 61 längs des Erfassungsweges 303 rückgestreute Beleuchtungslicht aufgrund einer nochmaligen Streuung durch das diffuse Streumedium 27. Im Ergebnis ist die Intensitätsausleuchtung des Sensor-Arrays 61 bei der Erfassung des Entfernungsbereichs 223 aufgrund der im zwischenliegenden Entfernungsbereich 222 vorliegenden Wolke des diffusen Streumediums 27 geschwächt.
The following cases can be distinguished:
  1. a) The diffuse scattering medium 27 lies within the currently recorded distance range, in the 5 In the case shown, the distance range is 22 2 . In this case, the diffuse scattering medium 27 is the illumination path 31 2 is directly illuminated and a corresponding scattering of the illumination light 8 by the diffuse scattering medium 27 into the sensor array 6 1 is measured during the TOF detection, which leads to an increase in the intensity illumination along the detection path 30 2 .
  2. b) The diffuse scattering medium 27 lies between the flash light source 7 and the sensor array 6 1 on the one hand, and the currently detected distance range, for example the distance range 22 3 , on the other hand. In this case, the illuminating light is attenuated along the flash light path 31 3 when passing through the diffuse scattering medium 27. The illuminating light backscattered from the detection range 22 3 in the direction of the sensor array 6 1 along the detection path 30 3 experiences a further attenuation due to repeated scattering by the diffuse scattering medium 27. As a result, the intensity illumination of the sensor array 6 1 when detecting the distance range 22 3 is attenuated due to the cloud of the diffuse scattering medium 27 present in the intermediate distance range 22 2 .

Eine Kombination einer im Vergleich zur erwarteten konstanten Intensitätsausleuchtung erhöhten Intensitätsausleuchtung des Sensor-Arrays 61 bei Erfassung des Entfernungsbereichs 222 und einer Verringerung der Intensitätsausleuchtung des Sensor-Arrays 61 bei Erfassung des Entfernungsbereichs 223 ermöglicht also die Identifikation des diffusen Streumediums 27 innerhalb des Entfernungsbereichs 222.A combination of an increased intensity illumination of the sensor array 6 1 when detecting the distance range 22 2 compared to the expected constant intensity illumination and a reduction in the intensity illumination of the sensor array 6 1 when detecting the distance range 22 3 thus enables the identification of the diffuse scattering medium 27 within the distance range 22 2 .

Bei den vorstehend erläuterten Ausführungen der Bilderfassungs-Vorrichtung 1 beziehungsweise 21 kann eine Pixelempfindlichkeit von Sensorpixeln der verschiedenen Sensor-Arrays 61, ... als Funktion einer einfallenden Lichtintensität, also als Funktion einer Intensitätsausleuchtung, des Sensor-Arrays 61, ... geregelt werden. Es kann insbesondere eine γ-Korrektur bei der Bildverarbeitung mittels des jeweiligen Sensor-Arrays 61, ... erfolgen. Hierbei kann der bei der γ-Korrektur eingesetzte Exponent γ im Bereich zwischen beispielsweise 0,2 und 5 variieren. Je nach Größe von γ kann dann eine Pixelempfindlichkeit zur Anpassung einer hohen Dynamik entweder bei hoher oder bei niedriger Intensitätsausleuchtung des Sensor-Arrays erreicht werden.In the embodiments of the image capture device 1 or 21 explained above, a pixel sensitivity of sensor pixels of the various sensor arrays 6 1 , ... can be controlled as a function of an incident light intensity, i.e. as a function of an intensity illumination, of the sensor array 6 1 , ... In particular, a γ correction can be carried out during image processing using the respective sensor array 6 1 , .... The exponent γ used for the γ correction can vary in the range between, for example, 0.2 and 5. Depending on the value of γ, a pixel sensitivity for adapting a high dynamic range can then be achieved either at high or low intensity illumination of the sensor array.

Eine Auswahl von zu erfassenden Objekt-Entfernungsbereichen 22i kann bei bestimmten Betriebsmodi der Erfassungs-Vorrichtung 1 beziehungsweise 21 an einen Bewegungsmodus der Vorrichtung 1 beziehungsweise 21 relativ zur Umgebung angepasst sein. Insbesondere kann der Gesamt-Entfernungsbereich 25 an eine Relativgeschwindigkeit der Vorrichtung 1, 21 zur Umgebung angepasst werden. Auch eine Anpassung an einen Rückwärts- oder Kurvenfahrt-Modus ist möglich.A selection of object distance ranges 22 i to be detected can be adapted to a movement mode of the device 1 or 21 relative to the environment in certain operating modes of the detection device 1 or 21. In particular, the total distance range 25 can be adapted to a relative speed of the device 1, 21 to the environment. Adaptation to a reverse or cornering mode is also possible.

Alternativ oder zusätzlich zum vorstehend mithilfe der 3 und 4 erläuterten Betriebsverfahren kann die jeweilige Vorrichtung 1 beziehungsweise 21 auch wie folgt betrieben werden:

  • Über eine entsprechende Zuordnung insbesondere der Blitzbeleuchtungsdauer und der Detektionsdauer wird mithilfe der jeweiligen Vorrichtung 1, 21 mittels des TOF-Prinzips eine TOF-Entfernung des mindestens einen Objekts 2 beziehungsweise 22 bis 24 erfasst. Parallel oder sequenziell hierzu wird mittels der einen Stereokamera 5, ... der Vorrichtung 1, 21 mittels des triangulatorischen Prinzips eine triangulatorische Entfernung des jeweiligen Objekts 2 beziehungsweise 22 bis 24 erfasst. Die Erfassungswerte „TOF-Entfernung“ und „triangulatorische Entfernung“ werden dann bei Betrieb der Vorrichtung 1, 21 abgeglichen.
Alternatively or in addition to the above using the 3 and 4 explained operating procedure, the respective device 1 or 21 can also be operated as follows:
  • By correspondingly assigning, in particular, the flash illumination duration and the detection duration, a TOF distance of the at least one object 2 or 22 to 24 is detected using the TOF principle with the aid of the respective device 1, 21. In parallel or sequentially, a triangulatory distance of the respective object 2 or 22 to 24 is detected using the triangulatory principle using the one stereo camera 5, ... of the device 1, 21. The detection values "TOF distance" and "triangulatory distance" are then compared during operation of the device 1, 21.

Es ist dabei insbesondere möglich, die ermittelte TOF-Entfernung als Eingangsgröße für die triangulatorische Erfassung zu nutzen. Dies kann insbesondere die Korrespondenzanalyse bei der triangulatorischen Erfassung erleichtern. Insbesondere kann ein bei der Korrespondenzanalyse abzudeckender Disparitätsbereich eingegrenzt werden. Auch der umgekehrte Fall ist möglich, also, dass die triangulatorisch erfasste Entfernung als Eingangsgröße für die Entfernungserfassung mittels des TOF-Prinzips genutzt wird. Dies kann zur Bestimmung beziehungsweise zur Einteilung eines vorgegebenen Gesamt-Entfernungsbereichs in abschnittsweise Entfernungsbereiche 22i genutzt werden sowie zur entfernungsangepassten Vorgabe der TOF-Bilderfassungsparameter.In particular, it is possible to use the determined TOF distance as an input variable for the triangulation acquisition. This can facilitate correspondence analysis during triangulation acquisition. In particular, a disparity range to be covered by the correspondence analysis can be limited. The reverse case is also possible, i.e., the triangulation-determined distance is used as an input variable for distance acquisition using the TOF principle. This can be used to determine or divide a given total distance range into segmented distance ranges 22 i, as well as to specify the TOF image acquisition parameters based on the distance.

Eine Beleuchtungsintensität durch die Blitzlichtquelle 7 kann insbesondere so vorgegeben werden, dass eine gemeinsame und insbesondere skalare Helligkeits-Regelung aller Bilder des Z-Bufferings der ersten 3 und 4 bei insbesondere konstanter Intensitätsausleuchtung der jeweiligen Sensor-Arrays 61, ... vorgenommen wird. Diese Helligkeits-Regelung kann in Form eines Regelkreises bei der Vorrichtung 1, 21 genutzt werden.An illumination intensity by the flash light source 7 can be specified in particular such that a common and in particular scalar brightness control of all images of the Z-buffering of the first 3 and 4 in particular with constant intensity illumination of the respective sensor arrays 6 1 , ... This brightness control can be used in the form of a control loop in the device 1, 21.

Eine Kalibrierung einer Abhängigkeit einer Beleuchtungsintensität der Blitzlichtquelle von der Entfernung, also einer Beleuchtungsintensitätsfunktion, kann mithilfe eines Kalibrieraufbaus unter Verwendung eines Streumediums mit homogener Streupartikelverteilung erfolgen.A calibration of a dependence of the illumination intensity of the flash light source on the distance, i.e. an illumination intensity function, can be carried out using a calibration setup using a scattering medium with a homogeneous scattering particle distribution.

Die Pixelempfindlichkeit als Funktion der einfallenden Lichtintensität kann in Form einer proportionalen Funktion eingestellt werden oder auch in Form einer nichtlinearen Funktion.The pixel sensitivity as a function of the incident light intensity can be expressed in the form of a proportional tional function or in the form of a non-linear function.

Anhand der 6 wird nachfolgend ein Verfahren zum Kalibrieren eines Kamerasystems mit drei Kameras 51, 52 und 53 erläutert, bei denen es sich um drei Kameras der Vorrichtung 1 oder der Vorrichtung 21 handeln kann. Based on the 6 A method for calibrating a camera system with three cameras 5 1 , 5 2 and 5 3 is explained below, which can be three cameras of the device 1 or the device 21.

Die Kameras haben jeweils ein Sensor-Array 61, 62, 63 entsprechend dem, was vorstehend im Zusammenhang mit den Ausführungen der Vorrichtungen 1 und 21 bereits erläutert wurde. Bei dem Sensor-Array 6i kann es sich auch um ein CCD-Array handeln.The cameras each have a sensor array 6 1 , 6 2 , 6 3 corresponding to what was already explained above in connection with the embodiments of devices 1 and 21. The sensor array 6 i can also be a CCD array.

Zur Veranschaulichung von Lagebeziehungen wird nachfolgend im Zusammenhang mit der 6 ein xyz-Koordinatensystem benutzt. Die x-Richtung verläuft in der 6 nach rechts. Die y-Richtung verläuft senkrecht zur Zeichenebene der 6 in diese hinein. Die z-Richtung verläuft in der 6 nach oben.To illustrate positional relationships, the following is used in connection with the 6 an xyz coordinate system is used. The x-direction runs in the 6 to the right. The y-direction is perpendicular to the plane of the 6 into it. The z-direction runs in the 6 up.

Die Kameras 51 bis 53 sind im Bereich einer gemeinsamen Kamera-Anordnungsebene, nämlich der xy-Ebene der 6, längs einer Kamera-Anordnungs-Koordinate x nebeneinander angeordnet.The cameras 5 1 to 5 3 are in the area of a common camera arrangement plane, namely the xy plane of the 6 , arranged side by side along a camera arrangement coordinate x.

Die Kameras 5i sind als Kameras mit einem objektseitigen Öffnungswinkel von höchstens 30° ausgeführt. Randseitige Begrenzungen 351, 352, 353 dieser Öffnungswinkel der jeweiligen Kameras 51, 52 und 53 sind in der 6 eingezeichnet.The cameras 5 i are designed as cameras with an object-side aperture angle of maximum 30°. The edge limits 35 1 , 35 2 , 35 3 of these aperture angles of the respective cameras 5 1 , 5 2 and 5 3 are shown in the 6 marked.

Die Kameras 5i sind insbesondere als Teleobjektiv-Kameras ausgeführt mit einer Brennweite im Bereich von 10 mm.The 5 i cameras are designed as telephoto lens cameras with a focal length in the range of 10 mm.

Zur Durchführung der Kalibrierung der Kameras 51 bis 53 werden drei Kalibrier-Markierungen zur Vorgabe jeweils eines Kalibrier-Markierungspunktes PA, PB und PC ausgewählt. Diese Kalibrier-Markierungspunkte PA, PB und PC sind in verschiedenen Abständen dA, dB und dC zur Kamera-Anordnungsebene xy angeordnet. Bei den Kalibrier-Markierungspunkten PA, PB und PC kann es sich um natürliche, tiefengestaffelte Markierungspunkte einer Szenerie oder auch um künstlich bereitgestellte, tiefengestaffelte Markierungspunkte handeln.To calibrate cameras 51 to 53, three calibration markers are selected to specify a calibration marker point PA , PB, and PC, respectively. These calibration marker points PA , PB , and PC are arranged at different distances dA , dB, and dC from the camera arrangement plane xy. The calibration marker points PA , PB, and PC can be natural, depth-graded marker points of a scene or artificially provided, depth-graded marker points.

Die Kalibrier-Markierungspunkte PA, PB und PC liegen innerhalb aller drei Öffnungswinkel, also innerhalb der jeweiligen Öffnungswinkel-Begrenzungen 351, 352 und 353 der Kameras 51, 52 und 53.The calibration marking points P A , P B and P C lie within all three aperture angles, i.e. within the respective aperture angle limits 35 1 , 35 2 and 35 3 of the cameras 5 1 , 5 2 and 5 3 .

Hinsichtlich insbesondere des Verhältnisses der Abstände dA, dB, dC zu den sonstigen in der 6 eingezeichneten Längenparametern ist die 6 nicht maßstäblich. Die Abstände dA, dB und dC sind in der 6 übertrieben klein wiedergegeben.With regard in particular to the relationship between the distances d A , d B , d C and the other distances in the 6 length parameters shown is the 6 not to scale. The distances d A , d B and d C are in the 6 exaggeratedly small.

Die Kalibrier-Markierungspunkte PA, PB und PC sind alle auf Höhe der gleichen x- und auch auf Höhe der gleichen y-Koordinate angeordnet. Hinsichtlich einer Übereinstimmung der x- und der y-Koordinaten der Kalibrier-Markierungspunkte PA, PB und PC erfordert das Kalibrierverfahren keine spezifische Genauigkeit. Von Bedeutung ist die Tiefenstaffelung.The calibration marker points PA , PB, and PC are all located at the same x- and y-coordinates. The calibration procedure does not require any specific accuracy regarding the alignment of the x- and y-coordinates of the calibration marker points PA , PB , and PC . The depth gradation is important.

Beispielsweise kann für die Abstände dA, dB und dC gelten: dA= 50 m, dB = 100 m, dC = 200 m.For example, the distances d A , d B and d C can be: d A = 50 m, d B = 100 m, d C = 200 m.

Diese Entfernungs-Tiefenstaffelung entspricht einer typischen Straßenszene vor einem Fahrzeug, welches das zu kalibrierende Kamerasystem trägt.This distance depth gradation corresponds to a typical street scene in front of a vehicle carrying the camera system to be calibrated.

x-Abstände der Kameras zueinander können beispielsweise bei 2 m liegen (b = 2 m). Eine Brennweite der jeweiligen Kamera 5i kann im Bereich von 10 mm liegen. Bei einer typischen Kamera-Pixelgröße, die einem Kamera-Pixelabstand entspricht, im Bereich zwischen 3 µm und 10 µm ergibt sich eine Disparität von beispielsweise 2 mm, was beispielsweise einer Entfernung entspricht, die 200 Pixel der jeweiligen Kamera 5i überstreicht. Die relative Disparität beträgt dann 200 Pixel. Bei der Entfernung dB von 100 m ergibt sich entsprechend eine relative Disparität von 100 Pixel und bei der Entfernung dC = 200 m ergibt sich eine relative Disparität von 50 Pixel.The x-distance between the cameras can, for example, be 2 m (b = 2 m). The focal length of the respective camera 5 i can be in the range of 10 mm. With a typical camera pixel size, which corresponds to a camera pixel pitch, in the range between 3 µm and 10 µm, the result is a disparity of, for example, 2 mm, which corresponds, for example, to a distance covered by 200 pixels of the respective camera 5 i . The relative disparity is then 200 pixels. At a distance d B of 100 m, the result is a relative disparity of 100 pixels, and at a distance d C = 200 m, the result is a relative disparity of 50 pixels.

Die Abstände dA, dB und dC unterscheiden sich jeweils voneinander um mindestens 20 %. Beim nach 6 dargestellten Ausführungsbeispiel ist dieser Unterschied der Abstände zueinander sogar mindestens 50 %.The distances d A , d B and d C differ from each other by at least 20 %. 6 In the illustrated embodiment, this difference in distances is at least 50%.

Je nach Ausführung des Kalibrierungsverfahrens können auch mehr als drei Kalibrier-Markierungspunkte Pi vorgegeben werden, z. B. vier, fünf, sechs, acht, zehn oder auch nur mehr Kalibrier-Markierungspunkte. Hierüber kann die Genauigkeit der Kalibrierung verbessert werden.Depending on the calibration procedure, more than three calibration marking points P i can be specified, e.g., four, five, six, eight, ten, or even more calibration marking points. This can improve the accuracy of the calibration.

Eine jeweilige Brennweite f der Kamera 5i ist in der 6 im Vergleich zu den Abständen d zu den Markierungspunkten P veranschaulicht. Bei der Ausführung nach 6 haben die Kameras 51, 52 und 53 jeweils die gleiche Brennweite f. Je nach Ausführung des Kamerasystems können sich die Brennweiten der Kameras 5i auch voneinander unterscheiden.A respective focal length f of the camera 5 i is in the 6 compared to the distances d to the marking points P. When executed according to 6 the cameras 5 1 , 5 2 and 5 3 each have the same focal length f. Depending on the design of the camera system, the focal lengths of the cameras 5 i may also differ from one another.

Bei der Anordnung nach 6 gilt, dass die Abstände d jeweils mehr als das Vierfache der Brennweite f betragen. Auch andere Verhältnisse zwischen den Brennweiten f der Kameras 5i und den Abständen d sind möglich.When arranging according to 6 It is true that the distances d are each more than four times the focal length f. Other ratios between the focal lengths f of the cameras 5 i and the distances d are possible.

Eintrittspupillen der Kameras 5i, die in der 6 bei O1, O2 und O3 veranschaulicht sind, haben Baseline-Längen entsprechend der x-Abstände dieser Eintrittspupillen Oi zueinander. Eine x-Koordinate der jeweiligen Kamera-Eintrittspupille Oi ist in der 6, den jeweiligen Kameras 5i zugeordnet, mit x1, x2 und x3 bezeichnet.Entrance pupils of the cameras 5 i , which are in the 6 at O 1 , O 2 and O 3 have baseline lengths corresponding to the x-distances of these entrance pupils O i to each other. An x-coordinate of the respective camera entrance pupil O i is shown in the 6 , assigned to the respective cameras 5 i , designated x 1 , x 2 and x 3 .

Mit den Kameras 5i werden im Rahmen des Kalibrierverfahrens die Kalibrier-Markierungspunkte PA, PB und PC abgebildet und in einer Kamera-Bildebene der jeweiligen Kamera 5i, also in der xy-Ebene, erfasst. Dies ist in der 6 bei der Kamera 53 durch eine schematische Abbildungskonstruktion veranschaulicht, bei der die Bilder P'A, 3, P'B, 3 und P'C, 3, also die Kalibrier-Markierungs-Bildpunkte, auf den Sensor-Arrays 6i als Schnittpunkte zwischen Strahlen, die von den Eintrittspupillen Oi zu den jeweiligen Kalibrier-Markierungspunkten PA, PB, PC verlaufen, veranschaulicht sind.As part of the calibration process, the cameras 5 i are used to image the calibration marking points P A , P B and P C and to record them in a camera image plane of the respective camera 5 i , i.e. in the xy plane. This is shown in the 6 in the case of the camera 5 3 is illustrated by a schematic imaging construction in which the images P' A, 3 , P' B, 3 and P' C, 3 , i.e. the calibration marking pixels, are illustrated on the sensor arrays 6 i as intersection points between rays which run from the entrance pupils O i to the respective calibration marking points P A , P B , P C .

Die Differenzen xi - xk zwischen den jeweiligen x-Koordinaten der Eintrittspupillen der Kamera 5i, 5j sind die Baselines entsprechend der Stereokameras, zu denen diese beiden Kameras 5i, 5j gehören. Diese Differenz xi - xk wird auch als blenik bezeichnet.The differences x i - x k between the respective x-coordinates of the entrance pupils of the cameras 5 i , 5 j are the baselines corresponding to the stereo cameras to which these two cameras 5 i , 5 j belong. This difference x i - x k is also referred to as the baseline .

Ein und derselbe Kalibrier-Markierungspunkt, z. B. der Markierungspunkt PA, wird abhängig vom Abstand dA, abhängig von der Brennweite f und abhängig von der Relation der x-Koordinaten dieses Markierungspunktes PA und der Eintrittspupille der Kamera 5i im Vergleich zu dieser x-Koordinate xi um eine Disparitätsverschiebung uA,i verschoben abgebildet. Diese Disparitätsverschiebungen für die Markierungspunkte PA, PB und PC sind beispielhaft für die Kamera 53 in der 6 bei uA,3, uB,3 und uC,3 hervorgehoben.One and the same calibration marking point, e.g. the marking point P A , is imaged shifted by a disparity shift u A,i depending on the distance d A , depending on the focal length f and depending on the relation of the x-coordinates of this marking point P A and the entrance pupil of the camera 5 i compared to this x-coordinate x i by a disparity shift u A,i . These disparity shifts for the marking points P A , P B and P C are exemplary for the camera 5 3 in the 6 highlighted at u A,3 , u B,3 and u C,3 .

Eine Differenz zwischen den Disparitätsverschiebungen bei der Abbildung jeweils eines der Markierungspunkte durch zwei Kameras 5i und 5k eines Kamerapaars wird also, hier beispielhaft für den Markierungspunkt PA, als Disparitätsdifferenz duA,ik = uA,i - uA, k = A gemessen. Entsprechende Disparitäten B und C ergeben sich bei der Abbildung der Markierungspunkte PB, PC mit der jeweiligen Kamera 51, 52, 53. Diese Disparitätsdifferenzen werden auch einfach als Disparitäten bezeichnet.A difference between the disparity shifts when imaging each of the marking points by two cameras 5 i and 5 k of a camera pair is thus measured, here as an example for the marking point P A , as the disparity difference du A,ik = u A,i - u A, k = A. Corresponding disparities B and C result when imaging the marking points P B , P C with the respective camera 5 1 , 5 2 , 5 3 . These disparity differences are also simply referred to as disparities.

Bei der Durchführung des Kalibrierungsverfahrens wird für jede Paarung i und k von zwei der Kameras, 5i, 5k, die Disparitätsdifferenz duA,ik (= uA,i - uA,k), duB,ik und duC,ik der Abbildung des jeweiligen Kalibrier-Markierungs-Bildpunktes in der Kamera-Bildebene xy gemessen. Es ergeben sich insgesamt neun gemessene Disparitäten du für die drei Markierungspunkte PA, PB, PC und die drei möglichen Kamera-Paarungen 5ik, nämlich 512, 513 und 523.When performing the calibration procedure , the disparity difference du A,ik (= u A,i - u A,k ), du B,ik and du C,ik of the image of the respective calibration marker pixel in the camera image plane xy is measured for each pairing i and k of two of the cameras, 5 i , 5 k . This results in a total of nine measured disparities du for the three marker points P A , P B , P C and the three possible camera pairings 5 ik , namely 5 12 , 5 13 and 5 23 .

Da die Kamera 52 bei exakt der gleichen x-Koordinate x2 angeordnet ist wie die drei Kalibrier-Markierungspunkte PA, PB, PC, ergibt sich bei der Abbildung dieser Kalibrier-Markierungspunkte PA, PB, PC durch die Kamera 52, dass dort keine x-Abstände der Kalibrier-Markierungs-Bildpunkte von dieser x-Koordinate x2 vorliegen, so dass die Kamera 52 definitionsgemäß Disparitätsverschiebungswerte uA, 2, uB, 2 und uC, 2 = 0 aufweist.Since the camera 5 2 is arranged at exactly the same x-coordinate x 2 as the three calibration marking points P A , P B , P C , the imaging of these calibration marking points P A , P B , P C by the camera 5 2 results in there being no x-distances of the calibration marking pixels from this x-coordinate x 2 , so that the camera 5 2 has, by definition, disparity shift values u A, 2 , u B , 2 and u C , 2 = 0.

Aus der Stereo-Abbildungsformel ergibt sich: d = f blen / du The stereo imaging formula results in: d = f blen / du

Aufgelöst nach der Disparität du ergibt dies beispielsweise für den Kalibrier-Markierungspunkt PA und die Kameras 5i und 5k: du A ,ik = u A ,i u A ,k = f ( x i x k ) / d A Solving for the disparity du, this results, for example, for the calibration marker point P A and the cameras 5 i and 5 k : du A ,ik = u A ,i u A ,k = f ( x i x k ) / d A

Die drei Kameras 51, 52 und 53 liegen nicht perfekt in der Kamera-Anordnungsebene xy, sondern es gibt Abweichungen hiervon, aufgrund derer die Kalibrierung vorgenommen wird. Diese Abweichungen können analog zur Beschreibung einer Schiffsbewegung, durch einen Nickwinkel, einen Rollwinkel und einen Gierwinkel des Kamerasystems mit den Kameras 51 bis 63 im Vergleich zur Anordnungsebene xy bzw. durch ein entsprechendes Nicken, Rollen und Gieren jeder dieser Kameras 51 bis 53 einzeln beschrieben werden.The three cameras 5 1 , 5 2 , and 5 3 are not perfectly aligned within the camera alignment plane xy; rather, there are deviations from this, which are the basis for calibration. These deviations can be described, analogous to the description of a ship's motion, by a pitch angle, a roll angle, and a yaw angle of the camera system with cameras 5 1 to 6 3 relative to the alignment plane xy, or by a corresponding pitch, roll, and yaw of each of these cameras 5 1 to 5 3 individually.

Ein entsprechender Lagefehler kann in der Stereo-Abbildungsbeschreibung der obigen Gleichungen durch Aufnahme eines auf die Brennweite normierten Kippfehlers δui - δuk, also einer relativen Verkippung zwischen Kameras 5i, 5k jeweils eines der Kamerapaare berücksichtigt werden. Aus obiger Gleichung (II) ergibt sich dann, wiederum beispielhaft für den Kalibrier-Markierungspunkt PA und die Kameras 5i und Sk: ( u A ,i u A ,k ) / f = ( x i x k ) / d A ( δ u i δ u k ) A corresponding position error can be taken into account in the stereo imaging description of the above equations by including a tilt error δu i - δu k normalized to the focal length, i.e., a relative tilt between cameras 5 i , 5 k of each of the camera pairs. From the above equation (II), again as an example for the calibration marker point P A and the cameras 5 i and S k , the following results: ( u A ,i u A ,k ) / f = ( x i x k ) / d A ( δ u i δ u k )

Die linke Seite von obiger Gleichung (III) ist, was die Disparität angeht, durch Messung und was die Kamera-Brennweite angeht, durch Vorab-Kalibrierung bekannt.The left side of equation (III) above is known by measurement for disparity and by pre-calibration for camera focal length.

Es ergeben sich für die drei Kalibrier-Markierungspunkte PA, PB und PC und die insgesamt drei möglichen Kamera-Paarungen 512, 513 und 523 insgesamt neun Gleichungen des obigen Typs (III) mit neun Unbekannten, nämlich die jeweiligen x-Koordinaten x1, x2, x3 der Eintrittspupillen O1, O2 und O3 der drei Kameras 51, 52, 53, die jeweiligen Rotationsfehler δu1, δu2 und δu3 und die z-Abstände dA, dB, dC der Kalibrier-Markierungspunkte PA, PB und PC.For the three calibration marking points P A , P B and P C and the three possible camera pairings 5 12 , 5 13 and 5 23 , a total of nine equations of the above type (III) with nine unknowns result, namely the respective x-coordinates x 1 , x 2 , x 3 of the entrance pupils O 1 , O 2 and O 3 of the three cameras 5 1 , 5 2 , 5 3 , the respective rotation errors ler δu 1 , δu 2 and δu 3 and the z-distances d A , d B , d C of the calibration marking points P A , P B and P C .

Nach erfolgter Messung der Disparitäten ist es also anhand der zusätzlich bekannten Kamera-Brennweiten f möglich, diese x-Koordinaten, die Rotationsfehler und die Abstände der Kalibrier-Markierungspunkte zu bestimmen.After measuring the disparities, it is possible to determine these x-coordinates, the rotation errors and the distances of the calibration marking points using the additionally known camera focal lengths f.

Im Rahmen des Betriebs der Vorrichtung 1 beziehungsweise 21 können nach erfolgter Kalibrierung der Kameras ausgewählte Objekte 2 beziehungsweise 22 bis 24 nachverfolgt beziehungsweise getrackt werden. Sobald eines der Objekte 2 beziehungsweise 22 bis 24 im Rahmen der triangulatorischen Entfernungserfassung und/oder im Rahmen der TOF-Entfernungserfassung erfasst wurde, können insbesondere die TOF-Bilderfassungsparameter, aber auch die triangulatorischen Bilderfassungsparameter (zum Beispiel die Länge der Baseline einer jeweils ausgewählten Stereokamera, eine Objektivbrennweite der Kameras der jeweiligen Stereokamera oder ein zu überwachender Disparitätsbereich) so vorgegeben werden, dass das einmal erfasste Objekt auch bei nachfolgenden Bilderfassungen wiederum erfasst wird. Hierbei kann eine Relativbewegung des jeweils erfassten Objekts zur Vorrichtung 1 beziehungsweise 21 berücksichtigt werden, sodass beispielsweise dann, wenn zu erwarten ist, dass sich Objekt und Vorrichtung einander annähern, beim Nachverfolgen die Entfernung des jeweils ausgewählten Entfernungsbereichs 22i bei der TOF-Erfassung jeweils reduziert wird. Eine Lichtintensität der Blitzlichtquelle kann auf einen Entfernungsbereich des jeweils nachzuverfolgenden Objekts abgestimmt und insbesondere geregelt werden.During operation of the device 1 or 21, after the cameras have been calibrated, selected objects 2 or 22 to 24 can be tracked or tracked. As soon as one of the objects 2 or 22 to 24 has been detected as part of the triangulatory distance detection and/or as part of the TOF distance detection, the TOF image detection parameters in particular, but also the triangulatory image detection parameters (for example, the length of the baseline of a respectively selected stereo camera, a lens focal length of the cameras of the respective stereo camera, or a disparity range to be monitored) can be specified such that the object detected once is also detected again in subsequent image acquisitions. In this case, a relative movement of the respectively detected object to the device 1 or 21 can be taken into account, so that, for example, if it is expected that the object and the device will approach each other, the distance of the respectively selected distance range 22 i is reduced during tracking in the TOF detection. The light intensity of the flash light source can be adjusted and, in particular, controlled to a distance range of the object to be tracked.

Je nach dem Betriebsverfahren der Vorrichtung 1, 21 kann genau ein Objekt nachverfolgt werden oder es können auch mehrere Objekte gleichzeitig nachverfolgt werden.Depending on the operating method of the device 1, 21, exactly one object can be tracked or several objects can be tracked simultaneously.

Soweit mindestens ein Objekt getrackt wird, kann intermittierend eine Tracking-Erfassung des mindestens einen getrackten Objekts und ein Scan über den Gesamt-Entfernungsbereich 25 erfolgen, was die Erfassungssicherheit insgesamt bei vertretbarem Erfassungsaufwand erhöht.If at least one object is tracked, a tracking detection of the at least one tracked object and a scan over the entire distance range 25 can be carried out intermittently, which increases the overall detection reliability with a reasonable detection effort.

Die Bilderfassungsparameter können bei der TOF-Erfassung mehrerer Entfernungsbereiche 22i, 22i+1 so abgestimmt werden, dass eine Detektion über die jeweilige Kamera während genau eines Detektionszeitraums (gleicher Detektionsbeginn, gleiche Detektionsdauer) für diese Entfernungsbereiche 22i, 22i+1 erfolgt. Im Extremfall kann dies für alle Entfernungsbereiche 22i innerhalb des Gesamt-Entfernungsbereichs 25 gelten.The image acquisition parameters can be adjusted for TOF detection of multiple distance ranges 22 i , 22 i+1 such that detection via the respective camera occurs during exactly one detection period (same detection start, same detection duration) for these distance ranges 22 i , 22 i+1 . In extreme cases, this can apply to all distance ranges 22 i within the total distance range 25.

Beim Nachverfolgen von Objekten kann insbesondere die Erstreckung des jeweiligen Entfernungsbereichs 22i, in dem das Objekt erwartet wird, über eine entsprechende Anpassung einer Blitzbeleuchtungsdauer erfolgen. Zur genaueren Nachverfolgung von Objekten können kürzere Blitzbeleuchtungsdauern sowie kürzere Detektionsdauern mit entsprechender Erhöhung der Entfernungsgenauigkeit bei der TOF-Entfernungsbestimmung vorgegeben werden.When tracking objects, the extent of the respective distance range 22 i in which the object is expected can be determined by adjusting the flash illumination duration accordingly. For more precise object tracking, shorter flash illumination durations and shorter detection durations can be specified, resulting in a corresponding increase in distance accuracy for TOF distance determination.

Die Vorrichtung 1 kann ein neuronales Netz beziehungsweise ein KI-Modul beinhalten, welches zum Training des jeweiligen Betriebsverfahrens und zur entsprechenden Verbesserung einer Bilderkennung genutzt werden kann.The device 1 can contain a neural network or an AI module, which can be used to train the respective operating procedure and to improve image recognition accordingly.

Claims (15)

Verfahren zum Kalibrieren eines Kamerasystems mit mindestens drei Kameras (51, 52, 53) mit bekannten Brennweiten (f), die im Bereich einer gemeinsamen Kamera-Anordnungsebene (xy) längs einer Kamera-Anordnungs-Koordinate (x) nebeneinander angeordnet sind und deren objektseitiger Öffnungswinkel jeweils höchstens 45° beträgt, mit folgenden Schritten: - Auswählen von mindestens drei Kalibrier-Markierungen zur Vorgabe jeweils eines Kalibrier-Markierungspunktes (PA, PB, PC), wobei die Kalibrier-Markierungspunkte (PA, PB, PC) in verschiedenen Abständen (dA, dB, dC) zur Kamera-Anordnungsebene (xy) angeordnet sind, - Abbilden der Kalibrier-Markierungspunkte (PA, PB, PC) mit den Kameras (51, 52, 53) zur Erfassung von Kalibrier-Markierungs-Bildpunkten (PA', PB', PC') in eine Kamera-Bildebene der jeweiligen Kamera (51, 52, 53), - Messen für jede Paarung von zweien der Kameras (51, 52, 53), eine Disparität (A, B, C) der Abbildung des jeweiligen Kalibrier-Markierungs-Bildpunktes (PA', PB', PC') in der jeweiligen Kamera-Bildebene, - Bestimmen, aus den jeweils mindestens neun gemessenen Disparitäten (Aik, Bik, Cik) und den Kamera-Brennweiten (f), sowohl -- von Abständen (xi - xk) zwischen jeweils den Kameras (5j, 5k) eines Kamerapaars längs der Kamera-Anordnungs-Koordinate (x) als auch -- von aufgrund von Anordnungsabweichungen der Kameras (51, 52, 53) herrührenden Lagefehlern (δui - δuk) jedes Kamerapaars (5i, 5k). Method for calibrating a camera system with at least three cameras (5 1 , 5 2 , 5 3 ) with known focal lengths (f), which are arranged next to one another in the area of a common camera arrangement plane (xy) along a camera arrangement coordinate (x) and whose object-side aperture angle is each at most 45°, with the following steps: - selecting at least three calibration markings for specifying a calibration marking point (P A , P B , P C ), wherein the calibration marking points (P A , P B , P C ) are arranged at different distances (d A , d B , d C ) from the camera arrangement plane (xy), - imaging the calibration marking points (P A , P B , P C ) with the cameras (5 1 , 5 2 , 5 3 ) for capturing calibration marking image points (P A ', P B ', P C ') into a camera image plane of the respective camera (5 1 , 5 2 , 5 3 ), - measuring for each pairing of two of the cameras (5 1 , 5 2 , 5 3 ), a disparity (A, B, C) of the image of the respective calibration marking image point (P A ', P B ', P C ') in the respective camera image plane, - determining, from the at least nine measured disparities (A ik , B ik , C ik ) and the camera focal lengths (f), both -- distances (x i - x k ) between the respective cameras (5 j , 5 k ) of a camera pair along the camera arrangement coordinate (x) and -- position errors (δu i ) resulting from arrangement deviations of the cameras (5 1 , 5 2 , 5 3 ) - δu k ) of each camera pair (5 i , 5 k ). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass sich die Abstände (dA, dB, dc) der Kalibrier-Markierungspunkte (PA, PB, PC) voneinander um jeweils mindestens 20 % unterscheiden.Procedure according to Claim 1 , characterized in that the distances (d A , d B , dc) of the calibration marking points (P A , P B , P C ) differ from one another by at least 20%. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass mehr als drei Kalibrier-Markierungen zur Vorgabe von mehr als drei Kalibrier-Markierungspunkten (PA, PB, PC,...), die in verschiedenen Abständen (dA, dB, de,...) zu der Kamera-Anordnungsebene (xy) angeordnet sind, bereitgestellt werden.Procedure according to Claim 1 or 2 , characterized in that more than three calibration marks ations for specifying more than three calibration marking points (P A , P B , P C ,...) arranged at different distances (d A , d B , de,...) to the camera arrangement plane (xy). Kamerasystem, kalibriert nach einem Verfahren nach einem der Ansprüche 1 bis 3, wobei mindestens eine der Kameras (51, 52, 53) als Teleobjektiv-Kamera ausgeführt ist.Camera system calibrated according to a method according to one of the Claims 1 until 3 , wherein at least one of the cameras (5 1 , 5 2 , 5 3 ) is designed as a telephoto lens camera. Kamerasystem nach Anspruch 4, wobei die Kamerapaare (5i, 5k) als Stereokameras zur triangulatorischen Objekt-Abstandsbestimmung innerhalb einer räumlich bilderfassten Umgebung ausgeführt sind.Camera system according to Claim 4 , wherein the camera pairs (5 i , 5 k ) are designed as stereo cameras for triangulatory object distance determination within a spatially imaged environment. Kamerasystem nach Anspruch 5, - mit mindestens einer Blitzlichtquelle (7, 13) zur Umgebungsbeleuchtung mit gesteuerter Vorgabe eines Blitzbeleuchtungsbeginns (t = 0, t = tflash) und einer Blitzbeleuchtungsdauer (Δtflash) aufeinanderfolgender Beleuchtungsblitze, - wobei die Kameras (51, 52, 141, 142, 151, 152, 153, 154, 201, 202, 203, 204) der Stereokamera (5, 14, 15, 20; 5, 14) jeweils ein Sensor-Array (6) mit gesteuerter Vorgabe eines Detektionsbeginns (t = tE, t = tE1) und einer Detektionsdauer (Δtexp) aufweisen, - mit einer Steuereinrichtung (10), die mit den Kameras (51, 52, 141, 142, 151, 152, 153, 154, 201, 202, 203, 204) und der Blitzlichtquelle (7, 13) in Signalverbindung steht, zur zeitlich synchronisierten Vorgabe von folgenden Bilderfassungsparametern: - des Blitzbeleuchtungsbeginns (t = 0, t = tflash) und der Blitzbeleuchtungsdauer (Δtflash) der Blitzlichtquelle (7, 13) sowie - des Detektionsbeginns (t = tE, t = tE1) und der Detektionsdauer (Δtexp) der Kameras (51, 52, 141, 142, 151, 152, 153, 154, 201, 202, 203, 204).Camera system according to Claim 5 , - with at least one flash light source (7, 13) for ambient illumination with controlled specification of a flash illumination start (t = 0, t = t flash ) and a flash illumination duration (Δt flash ) of successive illumination flashes, - wherein the cameras (5 1 , 5 2 , 14 1 , 14 2 , 15 1 , 15 2 , 15 3 , 15 4 , 20 1 , 20 2 , 20 3 , 20 4 ) of the stereo camera (5, 14 , 15, 20; 5, 14) each have a sensor array (6) with controlled specification of a detection start (t = t E , t = t E1 ) and a detection duration (Δt exp ), - with a control device (10) which is in signal connection with the cameras (5 1 , 5 2 , 14 1 , 14 2 , 15 1 , 15 2 , 15 3 , 15 4 , 20 1 , 20 2 , 20 3 , 20 4 ) and the flash light source (7, 13), for the time-synchronized specification of the following image acquisition parameters: - the start of the flash illumination (t = 0, t = t flash ) and the flash illumination duration (Δt flash ) of the flash light source (7, 13) and - the start of detection (t = t E , t = t E1 ) and the detection duration (Δt exp ) of the cameras (5 1 , 5 2 , 14 1 , 14 2 , 15 1 , 15 2 , 15 3 , 15 4 , 20 1 , 20 2 , 20 3 , 20 4 ). Kamerasystem nach Anspruch 6 - mit mindestens einer weiteren Blitzlichtquelle (13) mit gesteuerter Vorgabe eines Blitzbeleuchtungsbeginns (t = 0, t = tflash) und einer Blitzbeleuchtungsdauer (Δtflash) aufeinanderfolgender Beleuchtungsblitze (8, 81) und/oder - mit mindestens einer weiteren Stereokamera (14) mit zwei weiteren zueinander beabstandeten Kameras (141, 142) zur triangulatorischen Objekt-Abstandsbestimmung innerhalb der umfassten Umgebung.Camera system according to Claim 6 - with at least one further flash light source (13) with controlled specification of a flash illumination start (t = 0, t = t flash ) and a flash illumination duration (Δt flash ) of successive illumination flashes (8, 8 1 ) and/or - with at least one further stereo camera (14) with two further cameras (14 1 , 14 2 ) spaced apart from one another for triangulatory object distance determination within the enclosed environment. Kamerasystem nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass die Steuereinrichtung (10) einen Bildprozessor zur Echtzeit-Verarbeitung aufweist.Camera system according to Claim 6 or 7 , characterized in that the control device (10) has an image processor for real-time processing. Verfahren zum Betrieb eines Kamerasystems nach einem der Ansprüche 6 bis 8, mit folgenden Schritten: - Vorgeben der Bilderfassungsparameter derart, dass ein erster Entfernungsbereich (gz-1) erfasst wird, - Erfassen des Entfernungsbereichs (gz-1) mit den vorgegebenen Bilderfassungsparametern mit den Kameras der mindestens einen Stereokamera, - Vorgeben der Bilderfassungsparameter derart, dass ein weiterer Entfernungsbereich (gz) erfasst wird, der an den vorhergehenden Entfernungsbereich (gz-1) längs der Vorwärtsrichtung (4) in einer Erfassungsfortschrittsrichtung (+z) angrenzt oder mit diesem teilweise überlappt, - Erfassen des weiteren Entfernungsbereichs (gz) mit den zuletzt vorgegebenen Bilderfassungsparametern mit den Kameras der mindestens einen Stereokamera, - digitales Filtern des zuletzt erfassten Bildes zum Herausfiltern von strukturlosen Bildbereichen, - Überschreiben des im der letzten Erfassung vorhergehenden Erfassungsschritt erfassten Bildes mit dem zuletzt erfassten Bild in nicht herausgefilterten Bildbereichen des zuletzt erfassten Bildes zur Erzeugung eines aktualisierten Bildes, - Vorgeben der Bilderfassungsparameter derart, dass ein weiterer Entfernungsbereich (gz+1) erfasst wird, der an den vorhergehenden Entfernungsbereich (gz) längs der Vorwärtsrichtung (4) in der Erfassungsfortschrittsrichtung (-z) angrenzt oder mit diesem teilweise überlappt, - Wiederholen der letzten Schritte Erfassen, digitales Filtern, Überschreiben und Vorgeben für weitere Entfernungsbereiche (224 bis 221), bis ein vorgegebener Gesamt-Entfernungsbereich (25) abgedeckt ist, der sich aus einer Überlagerung der erfassten Entfernungsbereiche (221 bis 22max) ergibt, - Ausgeben des zuletzt aktualisierten Bildes.Method for operating a camera system according to one of the Claims 6 until 8 , with the following steps: - specifying the image acquisition parameters such that a first distance range (gz-1) is acquired, - capturing the distance range (gz-1) with the specified image acquisition parameters using the cameras of the at least one stereo camera, - specifying the image acquisition parameters such that a further distance range (gz) is acquired, which borders on or partially overlaps the previous distance range (gz-1) along the forward direction (4) in a capture progress direction (+z), - capturing the further distance range (gz) with the last specified image acquisition parameters using the cameras of the at least one stereo camera, - digitally filtering the last acquired image to filter out structureless image areas, - overwriting the image acquired in the acquisition step preceding the last acquisition with the last acquired image in non-filtered image areas of the last acquired image to generate an updated image, - specifying the image acquisition parameters such that a further Distance range (gz+1) is detected which borders on or partially overlaps the previous distance range (gz) along the forward direction (4) in the detection progress direction (-z), - repeating the last steps of detection, digital filtering, overwriting and specification for further distance ranges (22 4 to 22 1 ) until a predetermined total distance range (25) is covered, which results from a superposition of the detected distance ranges (22 1 to 22 max ), - outputting the last updated image. Verfahren zum Betrieb eines Kamerasystems nach einem der Ansprüche 6 bis 8, mit folgenden Schritten: - Erfassen einer Time of Flight (TOF)-Entfernung mindestens eines Objekts (2; 22 bis 24) über eine entsprechende Zuordnung der Blitzbeleuchtungsdauer und der Detektionsdauer mittels des TOF-Prinzips, - Erfassen einer triangulatorischen Entfernung des Objekts (2; 22 bis 24) mittels der mindestens einen Stereokamera mittels des triangulatorischen Prinzips, - Abgleichen der TOF-Entfernung und der triangulatorischen Entfernung.Method for operating a camera system according to one of the Claims 6 until 8 , with the following steps: - detecting a time of flight (TOF) distance of at least one object (2; 22 to 24) via a corresponding assignment of the flash illumination duration and the detection duration using the TOF principle, - detecting a triangulatory distance of the object (2; 22 to 24) by means of the at least one stereo camera using the triangulatory principle, - comparing the TOF distance and the triangulatory distance. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die TOF-Entfernung als Eingangsgröße für die triangulatorische Erfassung genutzt wird.Procedure according to Claim 10 , characterized in that the TOF distance is used as input for the triangulatory detection. Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass eine Beleuchtungsintensität der Blitzlichtquelle (7, 13) auf einen zu erfassenden Entfernungsbereich (22i) abgestimmt wird.Method according to one of the Claims 9 until 11 , characterized in that an illumination intensity of the flash light source (7, 13) is set to a distance range to be detected (22 i ). Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass die Blitzintensität quadratisch von einer Entfernung (di) innerhalb des zu erfassenden Entfernungsbereichs (22i) abhängt.Procedure according to Claim 12 , characterized in that the flash intensity depends quadratically on a distance (d i ) within the distance range (22 i ) to be detected. Verfahren nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass eine Pixelempfindlichkeit eines Sensorpixels des Sensor-Arrays (6) als Funktion einer einfallenden Lichtintensität der Blitzlichtquelle (7, 13) geregelt wird.Method according to one of the Claims 9 until 13 , characterized in that a pixel sensitivity of a sensor pixel of the sensor array (6) is controlled as a function of an incident light intensity of the flash light source (7, 13). Verfahren nach einem der Ansprüche 9 bis 14, dadurch gekennzeichnet, dass eine Auswahl von zu erfassenden Objekt-Entfernungsbereichen (22i) an einen Bewegungsmodus des Kamerasystems (1; 21) relativ zur Umgebung angepasst wird.Method according to one of the Claims 9 until 14 , characterized in that a selection of object distance ranges (22 i ) to be detected is adapted to a movement mode of the camera system (1; 21) relative to the environment.
DE102024206379.7A 2024-07-05 2024-07-05 Procedure for calibrating a camera system Active DE102024206379B3 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102024206379.7A DE102024206379B3 (en) 2024-07-05 2024-07-05 Procedure for calibrating a camera system
PCT/EP2025/068850 WO2026008709A1 (en) 2024-07-05 2025-07-02 Method for calibrating a camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102024206379.7A DE102024206379B3 (en) 2024-07-05 2024-07-05 Procedure for calibrating a camera system

Publications (1)

Publication Number Publication Date
DE102024206379B3 true DE102024206379B3 (en) 2025-10-23

Family

ID=96429535

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102024206379.7A Active DE102024206379B3 (en) 2024-07-05 2024-07-05 Procedure for calibrating a camera system

Country Status (2)

Country Link
DE (1) DE102024206379B3 (en)
WO (1) WO2026008709A1 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012095258A1 (en) * 2011-01-12 2012-07-19 3Vi Gmbh Remote-control device and interface module for controlling an apparatus on the basis of a moving object
DE102011080702B3 (en) * 2011-08-09 2012-12-13 3Vi Gmbh Object detection device for a vehicle, vehicle having such an object detection device
US20150296200A1 (en) * 2012-07-09 2015-10-15 Brightway Vision Ltd. Stereo gated imaging system and method
US20190056498A1 (en) * 2016-03-01 2019-02-21 Brightway Vision Ltd. Gated imaging apparatus, system and method
DE102018213976A1 (en) * 2017-08-22 2019-02-28 Myestro Interactive Gmbh Apparatus for measuring a distance of an object to a sensor
US20190158813A1 (en) * 2016-06-10 2019-05-23 Lucid VR, Inc. Real Time Re-Calibration of Stereo Cameras
WO2022069425A2 (en) * 2020-09-29 2022-04-07 Tripleye Gmbh Device for calibrating a spatial position of a center of an entrance pupil of a camera, calibrating method therefor and system for determining the relative position of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, relative to each other and determination method therefor
WO2022069424A1 (en) * 2020-09-29 2022-04-07 Tripleye Gmbh Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods
US20220174255A1 (en) * 2020-11-30 2022-06-02 Microsoft Technology Licensing, Llc Spad array for intensity image capture and time of flight capture
WO2022179998A1 (en) * 2021-02-23 2022-09-01 Tripleye Gmbh Optical assembly for generating a real-time image and a real-time assignment of environmental objects, and vehicle comprising such an assembly

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200160548A1 (en) * 2018-11-16 2020-05-21 Electronics And Telecommunications Research Institute Method for determining disparity of images captured multi-baseline stereo camera and apparatus for the same

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012095258A1 (en) * 2011-01-12 2012-07-19 3Vi Gmbh Remote-control device and interface module for controlling an apparatus on the basis of a moving object
US9451237B2 (en) * 2011-01-12 2016-09-20 Myestro Interactive Gmbh Remote control device for controlling a mechanism with the aid of a movable object and an interface module based on movement and distance of the movable object with respect to a camera
DE102011080702B3 (en) * 2011-08-09 2012-12-13 3Vi Gmbh Object detection device for a vehicle, vehicle having such an object detection device
WO2013020872A1 (en) * 2011-08-09 2013-02-14 3Vi Gmbh Object detection device for a vehicle, vehicle with such an object detection device and method for determining a relative positional relationship of stereo cameras with respect to one another
US20150296200A1 (en) * 2012-07-09 2015-10-15 Brightway Vision Ltd. Stereo gated imaging system and method
US20190056498A1 (en) * 2016-03-01 2019-02-21 Brightway Vision Ltd. Gated imaging apparatus, system and method
US20190158813A1 (en) * 2016-06-10 2019-05-23 Lucid VR, Inc. Real Time Re-Calibration of Stereo Cameras
DE102018213976A1 (en) * 2017-08-22 2019-02-28 Myestro Interactive Gmbh Apparatus for measuring a distance of an object to a sensor
WO2022069425A2 (en) * 2020-09-29 2022-04-07 Tripleye Gmbh Device for calibrating a spatial position of a center of an entrance pupil of a camera, calibrating method therefor and system for determining the relative position of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, relative to each other and determination method therefor
WO2022069424A1 (en) * 2020-09-29 2022-04-07 Tripleye Gmbh Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods
US20220174255A1 (en) * 2020-11-30 2022-06-02 Microsoft Technology Licensing, Llc Spad array for intensity image capture and time of flight capture
WO2022179998A1 (en) * 2021-02-23 2022-09-01 Tripleye Gmbh Optical assembly for generating a real-time image and a real-time assignment of environmental objects, and vehicle comprising such an assembly

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SWEDISH, Tristan ; BAUER, Sebastian: Beyond the line of sight? What's new in optical perception. In: AUVSI XPONENTIAL 2022, 2022, S. 1-8. - ISBN 978-1-7138-5223-0 (e). URL: https://www.xponential.org/xponential2022/Custom/Handout/Speaker51584_Session4220_1.pdf [abgerufen am 2023-08-25]. *

Also Published As

Publication number Publication date
WO2026008709A1 (en) 2026-01-08

Similar Documents

Publication Publication Date Title
DE102012112322B4 (en) Method for optically scanning and measuring an environment
EP3014569B1 (en) Inspection of the contoured surface of the underbody of a motor vehicle
CH692873A5 (en) Device and method for the geometric calibration of CCD cameras.
EP3593190B1 (en) 3d microscopy
DE102017010683A1 (en) Method for automatic restoration of a measured state of a projection system
WO2022002719A1 (en) Device and method for detecting the surroundings of a vehicle
DE102022103294B4 (en) Calibration method for a headlight device of a motor vehicle
WO2023041706A1 (en) Method and device for measuring depth information relating to a scene on the basis of structured light generated by means of at least one parallel radiation source
WO2009018894A1 (en) Method and device for determining geometric data of a measured object
DE102023205343A1 (en) Device for spatial image capture of an environment moving relative to the device and operating method therefor
DE102024206379B3 (en) Procedure for calibrating a camera system
DE102017113194B4 (en) Method for tracking a plurality of point-shaped objects in space
WO2020257839A1 (en) Camera system
WO2025113959A1 (en) Method for capturing a scene comprising a phase object
WO2017162329A1 (en) Method and apparatus for determining 3d coordinates of at least one predetermined point of an object
DE102022002766B4 (en) Method for three-dimensional reconstruction of a vehicle environment
DE102016109131B4 (en) Method for the three-dimensional detection of an object
WO2024032971A1 (en) Device and method for measuring three-dimensional virtual images and objects on a head-up display
CH697319B1 (en) Method and apparatus for geometric calibration of optoelectronic measuring cameras.
DE60110341T2 (en) Arrangement and method for distance measurement
DE10301094B4 (en) Device for measuring the distance of distance points to a camera
WO2018054888A1 (en) Method and device for the stereo photogrammetric measurement of different objects
EP3556088B1 (en) Method and device for determining intersections between two overlapping images of a surface
DE102024001248B4 (en) Method for controlling a lighting device of a motor vehicle and lighting system
DE102024004340B3 (en) Method for determining a slipstream area behind a vehicle ahead, computer program product, driver assistance system and motor vehicle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division